Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Der Mond: Schlüssel zur Stabilität und Entstehung des Lebens auf der Erde
Strom aus dem Auspuff: Neuer thermoelektrischer Generator nutzt Abgaswärme
Phanerozoische Eiszeiten durch multiple Kühlmechanismen verursacht
Außerirdisches Leben häufiger als gedacht?
Entdeckung eines 30 Millionen Jahre alten Hyaenodonten: Ein Blick auf die Top-Raubtiere des Oligozän
Unser Gehirn und die Null: Eine besondere Herausforderung für die Zahlenverarbeitung
Geminga: Der geheimnisvolle Pulsar im Fokus der Forschung
Entdeckung des schnellsten Planetensystems: Zwergstern und Exoplanet rasen durch die Milchstraße
Entdeckung eines ultra-hochenergetischen kosmischen Neutrinos mit KM3NeT
Antiker Papyrus enthüllt Kriminalfall und römische Rechtsprechung im 2. Jahrhundert n. Chr.