Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Chinesischer Mini-Satellit revolutioniert abhörsichere Datenübertragung über 12.000 km
Revolutionäre Solarzellen aus Mondstaub: Ein Schritt zur nachhaltigen Mondbasis
Forscher entwickelt Immunabwehr gegen Zecken: Ein Durchbruch für die Impfstoffforschung
Sensationelles Massengrab in Wien: Schlüssel zur Gründungsgeschichte entdeckt
Mars-Rover Perseverance testet Materialien für zukünftige Raumanzüge
Höhlenforschung mit UV-Licht: Neue Erkenntnisse über extremen Lebensraum
KI-gestützte Schnittstelle ermöglicht Sprachwiederherstellung bei Patienten
Abschied von Gaia: Europas Raumsonde geht in den Ruhestand
Alzheimer: Zwei Wirkstoffe vor Zulassung
KI: Gedankenübersetzung für Menschen mit Aphasie