Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Entdeckung des Grabes des ersten Königs von Caracol
Jahrhundertealte DNA der Grönlandhunde: Ein Erbe in Gefahr
Lebenserwartung steigt, aber Herausforderungen bleiben
Peter Jackson plant Wiederbelebung des Moa – Kritik an Gen-Experimenten
Katzen bringen lebendige Mäuse nach Hause – kein Geschenk, sondern eine Lektion
Massereichste Schwarze Löcher beim Verschmelzen ertappt
Polioviren im Abwasser: Alarmzeichen für Kinderlähmung in Deutschland
30 Jahre MP3: Die Revolution der Musikübertragung
Älteste DNA aus dem alten Ägypten: Ein Töpfer mit Arthritis
Wiederentdeckung der Kernfusion: Ruhligs bahnbrechende Forschung von 1938 neu bewertet