Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Dinosaurier-Herden in Kanada: Neue Erkenntnisse über Sozialverhalten
Kleinste Schlange der Welt auf Barbados wiederentdeckt
Verschollenes Kriegsschiff-Wrack aus Erstem Weltkrieg entdeckt
Unsichtbare Gefahr: WLAN erkennt und ortet menschliche Körper – ganz ohne Kamera
Moderne Alchemie: Firma will mit Fusion Gold aus Quecksilber herstellen
Krebs durch eincremen? Die Akte Sonnencreme
China exportiert Staatspropaganda mit KI-Modellen
Meilenstein für Quantencomputer: Magische Zustände für fehlerfreies Rechnen
Erstes Quantenbit aus Antimaterie: Physiker manipulieren Antiprotonen
Plattenvertrag für KI-generierte Musik: Smopp Records startet Wettbewerb