Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Möglicher Verkauf von Google Chrome: Auswirkungen auf Nutzer
Planeten beeinflussen möglicherweise die Sonnenaktivität
Blazar PKS 1424+240: Ein Schwarzes Loch sendet Gammastrahlen auf die Erde
Fliegende Nano-Plattformen revolutionieren die Atmosphärenforschung
Rückgang des Web-Traffics durch Googles KI-Zusammenfassungen
Gefährlicher Beautytrend: Tanlines schaden unserer Haut
AOL beendet Modem-Zugang zum Internet nach 34 Jahren
Klimakrise im Anthropozän: Dringender Handlungsbedarf erforderlich
Hintergründe zur aufstrebenden Longevity-Industrie in Österreich
Neue Studie hinterfragt die Denkfähigkeit von KI-Reasoning-Modellen