Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Die Suche nach außerirdischem Leben: Sind wir allein im Universum?
Herculaneum: Rätsel um das verglaste Gehirn eines Vulkanopfers gelöst
Hitze beschleunigt das Altern: Studie zeigt Zusammenhang zwischen Hitzetagen und biologischem Alter
Klimakrise: KI-Studie prognostiziert schnellere Erreichung kritischer Temperaturgrenzen
E-Umstellung in Österreich: Elektrische Lkw und Müllfahrzeuge auf dem Vormarsch
Microsoft präsentiert Majorana-1-Chip: Ein Meilenstein im Quantencomputing
Zukunft des Bauens: Kreislaufwirtschaft und Urban Mining als Schlüssel zur Nachhaltigkeit
Traumerinnerung: Einfluss individueller Faktoren und Schlafmuster
Neuer Mechanismus: Elektronenbewegung auf eine Dimension beschränkt
Mars einst mit Ozeanen und Stränden: Neue Studie enthüllt lebensfreundliche Vergangenheit