Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Cloudflare entwickelt KI-Labyrinth zur Abwehr unerwünschter Bots
Unerwarteter Sauerstoffnachweis in der frühesten Galaxie
Menschliche Evolution: Zwei Gründerpopulationen für Homo sapiens entdeckt
Astronauten kehren zurück: Alterungsprozess im All sichtbar
Körpergröße: Geschlechterunterschied wächst in wohlhabenden Ländern
Rätselhafte Radiosignale aus dem Weltraum: Entdeckung eines Doppelsternsystems
Unerwartete Galaxienrotation: Hinweise auf ein kosmisches Rätsel
Neue Erkenntnisse zur Synapsenbildung im Gehirn: Ein Durchbruch in der Neurobiologie
Supernovae als mögliche Auslöser für Massenaussterben der Erdgeschichte
Uneinigkeit in der Altersforschung: Was bedeutet Alterung wirklich?