Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Zwillingsstudie zeigt erhöhtes Krebsrisiko durch Tattoos: Hautkrebs und Lymphome im Fokus
Unbekannte Lebensform in Wüsten entdeckt: Rätselhafte Röhrenstrukturen könnten Millionen Jahre alt sein
Rückgang der Ausdauer bei deutschen Jugendlichen seit Corona
Die Geheimnisse der infantilen Amnesie: Wo sind unsere frühesten Erinnerungen geblieben?
350 Jahre alter Trick gefährdet moderne Verschlüsselungen
Hippocampale Gedächtniscodierung bei menschlichen Säuglingen
Warum Robben nicht ertrinken: Sauerstoffwahrnehmung als Überlebensstrategie
Interview: Warum traditionelle Bild-Captchas verschwinden sollten
Einige große Hammerhaie bleiben in den Bahamas statt zu migrieren
Cloudflare entwickelt KI-Labyrinth zur Abwehr unerwünschter Bots