Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Timber Circle: Stonehenge-ähnliche Anlage in Dänemark entdeckt
Halluzinationsverhinderungswerkzeugkasten: KI-Märchen und die Wirklichkeit
Tal der Könige: Verschollenes Grab von Pharao Thutmosis II. gefunden
Kosmologie: Ist das Universum perfekt designt oder nur ein Zufall?
Künstliche Intelligenz erobert Callcenter: Weniger Jobs, aber höhere Gehälter?
Revolutionärer KI-Durchbruch: Superbugs in 48 Stunden entschlüsselt
Erste Wassermoleküle im Universum: Entstehung bereits 100 Millionen Jahre nach dem Urknall?
Genveränderung bringt „Wollhaarmäuse“ hervor: Ein Schritt näher zum Mammut?
Forschung entschlüsselt Eiszeit-Zyklen: Nächste Kaltzeit in 10.000 Jahren?
Spektakuläre Entdeckung: Palast von König Harold II. in Bosham lokalisiert