Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Neue Hoffnung im Kampf gegen Fettleibigkeit
Neuer Impfstoff schützt langanhaltend vor Covid-19 & Grippe
Sex mit Neandertalern: Rückblick auf einen Skandal
Deutsche Forscher entschlüsseln Schwarmintelligenz von 50 Millionen Heuschrecken
DeepSeek und Co scheitern am „Last Exam“
Dauer ist relevanter: Wassertemperatur beim Händewaschen ist egal
3D-Drucker: Kühlende thermoelektrische Materialien sind leistungsstark und nachhaltig
Französische Patisserie aus dem 3D-Drucker
Warum sehen wir überall Gesichter?
Timber Circle: Stonehenge-ähnliche Anlage in Dänemark entdeckt