Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Yale-Forschung revolutioniert Behandlung von Gehirntumoren
Neue Studie zu post-vaccination syndrome: Immunologische Muster als Schlüssel zur Diagnose und Behandlung
Aspartam und seine Auswirkungen auf die Blutgefäße
Biotechnologie zur sicheren Speicherung von Wasserstoff
Neue Studie: Primordiale Schwarze Löcher könnten Menschen weniger gefährlich sein als gedacht
Forscher entdecken Mechanismus zur Rückumwandlung von Krebszellen
Eisbärenfett als umweltfreundliche Alternative zu schädlichen PFAS-Chemikalien
Neue Studie: Intelligentes Leben im Universum könnte häufiger sein als gedacht
Millennium-Observatorium: Virtuelle Beobachtungen revolutionieren die Astronomie
Entdeckung eines rasenden Sterns: Der schnellste Exoplanet und sein Hypergeschwindigkeitsstern