Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Insektenforscher warnt vor dem Verlust von Schlüsselarten
Meta erzielt Fortschritte in der Gehirn-zu-Sprache-Technologie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Studie widerlegt Mythen über Sprachmodelle: Keine emergenten Fähigkeiten
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Forschung enthüllt: Inkas nutzten „Computer“ aus Menschenhaar für komplexe Datenverwaltung
OpenAI präsentiert Deep Research: KI revolutioniert die Informationsrecherche
Forschungsteam entdeckt geheimnisvollen Exoplaneten GJ 1214b – eine „Super-Venus“ mit CO₂-reicher Atmosphäre
Entdeckung des längsten Radiojets aus der Frühzeit des Universums
Kosmisches Rätsel: Neue Erkenntnisse über die Entwicklung des Universums