Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
„Unsichtbare Giganten“: Forscher fürchten Teufelskreis in der Arktis
1 Terabit pro Sekunde: Kanadischer Chip könnte KI-Energiekrise lösen
Superbugs: KI entschlüsselt multiresistente Keime in Rekordzeit
Physiker entdecken Toponium: Ein „nicht nachweisbares“ Teilchen
Erste Babys mit DNA von drei Menschen geboren
Rätsel um riesige Römer-Schuhe am Hadrianswall
Geschlecht von Babys: Zufall oder Muster?
17-Jährige löst jahrzehntealtes Mathematikrätsel
Rauchen und Luftverschmutzung: Neue Erkenntnisse zu Lungenkrebs
Softbank plant den Einsatz von einer Milliarde KI-Agenten