Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Astronomen messen kosmische Distanzen mit bisher unerreichter Präzision
Astronomen entdecken die größte Struktur im Universum: Quipu
Entdeckung des größten unterirdischen Thermalsees der Welt in Albanien
Quantencomputer simulieren Vakuumzerfall und eröffnen neue Perspektiven für die Physik
Wie riechen altägyptische Mumien? Studie enthüllt überraschende Duftnoten
Fossilfund in der Antarktis: Geheimnisse der Vogel-Evolution
Bedenken gegenüber der DeepSeek-App: Sicherheitsrisiken und Datenschutzprobleme
Früheste kurzschwänzige Vögel aus dem späten Jura Chinas entdeckt
3D-Druck-Implantat schafft das Wunder: Neue Herzklappen wachsen
Überraschende Fakten über unser Sonnensystem: Ein Blick in die Unendlichkeit