Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Alarmierende Studien: Kognitive Fähigkeiten der Menschen nehmen ab
Herzinfarkte bei Frauen: Frühe Erkennung und Prävention sind entscheidend
Sternentriebwerke: Die Zukunft des Astro-Engineerings
Wale: Schlüsselspieler im globalen Nährstoffkreislauf
Flagstones: Mögliche Inspirationsquelle für Stonehenge entdeckt
Neue Karte enthüllt Antarktis ohne Eis: Revolutionäre Erkenntnisse zur Eisdicke
Entdeckung von vier Exoplaneten um Barnards Stern
Steinzeitliche Schifffahrt: Menschen überqueren das Mittelmeer vor 8000 Jahren
Frauen im Alter geistig fitter als Männer dank inaktivem X-Chromosom
OpenAI präsentiert KI-Autor: Ein Wendepunkt im kreativen Schreiben?