Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Hinweise auf einen neunten Planeten im Sonnensystem verdichten sich
Axolotl: Schlüssel zur Regeneration von Gliedmaßen entdeckt
Durchbruch in der Krebsforschung: Chemiker synthetisieren potenzielles Antikrebsmittel
Erste Hinweise auf Exoplaneten bereits 1917 entdeckt
Rückkehr der Schattenwölfe: Gentechnik erweckt ausgestorbene Art
Warum die Zeit im Alter schneller vergeht: Ein Blick auf unsere Wahrnehmung
Neue Theorie zum Fermi-Paradoxon: Warum wir keine Außerirdischen finden
Chinas Roboterrevolution: Unitree und der Aufstieg der Innovation
Physiker erzeugen ersten Zeit-Quasikristall aus angeregtem Diamanten
Forscher erzeugen „heiße“ Schrödingers Katze aus gemischten Zuständen