Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Einsteins Relativitätstheorie: Neue Erkenntnisse schließen alte Lücken
Schlafmediziner: Tipps für erholsamen Schlaf bei Hitze
Volkswagen und Bosch: Autonomes Fahren für alle
Risiken und Nebenwirkungen der Vollnarkose häufig unterschätzt
Forscher identifizieren bislang unbekanntes Meeresreptil
Gab es doch einen Kometentreffer vor 12.800 Jahren?
Super-Ager: Soziale Kontakte und Gehirnstruktur entscheidend für gesundes Altern
Tunnelknall bei Hochgeschwindigkeitszügen: Neue Lösungen in Sicht
Könnte ein Mangel an Lithium der Auslöser für Alzheimer sein?
Ursache für Massensterben von Seesternen im Pazifik gefunden