Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Wissenschaftler fordern präzise Zeitmessung auf dem Mond
Forschung zu Lichtsegeln: 20 Prozent der Lichtgeschwindigkeit in greifbarer Nähe
All-Optical Computer mit 100 GHz Taktfrequenz vorgestellt
Forschungsgruppe zeigt: KI-Modelle können sich selbst vervielfältigen
Astronomen rätseln über geheimnisvolle Objekte am Rand der Milchstraße
Schweizer Forschung stellt Theorien über Planetensysteme in Frage
Zahnseide und Mundhygiene: Ein Schlüssel zur Schlaganfallprävention
Entdeckung einer neuen „Supererde“: HD 20794 d
Wichtige Entdeckung: Gesteinsproben vom Asteroiden Bennu enthalten Bausteine des Lebens
Durchbruch in der KI: Deepseek R1 und ChatGPT o1 zeigen neue Denkfähigkeiten