Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Astronomie-Überraschung: Supermassive Schwarze Löcher 1.000 Mal schwerer als erwartet
Minitumoren aus Patientenproben: Neue Hoffnung für krebskranke Kinder
Mosa Meat beantragt Zulassung für Laborfleisch-Zutat in der EU
Gehirn-Computer-Schnittstelle: Patient steuert Quadcopter allein mit Gedanken
Alibaba präsentiert „Qwen 2.5-Max“: Neuer Herausforderer im KI-Rennen
Risiko so hoch wie lange nicht: Neu entdeckter Asteroid könnte 2032 Erde treffen