Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Nuklear-Rakete verkürzt Mars-Flug auf 45 Tage
Omega-3-Fettsäuren können das Altern verlangsamen
Erstes Chatbot-Gespräch der Welt: Ein Blick in die Vergangenheit
Noyb klagt gegen X: Datenschutzverletzungen beim KI-Training aufgedeckt
Webbs größtes Rätsel: In frühen Galaxien leuchteten nicht Sterne, sondern Schwarze Löcher
Die bekanntesten Millennium-Probleme suchen noch eine Lösung
Curcumin fördert Muskelregeneration bei Sportlern
Japan erzielt Fortschritte bei drahtloser Stromübertragung aus dem All
Entdeckung im Gehirn: „Startknopf“ für nächtliche Reinigung identifiziert
Ameisen zeigen nachtragendes Verhalten in Nachbarschaftsstreitigkeiten