Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Natronseen als Wiege des Lebens: Phosphor als Schlüsselkomponente
Neue Hoffnung gegen resistente Bakterien: Lariocidin entdeckt
KI-Modelle: Lernen aus Texten und ihre Grenzen
Homeoffice-Studie: Chefs arbeiten häufiger von zu Hause als ihre Mitarbeiter
Neue Theorie erklärt das Fermi-Paradoxon: Warum wir keine Außerirdischen finden
Rückgang der Darmkrebs-Todesfälle in Deutschland
Neue Erdbebenprognose am Supervulkan in Italien
Polarlichter auf Neptun durch James-Webb-Teleskop nachgewiesen
Magnetisch gesteuerte chirurgische Werkzeuge revolutionieren minimal-invasive Gehirnoperationen
Genetische Anpassungen bei Pferden: Stopcodon steigert Energieproduktion