Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Schlafstörungen bei Kindern und Jugendlichen nehmen zu
Erstes Betriebssystem für Quanten-Netzwerke: QNodeOS
Revolution im Küstentransport: Der Viceroy Seaglider von Regent
Saturn krönt sich zum mondreichsten Planeten: 128 neue Monde entdeckt
Gerechte Arbeitsteilung: Halbe-Halbe als Schlüssel zur Reduzierung häuslicher Gewalt
Megalodon: Der schlanke Urzeithai, der die Vorstellung von Gigantismus neu definiert
Letztes Krokodil Mitteleuropas entdeckt
Neue Google-KI kann Roboter steuern
Erster Patient mit totalem künstlichen Herzen in Australien erfolgreich entlassen
Flamingo-Test: Indikator für Gesundheit und Lebensdauer