Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Erster Nachweis eines photonischen Windrads aus Licht
So lassen sich Aliens am einfachsten aufspüren
Leistungsfähige Quantennetzwerk-Knoten
EU beschleunigt Pläne für digitalen Euro nach US-Stablecoin-Gesetzen
Solarfarmen im All: Vision oder Zukunft?
Maschinen und Denken: Der Turing-Test im Fokus der KI-Forschung
Projekt Hyperion: Raumschiffe für interstellare Reisen
Abrupteste Überflutung formte das Mittelmeer
Fortschritt in der Robotik: Lernfähiger Roboter meistert komplexe Aufgaben
Unklarheiten über Chinas Internetabbruch: Große Firewall trennt Land vom Netz