Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.

Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Sternensuche enthüllt neue Super-Erde
Die Disruption der Markenwelt: BYD setzt neue Maßstäbe in der Automobilindustrie
Der unerwartete Erfolg von Star Trek: Von Fehlschlägen zur Ikone
Windows 10: Registrierungslink für erweiterte Sicherheitsupdates verfügbar
Gigantische Welle in der Milchstraße entdeckt
Erdkern dreht sich rückwärts: Auswirkungen auf Magnetfeld und Klima
James-Webb-Teleskop entdeckt 300 unerwartete Objekte
Rechteckiges Weltraumteleskop könnte erdähnliche Planeten finden
Solar-Durchbruch: Neues Material steigert Energieausbeute
Universum im Inneren eines Schwarzen Lochs?