Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Sicherheitsrisiko: Passwort-Manager anfällig für Datenklau durch Browser-Erweiterungen
Tragischer Vorfall: Rentner stirbt nach Flirt mit KI-Chatbot
Deutsche Brauereien im Wandel: Gen-Z trinkt weniger Alkohol
Vor 120 Jahren patentiert: Der lässige Hummelstuhl
Der Mann, der den Tanga erfand
65 Jahre Antibabypille: Eine Erfindung in der Krise?
KI-Forscher Stuart Russell warnt vor überzogenen Erwartungen
Betrug mit gefälschten Webseiten bleibt auf dem Vormarsch
Farben als dreidimensionale Vektoren: Ein neuer Blickwinkel
OP-Roboter revolutioniert HNO-Operationen in Österreich