Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Neue Erkenntnisse: Ferrihydrit erklärt die rote Farbe des Mars
Revolutionäre Zinnschaum-Technologie steigert Batteriekapazität erheblich
Astronomen entdecken größte Superstruktur des Kosmos: Quipu übertrifft alle bisherigen Rekorde
Schweizer Astronomen entdecken erdähnlichen Exoplaneten: Neue Hoffnung auf Leben außerhalb unseres Sonnensystems
Zweisprachigkeit beginnt im Mutterleib: Neugeborene zeigen frühere Sprachunterscheidung
Experten warnen: Spritzen gegen Rückenschmerzen oft wirkungslos und riskant
Warum E-Autos nicht die Lösung sind
NASA erhält unerwartete Erkenntnisse: Voyager 1 liefert bahnbrechende Daten aus dem All
Gigantisches KI-System verheißt neue Medizin-Ära
Unterschiedliche Ängste vor KI in Berufen weltweit