Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Studie enthüllt: Fast 10 Prozent der Softwareingenieure sind „Geisteringenieure“
Erstmals dynamische Strahlenausbrüche am Schwarzen Loch Sagittarius A* beobachtet
Warum man im Alter mehr trainieren sollte
Besteht das Universum aus Mathematik?
Robotaxis: Deutschland bleibt im Rennen um autonomes Fahren zurück
Wasserstoff wird doch superfluid
Schweizer Forscher kommen wirksamer Malaria-Impfung näher
Lander „Blue Ghost“ hat sanft auf dem Mond aufgesetzt
Johann Jakob Astor: Vom Metzgersohn zum ersten Multimillionär der Welt
Steigender Strombedarf: Herausforderungen und Chancen für die Energiebranche