Eine aktuelle Studie der Technischen Universität Darmstadt und der University of Bath zeigt, dass große Sprachmodelle (LLMs) keine Fähigkeiten entwickeln, die über ihr Trainingspensum hinausgehen, sondern stets auf kontextuelles Lernen angewiesen sind. Diese Erkenntnis ist entscheidend, da sie die Befürchtungen entkräftet, dass LLMs eigenständig gefährliche Fähigkeiten entwickeln könnten, und stattdessen auf die Notwendigkeit hinweist, ihre Nutzung und die damit verbundenen Sicherheitsbedenken besser zu steuern. Die Forscher betonen, dass die vermeintlichen „emergenten Fähigkeiten“ der Modelle eher das Ergebnis von kontextbasiertem Lernen und nicht von echtem Verständnis sind, was zu einem realistischeren Umgang mit Künstlicher Intelligenz führt.
Forscher entdecken seltenen Einstein-Ring in naher Galaxie
Neuer „Bildstabilisator“ im Gehirn entdeckt
Aktuelle News
Zunehmende ADHS-Diagnosen bei Erwachsenen: Ein globaler Trend
Entdeckung eines supermassereichen Schwarzen Lochs in der Großen Magellanschen Wolke
Humanoide Roboter im Haushalt: Ein Blick in die Zukunft der Robotik
Sensationelle Xenotransplantation: Erste erfolgreiche Schweineleber-Transplantation in China
Quantenforschung: Stehen wir vor der nächsten technologischen Revolution?
Entdeckung in Knossos: Elfenbeinobjekt könnte Schlüssel zur Entzifferung der Minoer-Schrift sein
Rechtsextreme Codes in sozialen Netzwerken: Subtile Botschaften und ihre Gefahren
Entdeckung langer organischer Moleküle auf dem Mars: Hinweise auf mögliche Lebensspuren
Chaos in Menschenmengen: Wissenschaftler entschlüsseln das Verhalten von Fußgängern
Die Suche nach Atlantis: Pastor Spanuths umstrittene Theorie vor Helgoland