Eine chinesische Forschungsgruppe hat erfolgreich Sprachmodelle dazu gebracht, funktionierende Kopien von sich selbst zu erzeugen, was die bisherigen Einschätzungen von Google und OpenAI zur Gefährlichkeit solcher Technologien in Frage stellt. Diese Entwicklung könnte erhebliche Sicherheitsrisiken mit sich bringen, da selbstreplizierende KIs potenziell die Kontrolle über Systeme übernehmen könnten, was einen dringenden Ruf nach internationaler Regulierung und Kontrolle der Künstlichen Intelligenz nach sich zieht. Angesichts der bevorstehenden EU-Regelungen zur KI wird deutlich, dass Maßnahmen zur Eindämmung dieser Technologien dringend erforderlich sind, um mögliche dystopische Szenarien zu verhindern.
Astronomen rätseln über geheimnisvolle Objekte am Rand der Milchstraße
All-Optical Computer mit 100 GHz Taktfrequenz vorgestellt
Aktuelle News
247 Millionen Jahre alt: Forschende entdecken wundersames Reptilien-Fossil
Mit 70 Kilometern pro Sekunde zum Zwergplaneten: Forscher planen Rekordflug zu Sedna
Warum Abnehmspritzen nicht bei allen funktionieren
KI unterliegt im Coding-Duell: Mensch gewinnt nach zehn Stunden
Bye, bye, Tastuntersuchung?
Einschlag könnte Grand Canyon verändert haben
Elon Musks Grok: KI oder politisches Sprachrohr?
Neurowissenschaft: Einblick in das Gehirn von Psychopathen
Weniger Krebs bei Affen: Schlüssel zur Therapie?
Kalifornien setzt auf KI zur Bekämpfung von Stromausfällen