Kurze Zündschnur: KI-Modelle greifen in Simulation fast immer zu Atomwaffen

Kurze Zündschnur: KI-Modelle greifen in Simulation fast immer zu Atomwaffen


Large Language Models (LLMs) sind schon bei kleinen Aufgaben, wie Textarbeiten oder Programmierung, nicht zu entmutigen: Egal, wie aussichtslos die Situation erscheint – sie präsentieren immer eine Lösung oder zumindest etwas, das sie dafür halten. Und während zu vermuten wäre, dass eine Maschine unter Zeitdruck besonnener reagieren kann als ein Mensch, zeigte der Modellversuch, dass Modelle in solchen Situationen erst zur Höchstform aufliefen und noch wahrscheinlicher einen vollständigen Atomkrieg anzettelten. Bei Entscheidungen über Krieg und Frieden dürften Militärs weltweit die künstliche Intelligenz noch zurückhaltend einsetzen, sagte der Forscher Tong Zhao von der Universität Princeton der Wissenschaftspublikation „New Scientist“.

Author: Malte Kirchner


Published at: 2026-02-25 17:48:00

Still want to read the full version? Full article