Atomwaffentest auf dem Bikiniatoll, Pixaby/gemeinfrei

Hintergrund: Diskussion zu Atomwaffen und KI

Zurück in die Zukunft? Schon die Machthaber der Sowjetunion etablierten das System „Dead Hand“, um nach dem Tod aller Kommandeure einen nuklearen Zweitschlag auslösen zu können. Die Fortschritte in der Entwicklung künstlicher Intelligenz beeinflussen nun auch die Debatte um Atomwaffen – so plädierten in den USA kürzlich einige Wissenschaftler für ein von künstlicher Intelligenz gesteuertes nukleares Abwehrsystem. Die Diskussion dazu ist im nachfolgenden Text auf Deutsch zusammengefasst.

Die Entwicklung zeigt: Die Existenz von Atomwaffen stellt grundlegend ein Sicherheitsrisiko dar. Die Kopplung mit Systemen, die auf künstlicher Intelligenz beruhen, potenziert das Risiko eines versehentlichen oder auch absichtlichen Einsatzes von Atomwaffen. Langfristig kann nur die Abrüstung von Atomwaffen dieses Risiko minimieren.

Übersetzte Zusammenfassung des Textes „Strangelove redux: US experts propose having AI control nuclear weapons“ von Matt Field, 30.08.2019 in: Bulletin of the Atomic Scientists

Wie viel Zeit bleibt, um im Falle eines nuklearen Angriffes reagieren zu können?  Die Nutzung von Hyperschall-Raketen, speziellen Marschflugkörpern (stealthy cruise missiles) und bewaffnungsfähiger künstlicher Intelligenz hat diese Zeitspanne gewaltig reduziert. Die amerikanischen Militärexperten Adam Lowther und Curtis McGriffin sprechen sich für eine Lösung durch das Abgeben der Entscheidungsgewalt an künstlicher Intelligenz aus. In einem Artikel auf der Internetplattform „War on the rocks“ mit dem Titel „Amerika Needs a ‚Dead Hand‘“ argumentieren beide Experten, dass die Vereinigten Staaten von Amerika gegebenenfalls ein von künstlicher Intelligenz gesteuertes nukleares Abwehrsystem brauchen. Dieses System wäre im Vorhinein mit Reaktionen auf mögliche Situationen programmiert und würde so verhindern, dass die USA im Falle eines Angriffes nicht schnell genug reagiert.

Zusätzlich zu dem Vorschlag, die Kontrolle über Atomwaffen an künstliche Intelligenz abzugeben, geben die  Autoren weitere Lösungen für den Zeitdruck in Falle eines nuklearen Angriffes: die Fähigkeit zum Zweitschlag auszuholen sichern, die Bereitschaft ausweiten Länder als Erster anzugreifen, wenn diese sich für einen Angriff rüsten und die Gegner der Staaten durch das Angreifen ihrer Grenzen an den Verhandlungstisch zwingen.
Nichtsdestotrotz ist in ihren Augen ein Abwehrsystem basierend auf künstlicher Intelligenz die beste Lösung, um sicherzustellen, dass kein anderes Land die Fähigkeit des Gegenangriffes der USA anzweifelt.

Schaut man sich die Geschichte der Atomwaffen an, so scheint es, als ob ein Atomkrieg bereits Realität geworden wäre, wenn nicht ein Mensch sich in bestimmten Momenten geweigert hätte diesen auszulösen. Das bekannteste Beispiel ist Stanislav Petrov, ein russischer General, welcher sich 1983 dazu entschied, einen vom Abwehrsystem gezeigten vermeintlichen Angriff als falschen Alarm zu deklarieren. Ob eine künstliche Intelligenz zu dieser Entscheidung gekommen wäre ist fraglich.

Ein Risiko der künstlichen Intelligenz in nuklearen Systemen ist das menschliche übersteigerte Vertrauen in Automation. Studien zeigen, dass Menschen die Tendenz haben automatischen Systemen zu vertrauen, ohne sich selbst von Fakten zu überzeugen. Mit einer künstlichen Intelligenz als Kontrollinstanz nuklearer Abwehrsysteme ist fraglich, ob Menschen diese Systeme hinterfragen würden oder ob sie überhaupt noch die Kontrolle darüber hätten. Des Weiteren basiert künstliche Intelligenz auf Algorithmen, welche sich aus riesigen Datenbanken speisen. Diese Datenbanken existieren nicht, wenn es zu nuklearen Angriffen und zu einem Atomkrieg kommt. Somit würden sich die Algorithmen fast ausschließlich auf simulierte Daten beziehen, was ebenfalls Gefahren mit sich bringt.

Michael Horowitz, Professor für Politikwissenschaft an der Universität von Pennsylvania und Bulletin Kolumnist thematisiert die Gefahren der auf Simulation basierten Algorithmen. Er argumentiert außerdem, dass die USA kein Befehls,- Kontroll,- und Kommunikationssystem kontrolliert durch künstliche Intelligenz entwickeln würde, weil sich die Regierung sicher ist in ihrer Fähigkeit zum Zweitschlag auszuholen.

Die Sowjetunion verfügte während des Kalten Krieges über das sogenannte „Dead-Hand-System“. Dies sollte im Falle des Todes aller hohen Mitglieder des sowjetischen Militärs alle verbliebenen Raketen als letzten Racheakt abfeuern. Es gibt Berichte, nach denen dieses System noch intakt ist. Tom Nichols, Professor des US Naval War Colleges, thematisiert in einem Artikel über ‚Dead Hand‘, die Gefahr eines aus Versehen ausgelösten Atomkrieges, wenn Menschen in der Entscheidungsgewalt von künstlicher Intelligenz abgelöst werden.

Die Militärexperten Lowther und McGriffin sind der Meinung, dass ein von USA entwickeltes von künstlicher Intelligenz gesteuertes nukleares Abwehrsystem anders und besser wäre als „Dead Hand,“ da es nicht unbedingt auf eine nukleare Detonation warten würde, um eine US Attacke zu starten.

Matt Field: 30. August 2019, Strangelove redux: US experts propose having AI control nuclear weapons, verfügbar unter: https://thebulletin.org/2019/08/strangelove-redux-us-experts-propose-having-ai-control-nuclear-weapons/, Zugegriffen: 19.09.2019, 14:02 Uhr

Lowther, Adam; McGiffin, Curtis: 16. August 2019, America needs a Dead Hand, Zugegriffen 19.09.2019, 14:18 Uhr, https://warontherocks.com/2019/08/america-needs-a-dead-hand/