ABO

Wenn Maschinen Kriege führen

Subressort
Aktualisiert
Lesezeit
6 min
Artikelbild

©ZUMA Press Wire, IMAGO

Der Einsatz von Künstlicher Intelligenz im Krieg verdrängt Verantwortung, Ethik und Kontrolle der Menschen.

Neueste Simulationen militärischer Konflikte mit KI-Modellen – die teilweise bereits im Kampf gegen den Iran eingesetzt werden – zeigen eine beunruhigende Entwicklung. Während Menschen selbst in Kriegszeiten nach der Möglichkeit einer Deeskalation suchen, bewerten KI-Systeme Risiken rein digital, auch wenn es zur Verschärfung des Konflikts führen könnte.

Die Planung militärischer Operationen mithilfe von KI zeigt ein konträres Verständnis von Mensch und Maschine über Sinn und Zweck von Krieg. Für eine Gesellschaft ist Krieg in den meisten Fällen ein Mittel, den eigenen Willen mit Gewalt durchzusetzen – den Konflikt dennoch zu überleben. Für KI hingegen folgt die Abwägung von Risiko und Nutzen einer anderen Logik. Jede Form existenzieller Selbsterhaltung ist ihr fremd. Wie der KI-Pionier Geoffrey Hinton es formulierte: „Wir sind biologische Systeme, diese hingegen sind digitale Systeme.“

Neuronale Netze

Unabhängig von der Absicht des Menschen, Künstliche Intelligenz den eigenen Bedürfnissen zu unterwerfen, lässt sich der Unterschied zwischen unserem Denk-System und der KI-Logik kaum noch überbrücken. Neuronale Netzwerke – KI-Modelle, die sich an Strukturen und Lernprozessen des menschlichen Gehirns orientieren – arbeiten mit immer größerer Autonomie, die sich zunehmend unserem Verständnis und unserer Kontrolle entzieht.

Während strategisches Denken der Menschen militärische Gewalt auf der Grundlage von Angriff und Verteidigung einsetzt, ist KI nicht an menschliches Handeln gebunden. Der Überlebenswille bietet Menschen im Krieg einen Ausweg wie Diplomatie, Waffenstillstand oder Rückzug. Es gibt keine Erfahrungen, inwieweit KI-Modelle Konflikte rechtzeitig entschärfen würden – im Einklang mit Bedürfnissen und Werten einer Gesellschaft.

Auf das Katastrophen-Potenzial zukünftiger KI-Systeme verweist die Bletchley-Erklärung, die von rund 30 Staaten, darunter Australien, China, den USA und Großbritannien, unterzeichnet wurde. Sie betont die Notwendigkeit einer verantwortungsvollen Entwicklung sowie wirksamer Kontrolle über die technischen Instrumente der Kriegsführung.

Waffensysteme

Vertreter der UNO warnten während einer Debatte über autonome Waffensysteme, dass an Algorithmen – maschinelle Handlungsanweisungen – nicht die alleinige Entscheidungsgewalt über Leben und Tod delegiert werden darf. Neueste KI-Waffensysteme entwickeln jedoch Strategien, die der menschlichen Kontrolle ausweichen, oder sie beim Einsatz von Gewalt ausschalten könnten.

Ein zentrales Problem ist das sogenannte Erklärbarkeits-Paradox – hochleistungsfähige Systeme sind oft kaum nachvollziehbar. Selbst ihre Entwickler können nicht erklären, warum Maschinen, die sich auf neuronale Netze stützen, Entscheidungen treffen, die von Denkweisen der Menschen abweichen. Die maschinelle Verselbstständigung ist besonders riskant in Hochrisikobereichen – wie Angriff und Verteidigung –, wo eine Fehlinterpretation Konflikte verschärfen könnte, die Intervention des Menschen zu spät kommt, oder geblockt wird. Mustafa Suleyman, Mitgründer von DeepMind, betonte: „Die undurchsichtige Natur von KI bedeutet, dass wir Entscheidungen nicht entschlüsseln und nicht erklären können, warum ein Algorithmus ein bestimmtes Ergebnis liefert.“

Atomwaffen

Statt KI als intelligentes Werkzeug zu betrachten, das der Mensch zu seinem Vorteil benutzt, wäre es realistischer, es als Protagonisten zu sehen, der eigenständig urteilt und entscheidet – nicht nur als einzelne Maschine. KI-Systeme können ohne Auftrag und Kontrolle mit anderen KI-Systeme interagieren. Die Unabhängigkeit solcher KI-Strukturen wirft die beängstigende Frage nach der Beherrschbarkeit dieser Technologie auf. Ein Dilemma, das schon die Entwickler der Atomwaffen beschäftigte.

Einige Regierungen schlugen eine Regulierung der KI nach dem Vorbild des nuklearen Nichtverbreitungs-Abkommens vor, das die Zahl der Kernwaffenstaaten begrenzt. Dieses Kontrollsystem ist auf KI nicht übertragbar. Im Gegensatz zur Nukleartechnologie ist ihre Entwicklung dezentral, wird von privaten Unternehmen und Einzelpersonen vorangetrieben und entzieht sich einer staatlicher Kontrolle.

Theoretisch existiert das Ziel, dass der Mensch in KI-Entscheidungsprozesse eingebunden wird. Doch die Absicht verliert an Bedeutung, wenn selbst bei formaler und struktureller menschlicher Beteiligung die Kontrolle mehr und mehr verloren geht. Mit wachsender Abhängigkeit von KI-Strategien wird der Mensch – trotz bekannter Risiken – zum hilflosen Erfüllungsgehilfen. Der Verzicht auf Zweifel und Überprüfung von KI-Ergebnissen – besonders im militärischen Kontext, wenn Tempo und Effizienz über die Vorsicht gestellt werden – macht den Menschen parallel zur militärischen Befehlsstruktur zum gehorsamen Untertan.

Werte und Sicherheitssystem

Mit dem rasanten technischen Fortschritt und der Verbreitung von KI droht die hilflose Loyalität des Menschen gegenüber der Maschine. Bisher ist es nicht gelungen, KI-Kontrollsysteme zu entwickeln, die auf der Grundlage menschlicher Bedürfnisse in Entscheidungsprozesse eingreifen.

Im militärischen Kontext verschafft die Fähigkeit von KI, komplexe Aufgaben in Sekunden zu bewältigen, Vorteile. Werden Analysen und Strategien in diesem Tempo unmittelbar in Entscheidungen umgesetzt – durch Menschen oder Maschinen – fehlen kritisches Hinterfragen und mögliche Korrektur. Dadurch rückt ein zentrales ethisch-moralisches Problem in den Vordergrund: Ist eine Gesellschaft bereit, Maschinen den Verlauf menschlicher Konflikte bestimmen zu lassen?

Zeit und Qualität von KI verdrängen den Menschen zunehmend aus Entscheidungsprozessen. Der Druck zu immer schnelleren Reaktionen könnte dazu führen, dass unsere Bewertung von Entscheidungen an Maschinen delegiert wird. Im Extremfall werden Systeme entstehen, die menschlichen Widerspruch umgehen, eigenständig Lösungen entwickeln und durchsetzen – und unsere Werte- und Sicherheitsmechanismen außer Kraft setzen.

Dieser Beitrag ist ursprünglich in der News-Printausgabe Nr. 12/2026 erschienen.

Kolumnen

Über die Autoren

Logo
Monatsabo ab € 21,75
Ähnliche Artikel
2048ALMAITVEUNZZNSWI314112341311241241412414124141241TIER