AG-Blog | Von Werten und Waffen: Ethische Herausforderungen für den Einsatz von KI im Krieg
KI und Krieg – und Frieden? Welche ethischen und sicherheitspolitischen Herausforderungen ergeben sich aus dem Einsatz von Künstlicher Intelligenz in Kriegssituation, wie zum Beispiel bei der militärischen Verteidigung? Und vor allem: Wer trägt dabei welche Verantwortung? Darüber diskutierten die Teilnehmenden der AG Ethik in ihrer ersten Sitzung 2025 in Berlin.
Berlin. Künstliche Intelligenz (KI) verändert nicht nur unser aller Alltag, sondern auch die globale Sicherheitsarchitektur. Zum einen versetzt KI Waffensysteme in die Lage, eigenständige Entscheidungen treffen. Zum anderen kann KI dazu dienen, gezielt die Wahrnehmungen und Meinungen von ganzen Gesellschaften zu beeinflussen und so psychologisch Krieg zu führen. Was bedeuten diese Entwicklungen für freiheitlich-demokratische Gesellschaften? Und wo verläuft die Grenze zwischen legitimer und ethisch fragwürdiger Kriegsführung? Jolanda Rose, B.YOND und AG-Co-Leitung, hieß die AG-Mitglieder herzlich willkommen, um über diese Fragen zu debattieren. Auch wenn das Thema „KI und Krieg“ sehr komplex sei, wolle sie gemeinsam mit der AG Ethik einen Versuch starten, sich diesem Thema differenziert zu nähern, so Rose.
KI im Krieg: Zeitenwende oder notwendiges Übel?
Die gemeinsame Diskussionsgrundlage schaffte Dr. Nikolai Horn, iRights.Lab und Co-Leitung der AG, der in seinem Impuls eine übergeordnete philosophisch-ethische Perspektive auf den KI-Einsatz im Krieg gab. Konkret fokussierte er sich auf autonome Waffensysteme. Solche Systeme agieren ohne menschlichen Eingriff und wählen nach ihrer Aktivierung selbstständig ihr Ziel aus. Aber sind solche Systeme eine Zeitenwende oder ein notwendiges Übel?

Laut Horn gebe zu dieser Frage sehr ambivalente Ansichten. Einerseits könnten autonome Waffensysteme menschliche und zivile Verluste reduzieren, wodurch die militärische Effektivität erhöht und die Kriegsführung präziser und ethischer werden könne. Andererseits würden Menschen auf Datenpunkte reduziert, es fehle an menschlicher Kontrolle und Verantwortung und algorithmische Entscheidungen dieser Waffensysteme seien letztlich unvorhersehbar und intransparent, woraus sich eine Eskalationsspirale ergeben könne. Vor diesem Hintergrund sei die ethische Regulierung autonomer Waffensysteme eine große Herausforderung. Horn sieht insbesondere die Frage nach Verantwortung und Rechenschaftspflicht sowie die ethische Ausrichtung solcher Waffensysteme kritisch, denn:
Ethik lässt sich nur begrenzt programmieren.
Abschließend fragte er: „Bleiben wir fähig zum Frieden oder zerstören wir sukzessive seine Grundlagen?“ Unter anderem darüber diskutierten die Teilnehmenden im Nachgang des Impulses ebenso, wie sich etwa der Einsatz Autonomer Waffensysteme im Angriff oder in der Verteidigung unterscheiden.
KI ohne Grenzen? Auswirkungen der gewandelten transatlantischen Beziehungen auf die Regulierung von KI
Eine Einordnung, wie sich die ethische Regulierung des KI-Einsatzes international vor dem Hintergrund der sich wandelnden transatlantischen Beziehungen verändern könnte, gab Molly Hall vom Aspen Institute Germany. Die USA und die EU hätten seit einer langen Zeit gemeinsam die Werte der Demokratie, des Friedens und der Rechtsstaatlichkeit geteilt. Allerdings habe sich die transatlantische Beziehung zwischen beiden Akteur*innen durch die Trump-Administration geändert, was die Frage aufwerfe:
Legen die USA und die EU noch gleichermaßen Wert auf die geteilten Werte?
Ganz unabhängig von der Antwort darauf seien bereits verschiedene Auswirkungen der veränderten transatlantischen Beziehungen auch im Bereich der KI-Governance erkennbar. Ein Beispiel hierfür seien BigTech-Unternehmen und ihr Einfluss auf KI-Regulierung. Zeitgleich stelle sich die Frage, ob es überhaupt noch Bereiche bei der Regulierung von KI gebe, in denen Kooperation möglich ist. Darüber diskutierten die Teilnehmenden im Anschluss an den Input, etwa inwiefern der Verteidigungsbereich ein mögliches Feld für Zusammenarbeit darstelle und wie eine KI-Governance im Verteidigungsbereich aussehen könne.

Daten, Algorithmen, Verwendungszweck: Militärische KI-Anwendungen in der Verteidigung
Konkrete Einblicke, über den aktuellen Stand und die technischen Möglichkeiten des militärischen KI-Einsatzes, gab ein*e weitere Expert*in für KI aus der Verteidigungsforschung. KI sei dabei nicht nur für den Angriff, sondern auch bei der Verteidigung relevant. KI-Modelle ermöglichten präzisere Vorhersagen und könnten etwa in den Bereichen Taktik und Planung entscheidungsunterstützend wirken.
Um zu beurteilen, ob der Einsatz autonomer Waffensysteme ethisch oder illegitim ist, seien verschiedene Aspekte relevant. Zunächst sei es aber wichtig, ethische KI-Themen nicht mit schlichten Automatisierungsprozessen gleichzusetzen. Außerdem seien die Anwendung von autonomen Waffensystemen bei Angriffen auf die Infrastruktur von solchen auf Menschen zu unterscheiden. Darüber hinaus sei auch der Verwendungszweck der KI relevant und welche Datenmodelle für das Training der KI genutzt würden. Die KI-Technologie mit ihren mathematischen Verfahren sei an sich neutral. Erst wenn die Zielfunktion der KI betrachtet werde, könne eingeschätzt werden, inwieweit eine militärische KI-Anwendung ethisch legitim oder fragwürdig ist. Zeitgleich habe der militärische Bereich insgesamt weniger verfügbare Daten, Personal und finanzielle Ressourcen als BigTech-Konzerne, was die Entwicklung von KI-Systemen für die Verteidigung erschweren.

Im Anschluss an den finalen Impuls war Zeit und Raum, sich über die Inhalte der AG-Sitzung wie etwa den Unterschied zwischen Automatisierung im militärischen Bereich und KI-gestützten Waffensystemen oder die Notwendigkeit von KI-gestützter Verteidigung auszutauschen und die spannenden Diskussionen weiter zu vertiefen.
Wir bedanken uns bei msg für das Bereitstellen der Räumlichkeiten und das Catering!
Hinweis: Für die Veranstaltung wurde Chatham House Rules vereinbart, weshalb der Name einer vortragenden Person nicht genannt wird.