KI
Autonome Waffensysteme : Die Zukunft des Krieges

Autonome Waffensysteme bergen erhebliche Chancen und Risiken
Lethal Autonomous Weapon Systems

dpa

©

In der Vergangenheit hat die Zivilgesellschaft häufig von Innovationen aus dem Militärbereich profitiert. Der Krankenwagen, die Mikrowelle und das Global Positioning System (GPS) sind nur einige Beispiele für Bestandteile unseres Alltagslebens, die aus militärischer Forschung und Entwicklung hervorgegangen sind. In der Zukunft könnte sich diese Logik umkehren. Die rasanten Fortschritte in der zivilen Forschung im Bereich der Künstlichen Intelligenz werden die Zukunft der Kriegsführung radikal verändern.

Algorithmen erlauben es militärischen Systemen, ein eigenes Lagebild zu erstellen und auf dessen Grundlage eigenständige Entscheidungen zu treffen. Diese Technologie wird schon bald viele Bereiche der Streitkräfte revolutionieren, zum Beispiel die Aufklärung, die Logistik, den Transport, die Kommunikation und sogar das Sanitätswesen. Sie wird allerdings auch vielfältige Chancen für die Entwicklung und den Einsatz von Waffensystemen eröffnen. Über solche autonomen Waffen, von Gegnern allgemein als „Killerroboter“ stigmatisiert, wird derzeit nicht nur in Europa hitzig debattiert.

Bei autonomen Waffen geht es um Systeme, die selbständig Ziele identifizieren, verfolgen und bekämpfen können. Ob eine Waffe als autonom gilt, hängt vor allem von ihrer Software ab. In diesem Sinne ließe sich auch ein Kalaschnikow-Sturmgewehr aus dem Jahr 1946 zu einer intelligenten Waffe umbauen, sofern es von einem entsprechenden Algorithmus gesteuert würde. Dazu notwendig wäre noch eine Plattform, zum Beispiel ein Schiff oder eine Drohne, und Sensoren zur Lagebildgewinnung und Zielverfolgung.

Eine wenig umstrittene Form solcher Waffen sind Systeme, die ihre Plattform vor anfliegender Munition schützen. Man denke an die Rolling Airframe Missiles (RAM), die deutschen Fregatten zur Abwehr von Flugkörpern dienen. Weitaus problematischer sind autonome Waffen, die bemannte Fahrzeuge oder Soldaten offensiv ins Visier nehmen können. In diesem Fall spricht man von Lethal Autonomous Weapon Systems (LAWS).

Künstliche Intelligenz als Game Changer?

Im Gegensatz zu Systemen, die auf herkömmliche Weise von Menschen gesteuert werden, bieten autonome Waffensysteme zwei Vorteile: Erstens verarbeiten sie Informationen viel schneller, als es das menschliche Gehirn jemals könnte. Zweitens ersetzen sie auf dem Schlachtfeld Menschen, die dadurch nicht mehr den Risiken bewaffneter Gefechte ausgesetzt sind.

Autonome Waffensysteme stecken noch in den Kinderschuhen und existieren bisher vor allem als Prototypen und Testversionen. Von den Streitkräften Israels, Chinas, Russlands, der USA, Frankreichs und Großbritanniens weiß man, dass sie intensiv an künstlich intelligenten Waffen forschen.

Diese Entwicklung hat das Potential, das militärische Kräfteverhältnis auf dem Planeten maßgeblich zu verändern. Aufstrebende Mächte wie China werden noch Jahrzehnte brauchen, um den Vorsprung der USA bei konventionellen Hochtechnologien wie Kampfflugzeugen zu egalisieren. Der Einsatz von künstlicher Intelligenz gibt ihnen jedoch die Möglichkeit, das zu erreichen, wovon Walter Ulbricht in der Wirtschaftspolitik zu träumen pflegte: überholen ohne einzuholen. 

China möchte bis 2030 auf dem Gebiet der künstlichen Intelligenz führend sein. Die russischen Streitkräfte haben angekündigt, bis 2025 ein Drittel ihrer Systeme autonom betreiben zu wollen. Ob diese Ziele glaubwürdig sind, bleibt abzuwarten. Sie deuten jedoch einen sich beschleunigenden Wettlauf um eine neue Waffengattung an.

Eine Frage der Ethik

Das stellt die Weltgemeinschaft vor drängende ethische Fragen. Ist es akzeptabel, wenn Maschinen darüber entscheiden, ob und wie ein Mensch getötet wird? Dr. Frank Sauer von der Universität der Bundeswehr in München sagt dazu: „Für den Getöteten mag es im Ergebnis egal sein, ob ihn eine Maschine oder ein Mensch getötet hat. Die Frage ist jedoch, was es für die Gesellschaft und das Prinzip der Menschenwürde bedeutet.“  Während ein Mensch sich über die Konsequenzen des Tötens aufgrund seiner eigenen Eigenschaft als Mensch bewusst ist, darf dies bei einer Software nicht angenommen werden.

Wenn ein Bundeswehrsoldat im Auslandseinsatz tötet, hat dies eine Prüfung der Staatsanwaltschaft zur Folge. Der Soldat muss Rechenschaft über sein Handeln ablegen. Doch wer trägt die Verantwortung, wenn ein autonomes System tötet? Der Softwareentwickler? Der Betreiber? Niemand? Im Zusammenhang mit künstlicher Intelligenz stellt sich also auch die Frage der Zurechenbarkeit.

Fraglich ist außerdem, inwiefern Algorithmen in der Lage sind, komplexe Zusammenhänge zu verarbeiten und Situationen richtig einzuschätzen. Frank Sauer betont, dass „künstliche Intelligenz nichts mit Intelligenz zu tun hat. Computer werden programmiert, um ganz eng definierte Aufgaben zu erfüllen.“ Auf heutigen Schlachtfeldern stehen aber nicht mehr klar erkennbare und völkerrechtskonform ausgewiesene Kombattanten. Moderne Kriege werden oft mit falschen oder gar keinen Uniformen, unter Einbindung der Zivilbevölkerung und durch absichtlichen Missbrauch von internationalen Schutzsymbolen wie dem Roten Kreuz geführt – ein Kontext der für Algorithmen kaum zu begreifen wäre.

Zu bedenken ist schließlich auch das Risiko einer unbeabsichtigten Eskalation. Analog zu einem „flash crash“, ausgelöst durch an der Börse handelnde Computer, könnte man sich auch einen „flash war“ vorstellen, ausgelöst durch gegenseitig aufeinander reagierende Waffensysteme, so Sauer.

Ein Vorschlag, um diesen Problemen zu begegnen, besteht darin, dass der gesamte Prozess der Zielauswahl und Bekämpfung weiterhin von Menschen begleitet werden soll. Dies würde jedoch einen Verzicht auf den angestrebten Geschwindigkeitsvorteil bedeuten. Die niederländische Europaabgeordnete Samira Rafaela (D66) warnt außerdem davor, dass Computer im Zuge des maschinellen Lernens menschliche Vorurteile übernehmen könnten. So wäre beispielsweise zu befürchten, dass ein Muslim einer höheren Wahrscheinlichkeit unterliegt, von einem Algorithmus als Terrorist klassifiziert zu werden.

Angesichts der ethischen Risiken hat sich das Europäische Parlament bereits im September 2018 mit überwältigender Mehrheit für ein internationales Verbot von autonomen Waffensystemen ausgesprochen, die Menschen töten könnten. Dies spiegelt laut einer Umfrage auch die Meinung einer Mehrheit europäischer Bürger wieder. Trotzdem ist Österreich bisher das einzige EU-Mitglied im Kreise von weltweit 30 Staaten, die sich offiziell für ein solches Verbot einsetzen. 

Die Konvention über bestimmte konventionelle Waffen (CCW) in Genf, ein UN-Gremium zur Regulierung besonders gefährlicher und wahlloser Systeme, beschäftigt sich seit 2014 mit autonomen Waffen. Das letzte Treffen im November endete mit der Feststellung, dass die Gespräche fortgesetzt werden –  also ohne Ergebnis.

Eine internationale Einigung zur Regulierung von autonomen Waffensystemen scheitert bisher an gleich mehreren Problemen. Erstens betrieben die fünf ständigen Mitglieder des Sicherheitsrates selbst intensive Forschung auf diesem Gebiet. Zweitens fehlt es an einer international anerkannten Definition, die wiederum Voraussetzung für klare Regeln wäre. Drittens wäre die Einhaltung der Regeln kaum verifizierbar. Panzer, Atomsprengköpfe und Raketen lassen sich zählen und zur Not auf Satellitenbildern finden. Doch wie verifiziert man eine regelkonforme Software in Drohnen, Schiffen oder Landfahrzeugen?

Bei bisherigen militärischen Revolutionen hat es die Weltgemeinschaft meist nicht geschafft, sich rechtzeitig auf wirksame Regeln zu einigen. Der russisch-amerikanische Autor Isaac Asimov sagte dazu: „Die Wissenschaft produziert Technologie schneller als die Gesellschaft Weisheit“. Im Feld der autonomen Waffensysteme hat die internationale Gemeinschaft nun die Chance, es besser zu machen.