Politik Protest gegen autonome Waffensysteme nimmt zu

Das Raketenabwehrsystem Mantis könnte so programmiert werden, dass es anfliegende Geschosse bekämpft, ohne dass es dabei von ein
Das Raketenabwehrsystem Mantis könnte so programmiert werden, dass es anfliegende Geschosse bekämpft, ohne dass es dabei von einem Menschen bedient werden muss.

„Killerroboter“, die eigenständig über Tod und Leben entscheiden, das klingt wie Science-Fiction. Doch die technische Entwicklung ist weit fortgeschritten. Mit möglicherweise fatalen Folgen: Kriege könnten „aus Versehen“ ausbrechen, und Diktatoren könnten äußerst effektiv ihre Völker unterdrücken. International nimmt daher der Druck zu, autonome Kampfmaschinen zu verbieten.

Es ist ein ungewöhnliches Schreiben, das Ende August an die UN-Waffenkonvention gerichtet wurde. Es ist ein Brandbrief: Gewarnt wird darin vor einer tiefgreifenden Revolution in der Kriegsführung, vor bewaffneten Konflikten bisher unbekannten Ausmaßes. Alarmiert zeigen sich die Verfasser wegen autonomer Waffensysteme, die Despoten und Terroristen gegen Unschuldige einsetzen könnten, wie es heißt. Die Unterzeichner dieses offenen Briefs lassen keinen Zweifel an der Dringlichkeit: „Wir haben nicht lange, um zu handeln.“ Wenn diese Büchse der Pandora erst einmal geöffnet sei, werde es schwer, sie wieder zu schließen. Das Besondere an diesem Brief sind die Unterzeichner. Es sind keine Friedenaktivisten – sondern mehr als 100 Vertreter von Technologiefirmen, von Unternehmen, die über Robotik und künstliche Intelligenz forschen, darunter Tesla-Chef Elon Musk. Leute also, die wissen sollten, worüber sie schreiben.

Computer begehen weniger tödliche Fehler, sagen Befürworter

Wenn von „Killerrobotern“ die Rede ist, darf man sich diese Waffensysteme nicht wie den von Arnold Schwarzenegger verkörperten „Terminator“ oder andere menschenähnliche Roboter vorstellen. In der Fachsprache werden „Killerroboter“ letale (tödliche) autonome Waffensysteme (LAWS) genannt. Das sind Waffen, die selbst ein Angriffsziel suchen und darüber entscheiden, ob sie angreifen, ohne dass ein Mensch eingebunden wäre. Unbemannte Flugobjekte, auch Drohnen genannt, fallen derzeit nicht darunter, da deren Flugrouten von Soldaten beeinflusst werden – und die Entscheidung über einen Angriff letztlich von Menschen getroffen wird. Es gibt schon Raketenabwehrsysteme, die völlig autonom agieren könnten. Dem Vernehmen nach sind sie aber so programmiert, dass noch Militärs über einen Einsatz entscheiden. Auch Südkorea nutzt an der Grenze zu Nordkorea eine Kampfmaschine, die noch von Soldaten kontrolliert wird. Doch soll der von Samsung entwickelte SGR-A1 auch einen Automatikmodus haben, wonach er auf alles schießt, was sich bewegt.

UN-Waffenkonvention bildet LAW-Beratungsgruppe

Seit einigen Jahren führt ein Bündnis aus rund 60 Nichtregierungsorganisationen eine Kampagne für ein Verbot der „Killerroboter“. Die Aktivisten wollen, dass alle Waffensysteme einer „bedeutsamen menschlichen Kontrolle“ unterliegen. Einen ersten Erfolg gibt es: Die UN-Waffenkonvention hat eine Expertengruppe gebildet, die über LAWS beraten soll. Im November ist das erste Treffen geplant. Allerdings hätte dieses schon Ende August stattfinden sollen. Doch es scheiterte aus Kostengründen – einige Mitgliedsländer hatten ihre Beiträge nicht bezahlt. Der Termin im November ist aber definitiv, sagt Frank Sauer, Forscher an der Bundeswehr-Universität München. Die für das nächste Jahr geplanten Gespräche seien jedoch „wegen der Finanzlage gefährdet“. Allerdings gibt es nicht nur Gegner autonomer Waffensysteme. Die Befürworter argumentieren, dass Computer viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Außerdem vergewaltigten, brandschatzten und plünderten die Maschinen nicht. Der US-amerikanische Roboterforscher Ronald Arkin glaubt, dass den Robotern eine ethische Kriegsführung einprogrammiert werden könnte, um den Ablauf von Konflikten humaner zu machen.

Autonomen Waffen könnten die besonders grausamen Dinge erledigen 

Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung überzeugt das nicht. „Wer garantiert, dass ein Diktator die Programmierung nicht so ändert, dass die Roboter eben doch schwere Verbrechen begehen?“, fragt der Wissenschaftler. Diesen Einwand habe noch niemand entkräften können. Ein Despot könne gerade die besonders grausamen Dinge von autonomen Waffen erledigen lassen – Verbrechen, die selbst die ergebensten Garden des Diktators verweigern würden. Von der Expertengruppe erhofft sich Schörnig, dass sie sich zunächst auf eine klare Definition einigen kann. Was recht wissenschaftlich klingt, ist eminent wichtig, wie bisherige Rüstungsabkommen zeigten. „Wenn Unklarheiten bleiben, besteht ein hoher Anreiz für einzelne Akteure, diese zu ihrem Vorteil zu nutzen“, erläutert der Forscher. Autonome Waffen auch mit politischen Risiken Doch während die UN-Waffenkonvention sich vor allem auf die humanitären Aspekte rund um die „Killerroboter“ konzentriert, bringen diese Waffen auch politische Risiken mit sich. So könnte ein Krieg „aus Versehen“ ausbrechen, weil autonome Waffensysteme unterschiedlicher Länder auf unvorhergesehene Weise interagieren und es deshalb zu Kampfhandlungen kommt. Dieses Szenario hält Schörnig für durchaus plausibel. Ingenieure, die sich mit der Entwicklung selbstfahrender Autos beschäftigten, hätten ihm berichtet, dass es eine enorme Herausforderung sei, dass die Wagen unterschiedlicher Hersteller sich im Verkehr „verstehen“ könnten. Auch könnte ein Aufeinandertreffen autonomer Waffen durch die enorme Geschwindigkeit, mit der diese Systeme aufeinander reagieren, zu einer Eskalation führen, ehe Menschen überhaupt die Chance hätten, die zugrundeliegende Situation einzuschätzen. Bundeswehr Überprüfbarkeitkeine Beschaffung von LAWS Gerade die Geschwindigkeit aber, in der Entscheidungen getroffen werden müssten, macht eine weitgehende Automatisierung aus Sicht von Militärs immer wichtiger. Ein Sprecher des Bundesverteidigungsministeriums sagt dazu: „Damit die durch diese Entwicklung komplexer werdenden Führungsaufgaben auch in Zukunft noch von Menschen bewältigt werden können, wird zunehmend die Nutzbarmachung künstlicher Intelligenz immer stärker in den Fokus der Zukunftsentwicklung von Streitkräften rücken.“ Gleichwohl plane die Bundeswehr keine Beschaffung von LAWS. Die amerikanische Luftwaffe wiederum geht in einer Analyse davon aus, dass der Mensch im Jahr 2030 nur noch ein Störfaktor wäre. Die Automatisierung bietet also wichtige militärische Vorteile, was ein entsprechend großes Problem bei Verhandlungen über ein Verbot ist.

Vereinbarungen zur Rüstungskontrolle schwer kontrollierbar

Das größte Hindernis auf dem Weg zu einer Regelung ist wiederum die Überprüfbarkeit. Zu Zeiten des Kalten Krieges waren Vereinbarungen zur Rüstungskontrolle vergleichsweise einfach zu kontrollieren, weil lediglich Panzer oder Atomsprengköpfe gezählt werden mussten. Doch bei den LAWS ist die Software das Entscheidende. Darin Einblick zu gestatten, wäre äußerst sensibel. Um mögliche Vereinbarungen zu überprüfen, bedürfe es „kreativer Software-Lösungen“, sagt Schörnig. Er setzt dabei auf die Mitarbeit der privaten Technologiefirmen, die das in ihrem offenen Brief an die UN-Waffenkonvention auch angeboten haben. Schörnig hofft, dass die Politik darauf auch eingeht. Bei allen Problemen gibt es für den Konfliktforscher aber auch Grund zur Zuversicht. Zum ersten Mal werde über die Reglementierung von Waffensystemen gesprochen, die noch gar nicht im Einsatz sind: „Die internationale Staatengemeinschaft hat erkannt, dass angesichts der rasanten technologischen Entwicklung Eile geboten ist. Das hatten wir bei keinem anderen Rüstungskontrolldiskurs vorher.“

x