Sollten Roboter töten dürfen?
Über hundert Technologie-Unternehmer haben in einem offenen Brief an die UN ein weltweites Verbot tödlicher autonomer Waffen gefordert. Killer-Roboter könnten gegen unschuldige Bevölkerungen eingesetzt werden und – wenn sie gehackt werden – außer Kontrolle geraten, heißt es darin. Würde diese Büchse der Pandora geöffnet, ließe sie sich nur schwer wieder schließen. Europas Presse teilt diese Sorge.
Gefahr kann sehr schnell sehr groß werden
Mladina unterstützt die Forderungen der Unternehmer:
„[Tesla-Gründer] Elon Musk, der schon länger auf die Gefahr künstlicher Intelligenz hinweist, glaubt, dass sie für den Menschen eine größere tödliche Gefahr bedeutet als ein Atomkrieg mit Nordkorea. ... Niemand wird gerne reguliert. Aber alles, was für den Menschen eine Gefahr bedeutet (Autos, Flugzeuge, Nahrung, Medikamente ...) unterliegt Regeln. Und so sollte auch künstliche Intelligenz reguliert werden. Eine Studie der Universität Oxford hat kürzlich gezeigt, dass künstliche Intelligenz in 45 Jahren bei allen Tätigkeiten besser sein wird als der Mensch. Viele glauben daher, dass die Gefahr für den Menschen groß ist, sollten unsere Ziele nicht mit denen der Maschinen in Übereinstimmung gebracht werden.“
Algorithmen machen Krieg noch grausamer
Auch Gazeta Wyborcza befürchtet eine neue, grausame Art der Kriegsführung:
„Obwohl es schon heute Drohnen gibt, die durch künstliche Intelligenz gesteuert werden, treffen am Ende Soldaten die Entscheidung über Leben und Tod des vom Algorithmus anvisierten Ziels. Diejenigen, die posttraumatische Belastungsstörungen erleiden, landen hinterher auf der Therapie-Couch. Nun sollen Algorithmen den Menschen vom Trauma befreien, indem sie selbst, etwa mit Drohnen, über die Tötung eines Menschen entscheiden. Es ist nicht schwer, sich vorzustellen, wie mörderische Algorithmen die Welt in 'rote und grüne Zonen' teilen, gleich Schützengräben. Der Einsatz autonomer Waffen bedeutet, kalte Berechnung und Rücksichtslosigkeit aufs Schlachtfeld zu führen, wie sie die Geschichte noch nicht gesehen hat.“
Verbote kommen immer erst nach dem Praxistest
Ein rasches Verbot hält El País für unwahrscheinlich:
„Wenn einer Maschine die Entscheidung darüber überlassen wird, einen Menschen zu töten, wird damit eine – höchst komplexe – rote Linie überschritten. Wird tatsächlich erst einmal künstliche Intelligenz mit einer solchen Macht ausgestattet, dann gibt es kein Zurück. Die Geschichte kennt durchaus Beispiele für Waffenverbote, wie etwa von Minen und chemische Waffen. ... Bislang gab es diese Verbote aber immer erst nach einem massiven Einsatz der Waffen im Feld. Sich für ein Verbot einzusetzen und die öffentliche Debatte anzuregen, ist wichtig. Es wäre aber das erste Mal, dass die mächtigen Armeen der Welt auf eine Waffe verzichten, ohne sie vorher auszuprobieren.“
Auf moralische Selbstregulierung setzen
Eine Alternative zu einem Verbot stellt Mary Wareham, Koordinatorin der Kampagne "Stop Killer Robots" von Human Rights Watch in Le Soir vor:
„Angesichts der vielen verschiedenen Nutzungsmöglichkeiten der Roboter bin ich nicht sicher, ob ein Verbot wirken würde. Das ist allerdings noch kein Grund, nicht für die Einführung internationaler Regeln einzutreten. Können wir diese Regeln erreichen? Ich fürchte, es ist kompliziert. Man kann jedoch eine moralische Botschaft verbreiten. Indem man die Verwendung solcher Waffen ablehnt, delegitimiert man ihre Verwendung auch durch andere Regime. So wie man es bei den Chemiewaffen getan hat. Hier sind vor allem technologisch weit entwickelte Länder gefragt, insbesondere die USA.“