Googles interner Streit über smarte Waffen

Googles interner Streit über smarte Waffen
Google will Militärprojekte zu künstlicher Intelligenz nicht mehr unterstützen. Es ist eine Entscheidung, bei der Moral sich über Kapitalismus und Patriotismus durchgesetzt hat.

Künstliche Intelligenz stellt die Menschen, die daran arbeiten, immer wieder vor moralische Herausforderungen. Ganz konkret erlebt Google das gerade (nicht nur wegen Duplex). "Project Maven" heißt die Intitiative des US-Militärs, bei der Auswertung von Drohnenbildern künstliche Intelligenz (KI) einzusetzen, um dabei schneller und präziser zu werden. Google wollte das Pentagon dabei unterstützen. Die eigenen Angestellten sind damit nur teilweise einverstanden; laut Gizmodo hat mindestens ein Dutzend Google-Angestellte wegen der Zusammenarbeit gekündigt, mehr als 4.000 haben einen offenen Brief gegen "Project Maven" unterschrieben. Darin heißt es: "We cannot outsource the moral responsibility of our technologies to third parties" - übersetzt: "Wir können die moralische Verantwortung für unsere Technologien nicht an Dritte abgeben". Sie wollen nichts damit zu tun haben, dass mithilfe von Google-Technik ein Mensch von einer Drohne getötet wird.

Die Konzernführung hatte zunächst auf das lukrative Rüstungsprojekt nicht verzichtet. Es gehe um die Unterstützung des Militärs beim Einsatz von Open-Source-Technologie, das würde dann einfach jemand anders machen, berichtet die New York Times über die Diskussion in Googles Führungsetage. Am Freitag, 1. Juni, verkündete Diane Greene, die CEO von Google Cloud und zuständig für KI-Projekte, das Ende von "Project Maven": Der Vertrag wird regulär zu Ende erfüllt, aber Google will keine weiteren Aufträge dieser Art annehmen, berichtet Gizmodo.

Kommende Woche will Google neue ethische Prinzipien zum Umgang mit KI vorlegen.

Dass eine amerikanische Firma einen Auftrag des US-Militärs ablehnt, zeigt, dass die großen Internetformen ihre Gründungsländer längst verlassen haben. Google, Facebook, Microsoft und Amazon arbeiten auf einer völlig transnationalen Skala. Eine nationale Verantwortung haben diese weltweit agierenden Firmen nicht, eher im Gegenteil. Zum Geld verdienen wäre es für die Technologie-Firmen gerade bei Rüstungsaufträgen lukrativer, ihre Expertise und Technologie einfach an alle Länder zu verkaufen.

###extern|twitter|davidakaye/status/1002224390317096960###

Googles Entscheidung, KI offenbar nicht mehr zur militärischen Nutzung weiterzuentwickeln, ist eine Entscheidung, die in einer transnationalen Moral begründet ist. Das könnte Schule machen in einem Silicon Valley, in dem soziale Verantwortung gegen die Kultur des Machbaren gerne mal den Kürzeren zieht - auch deswegen, weil die sozialen Folgen der Silicon-Valley-Entwicklungen erst langfristig sichtbar werden, im Schlechten wie im Guten.

Das ist im Falle von "Project Maven" offenbar anders. Die Verbindung "unsere KI hilft beim Töten von Menschen" ist so eingängig, dass sich Google-Mitarbeiter dagegen gewehrt haben. Die moralische Entscheidung, die damit zusammenhängt, löst sich eindeutig von der amerikanischen Herkunft. "Landesverteidigung" ist nicht einmal bei der Konzernspitze ein Argument, den Auftrag annehmen zu wollen. Kapitalismus schlägt Nationalismus - es geht ums Geld und lukrative Folgeaufträge, aber auch um das Bild der eigenen Firma. Und bei Google um die Frage, ob das ehemalige Firmenmotto "Don't be evil" immer noch gilt.

Manchmal macht sich die kulturelle Herkunft der Tech-Firmen natürlich trotzdem bemerkbar. Facebooks Standards für Inhalte - unbegrenzte Meinungsfreiheit auch für Nazis, aber keine nackten Menschen selbst bei nicht-erotischen Bildern - sind eindeutig amerikanisch. Aber selbst da wenden die Firmen nicht die Regeln eines einzelnen Landes an. Ihre Kunden sind global verteilt, ihre internen Regeln müssen daher auch global Anwendung finden. Die EU-Datenschutzgrundverordnung hat das auch gezeigt. Die Regeln einzelner Länder hat Facebook eher ignoriert, die EU-DSGVO aber nicht. Bei aller Kritik an dem Datenschutzgesetz: Es zeigt deswegen Wirkung, weil es für alle Länder in der Europäischen Union gilt. Das ist selbst für Facebook, Google etc. ein ausreichend großer Markt, um genauer hinzuschauen.

Google hat die Frage nach weiteren KI-Rüstungsprojekten jetzt auf der Basis einer firmeninternen, transnationalen Moral mit "nein" beantwortet. Ob das dauerhaft so bleibt, werden wir sehen. Googles Regeln zu KI, die nächste Woche vorgelegt werden sollen, werden deutlicher zeigen, welche Rolle menschliche Moral für künstliche Intelligenz im Silicon Valley künftig spielen kann..

Ein kleiner Hinweis übrigens noch für dieses Blog: Es heißt jetzt anders. Nach einer entsprechenden Bitte der Betreiber von www.lattenkreuz.de, die den Titel "Lattenkreuz" als Marke haben schützen lassen, habe ich das Blog erstmal in "Confessio Digitalis" umbenannt. Wer aber noch einen besseren Vorschlag hat, kann mir den an @dailybug auf Twitter schicken.

Vielen Dank für’s Lesen & Mitdenken!


Im Blog Confessio Digitalis schreibe ich meine Beobachtungen, Links und Interviews zu den Themen Digitalisierung, Digitale Kirche und digitalisierte Welt auf. Ich bin erreichbar auf Twitter als @dailybug.