Frau Misselhorn, Sie sind die erste, die im deutschsprachigen Bereich die Grundfragen der Maschinenethik systematisch erarbeitet hat. Doch was genau ist Maschinenethik eigentlich?
Catrin Misselhorn: Maschinenethik ist ein neues Forschungsgebiet an der Schnittstelle von Philosophie, Robotik und Informatik. Es geht um die Frage, ob Maschinen selbst die Möglichkeit zu moralischem Entscheiden und Handeln haben sollten oder sogar haben müssen. Und darum, welche gesellschaftlichen Folgen das hat und wie man diese Entwicklungen gestalten kann.
In Ihrem neulich erschienenen Buch "Grundlagen der Maschinenethik" sprechen Sie davon, dass selbst ein Staubsaugerroboter vor moralischen Entscheidungen steht?
Misselhorn: Maschinenethik ist keine Science-Fiction, die erst in ferner Zukunft ansteht. Auch heute stellen sich solche Fragen. Also für den Staubsauger beispielsweise, ob er Insekten zu Reinigungszwecken einsaugen oder verscheuchen soll. Bereits heute gibt es "Ladybird" - den Prototyp eines Staubsaugerroboters mit moralischer Programmierung, den mein Kollege aus der Schweiz, Oliver Bendel, geschaffen hat. Der Roboter hat eine Erkennungsfunktion für kleine Lebewesen wie Marienkäfer, "Ladybirds", und verschont sie. Je nach Vorliebe der Nutzer kann aber auch ein "Kill-Button" aktiviert werden, so dass er zum Beispiel Spinnen einsaugt. Im Handel ist der Prototyp allerdings leider noch nicht erhältlich.
Warum ist Maschinenethik unabdingbar?
Misselhorn: Je komplexer und autonomer die Maschinen werden, desto wahrscheinlicher ist es, dass sie auch problematischen Situationen gegenüberstehen. Wenn wir die Vorteile der Künstlichen Intelligenz und Robotik nutzen wollen, muss in Maschinen eine Entscheidungskompetenz einprogrammiert werden, eine Art "Künstliche Moral".
Moralische Fragen stellen sich auch bei autonom fahrenden Autos, beispielsweise wenn es zu Unfällen kommt und das Auto entscheiden muss, wen es im Ernstfall anfährt.
Misselhorn: Genau deshalb stehe ich dem voll autonomen Fahren skeptisch gegenüber. Denn ich bin der Auffassung, dass man Maschinen nicht die Entscheidung über menschliches Leben überlassen sollte. Auf der Internetseite http://moralmachine.mit.edu/ kann man bis zu 20 Unfalls-Szenarien durchspielen: Beispielsweise stehen zwei ältere Damen, zwei ältere Herren und ein Hund einer Mutter und zwei Kindern gegenüber. Wen soll das Auto im Ernstfall überfahren? In diesen Dilemmasituationen gibt es kein richtig oder falsch, hier kann keine Entscheidung getroffen werden. Deshalb spreche ich mich für assistiertes Fahren aus. Hier werden die Vorteile von Maschinen genutzt, so dass beispielsweise der Fahrer gewarnt wird, wenn beim Überholen im Toten Winkel ein Auto übersehen wird. Am Steuer sitzt aber immer noch ein Mensch und entscheidet.
"Kriegsroboter, die ohne die Beteiligung des Menschen töten, halte ich für unmoralisch"
An der südkoreanischen Grenze überwachen autonome Waffensysteme den Todesstreifen zu Nordkorea. Was sagen Sie zu solchen Maschinen, die selbstständig töten?
Misselhorn: Kriegsroboter, die ohne die Beteiligung des Menschen töten, halte ich für unmoralisch. Nach der Theorie des gerechten Krieges ist Töten unter bestimmten Bedingungen erlaubt, aber es gibt keine moralische Pflicht zu töten. Menschen können sich deshalb immer auch dagegen entscheiden, zu töten. So kommt es immer wieder vor, dass Soldaten vor dem Töten zurückschrecken, beispielsweise, wenn ihr Gegner wehrlos und nackt in einem Fluss badet.
Killerroboter haben dagegen eine "Targeting"-Funktion: Sie identifizieren und töten Personen mit bestimmten Merkmalen unerbittlich. Anders als Menschen können sie nicht von der Tötungshandlung Abstand nehmen. Zudem kann durch Roboter viel rasanter getötet werden. Und die Missbrauchsmöglichkeiten beispielsweise durch Terroristen sind gigantisch.
Kann man solchen Killerrobotern Einhalt gebieten?
Misselhorn: Der Atomwaffensperrvertrag ist ein gutes Beispiel, dass es nicht ausgeschlossen ist, solche Regelungen auf internationaler Ebene zu finden.
Sind Drohnen für Sie vertretbar?
Misselhorn: Bei Drohnen gibt es andere ethische und erkenntnistheoretische Herausforderungen. So ist man bei der Entscheidung auf Informationen, die die Drohne bereitstellt, angewiesen. Das ist ein Problem. Noch schwieriger wird es, wenn die Drohne auch bereits eine Entscheidung vorschlägt, und der Mensch nur noch den Knopf drücken muss. Hier gibt es das Problem der "automation bias", das belegt, dass Menschen Maschinen zu leichtgläubig gegenüberstehen und es ihnen schwerfällt, eine Entscheidung, die die Drohne vorschlägt, infrage zu stellen. Auch durch die große Distanz können Tötungshemmnisse abgebaut werden.
Sie sind der Ansicht, dass es auch in sozialen Netzwerken einen Bedarf nach moralisch handelnden Maschinen gibt, die pornografische oder rassistische Inhalte erkennen. Doch wie kann sichergestellt werden, dass durch eine solche Zensur nicht die Meinungsfreiheit eingeschränkt wird?
Misselhorn: Das Problem ist nicht der Algorithmus an sich, der nach diesen Inhalten sucht, sondern dass transparent gemacht werden muss, wer entscheidet, was zensiert wird und wer diese Entscheidungen überprüft. Große Unternehmen legen ihre Algorithmen nicht offen, so ist nicht klar, was alles zensiert wird - extremistische und gewaltverherrlichende Inhalte oder doch auch politisch unliebsame Inhalte?
Auch im Bereich Pornografie ist die Frage, ob jede nackte Brust ein Problem ist oder nur Darstellungen, die Frauen erniedrigend darstellen oder objektivieren. Es gibt einen Bedarf nach moralisch handelnden Maschinen, aber bei der Umsetzung sehe ich noch Hürden.
Wie sehen Sie die Rolle der Kirchen: Sollten sie sich in Themen wie die Maschinenethik einmischen?
Misselhorn: Ich schätze es, dass Kirchen einen Raum schaffen für die Auseinandersetzung mit diesen Themen. Sie sind durch ihre traditionelle Rolle als Gatekeeper gut geeignet, um den öffentlichen Meinungsbildungsprozess zu befördern und moralische Positionen zu artikulieren. Das schließt nicht aus, dass es auch andere Gatekeeper mit anderen Ansichten geben kann.