Janina Loh - <strong>Janina Loh</strong><br />
Die Technik- und Medienphilosophin widmet sich den moralischen Herausforderungen beim Einsatz von Robotern. - © David Marousek
Wissen

„Kein Sexroboter kann ‚nein‘ sagen“

1945 1960 1980 2000 2020

Nach welchen Regeln sollen Menschen und Roboter zusammenleben? Philosophin Janina Loh über Maschinenethik und die immer innigere Beziehung zu intelligenten Geräten.

1945 1960 1980 2000 2020

Nach welchen Regeln sollen Menschen und Roboter zusammenleben? Philosophin Janina Loh über Maschinenethik und die immer innigere Beziehung zu intelligenten Geräten.

Sind Roboter autonom? Können sie gar moralisch handeln? Haben sie einen moralischen Wert? Sollten ihnen Rechte zuerkannt werden? Wer ist zur Rechenschaft zu ziehen, wenn ein Roboter einen Menschen schädigt? Diese und weitere ethische Fragen werden von Janina Loh kritisch verhandelt. Im September erscheint im Suhrkamp-Verlag ihre Einführung in die Roboterethik. Die Philosophin arbeitet an der Universität Wien zu den Schwerpunkten Maschinenethik und Posthumanismus. Die FURCHE hat nachgefragt.

DIE FURCHE: Frau Loh, was versteht man eigentlich unter Roboterethik?
Janina Loh: Sie beschäftigt sich mit den moralischen Kriterien beim Bau von Robotern und im Umgang mit ihnen. Einerseits muss etwa ein Pflegeroboter bestimmten Regeln folgen, darf sich beispielsweise nicht gegen seine Besitzer auflehnen. Auf der anderen Seite müssen die Besitzer den Roboter auch personalisieren können. Das Robotersystem muss in einem minimalen Rahmen einstellbar sein, um sich an seinen Besitzer anpassen zu können. Welche Werte gesetzt werden und wie ein guter Umgang mit Robotern aussieht, muss man sich vorab überlegen.

DIE FURCHE: Der Science Fiction-Autor Isaac Asimov hat bereits 1942 „Robotergesetze“ formuliert, die garantieren sollen, dass Roboter den Menschen keinen Schaden zufügen. Sind diese noch brauchbar für eine aktuelle Roboterethik?
Loh: Die „Robotergesetze“ von Asimov sind sehr abstrakt und können je nach Kontext sogar widersprüchlich sein. Gesetze brauchen immer eine bestimmte Interpretation. Wir Menschen gelangen auch in Dilemma-Situationen – im Gegensatz zu Robotern können wir aber in so einem Fall von unseren Regeln abweichen. Solange Roboter nicht lernfähig sind, haben sie dann vermutlich nur die Möglichkeit, in den Standby-Modus zu gehen.

DIE FURCHE: Wie helfen ethische Grundsätze dabei, auftretende Konflikte zu lösen?
Loh: Roboter sind heute in allen Bereichen zu finden, von der Pflege über das Militär bis hin zu Sexrobotern. Als Produkte menschlichen Handelns haben sie automatisch Werte implementiert, weil menschliches Handeln durch Werte gesteuert wird. Ja, alle Technologien haben bewusst oder unbewusst Werte implementiert. So muss beispielsweise ein Maschinengewehr Schaden zufügen. Wenn wir Maschinen konstruieren, die mit Menschen interagieren, dann müssen diese mit den „richtigen“ Werten ausgestattet sein. Ein autonomes Auto muss in einer Konfliktsituation entscheiden können, ob es zum Beispiel den Abhang hinunterfährt, die drei Ärzte bei ihrer Mittagspause wegrammt oder ob es sich anderweitig verhält. Das ist eine ethische Entscheidung, und eine solche muss bereits im Vorfeld implementiert werden.

DIE FURCHE: Bevor Dynamit als Terror­instrument missbraucht wurde, bekam es aber wohl auch andere Werte implementiert ...
Loh: Produkte können immer für andere Zwecke instrumentalisiert werden. Mit einem Maschinengewehr kann man ja theoretisch auch einen Nagel in die Wand schlagen. Es gibt aber immer einen oder mehrere primäre Werte, über die Nebenfolgen muss man sich im Klaren sein. Das Problem beim Implementieren von Werten ist, dass es Menschen sind, die dies tun. Ich nehme immer das Beispiel Sexroboter: Diese wurden nach problematischen Gender-Stereotypen entwickelt. Als Konsument kann ich entscheiden, nach welchen diskriminierenden Stereotypen der Roboter funktionieren soll. In allen Bereichen dieser Welt brauchen wir heterogene Gruppen von Menschen, die zusammen entscheiden – so auch bei Sexrobotern. Man stelle sich eine Ethikkommission für technologische Produkte vor, die nur aus weißen, heterosexuellen Männern über 50 Jahren besteht.

DIE FURCHE: Trägt allein der Mensch die Verantwortung gegenüber den Robotern, oder können auch Roboter selbst für ihr Handeln verantwortlich sein?
Loh: Bis auf weiteres sind es nur die Menschen: aber nicht nur die Designer und Firmen, die Technologien verkaufen, sondern auch alle Menschen, die damit umgehen. Verantwortung kann man verteilen und jeder Mensch hat unterschiedliche Verantwortlichkeiten. Denkt man diese Systeme weiter, könnten smarte und autonome Roboter künftig vielleicht auch Verantwortung übernehmen. Bis jetzt kenne ich aber keinen Roboter, der das kann.

DIE FURCHE: Wann wird das der Fall sein?
Loh: Wenn man etwa dem schwedischen Philosophen Nick Bostrom Glauben schenkt, wird es einmal eine künstliche Superintelligenz geben. Das ist aber kein Naturgesetz, das liegt allein in unserer Hand. Im Militär, in der Medizin und in der Pflege haben wir momentan Maschinen, die nach bestimmten Regeln funktionieren, also „Inselbegabungen“ haben. Ein Schachcomputer kann zum Beispiel super Schach spielen, wird aber nie in den Krieg ziehen. In Bereichen, wo Menschen zu Schaden kommen könnten, sind lernfähige Systeme ethisch unerwünscht. Denn lernen bedeutet immer auch, Fehler zu machen. Sollten wir künftig einmal selbstlernende, autonome Autos haben, müssen wir uns gut überlegen, welche Werte man diesen implementiert. Ebenso, ob wir smarte Super-Roboter überhaupt wollen und in welchen Bereichen diese eingesetzt werden sollten.

DIE FURCHE: Kann es sein, dass sich Maschinen mit Künstlicher Intelligenz der menschlichen Kontrolle entziehen?
Loh: Bislang sind alle Maschinen, die auf dem Markt verfügbar sind, bis auf weiteres „Moral Patients“, also Objekte moralischen Handelns. Sie können nicht selbstständig handeln, weil Lernfähigkeit nötig und nur ein geringes Abweichen von der algorithmischen Grundstruktur möglich ist, die man implementiert hat. „Moral Agents“ gibt es im Hinblick auf Roboter bis jetzt nicht, höchstens im rudimentären Sinn. Vielleicht aber werden wir bei Robotern künftig dieselben Rechte und Pflichten einführen wie bei Menschen. Denn je lernfähiger Maschinen werden, desto weniger Kontrolle haben wir über sie. Dasselbe gilt bei Kindern: Man würde ja auch nicht sagen, dass Kinder volle moralische Personen sind. Sie sind moralische Personen im Werden. Wir können versuchen, unsere Kinder nach unseren Werten zu erziehen, aber wenn die Kinder dann nicht so werden, wie die Eltern sich das vorgestellt haben, kann man auch nichts dagegen tun. Am Ende ist es das Unverfügbare im Menschen, das eine absolute Kontrolle nicht möglich macht – genauso bei lernfähigen Maschinen. Wenn wir irgendwann künstliche moralische Akteure schaffen, dann verlieren wir die absolute Kontrolle über sie.

Vielleicht werden wir bei Robotern dieselben Rechte und Pflichte einführen wie bei Menschen. Je lernfähiger die Maschinen werden, desto weniger Kontrolle haben wir über sie.

Janina Loh

DIE FURCHE: Trägt allein der Mensch die Verantwortung gegenüber den Robotern, oder können auch Roboter selbst für ihr Handeln verantwortlich sein?
Loh: Bis auf weiteres sind es nur die Menschen: aber nicht nur die Designer und Firmen, die Technologien verkaufen, sondern auch alle Menschen, die damit umgehen. Verantwortung kann man verteilen und jeder Mensch hat unterschiedliche Verantwortlichkeiten. Denkt man diese Systeme weiter, könnten smarte und autonome Roboter künftig vielleicht auch Verantwortung übernehmen. Bis jetzt kenne ich aber keinen Roboter, der das kann.

DIE FURCHE: Wann wird das der Fall sein?
Loh: Wenn man etwa dem schwedischen Philosophen Nick Bostrom Glauben schenkt, wird es einmal eine künstliche Superintelligenz geben. Das ist aber kein Naturgesetz, das liegt allein in unserer Hand. Im Militär, in der Medizin und in der Pflege haben wir momentan Maschinen, die nach bestimmten Regeln funktionieren, also „Inselbegabungen“ haben. Ein Schachcomputer kann zum Beispiel super Schach spielen, wird aber nie in den Krieg ziehen. In Bereichen, wo Menschen zu Schaden kommen könnten, sind lernfähige Systeme ethisch unerwünscht. Denn lernen bedeutet immer auch, Fehler zu machen. Sollten wir künftig einmal selbstlernende, autonome Autos haben, müssen wir uns gut überlegen, welche Werte man diesen implementiert. Ebenso, ob wir smarte Super-Roboter überhaupt wollen und in welchen Bereichen diese eingesetzt werden sollten.

DIE FURCHE: Kann es sein, dass sich Maschinen mit Künstlicher Intelligenz der menschlichen Kontrolle entziehen?
Loh: Bislang sind alle Maschinen, die auf dem Markt verfügbar sind, bis auf weiteres „Moral Patients“, also Objekte moralischen Handelns. Sie können nicht selbstständig handeln, weil Lernfähigkeit nötig und nur ein geringes Abweichen von der algorithmischen Grundstruktur möglich ist, die man implementiert hat. „Moral Agents“ gibt es im Hinblick auf Roboter bis jetzt nicht, höchstens im rudimentären Sinn. Vielleicht aber werden wir bei Robotern künftig dieselben Rechte und Pflichten einführen wie bei Menschen. Denn je lernfähiger Maschinen werden, desto weniger Kontrolle haben wir über sie. Dasselbe gilt bei Kindern: Man würde ja auch nicht sagen, dass Kinder volle moralische Personen sind. Sie sind moralische Personen im Werden. Wir können versuchen, unsere Kinder nach unseren Werten zu erziehen, aber wenn die Kinder dann nicht so werden, wie die Eltern sich das vorgestellt haben, kann man auch nichts dagegen tun. Am Ende ist es das Unverfügbare im Menschen, das eine absolute Kontrolle nicht möglich macht – genauso bei lernfähigen Maschinen. Wenn wir irgendwann künstliche moralische Akteure schaffen, dann verlieren wir die absolute Kontrolle über sie.

DIE FURCHE: Wie schafft man es, ein globales ethisches Rahmenkonzept für Künstliche Intelligenz zu schaffen, wenn die ethischen Grundsätze kulturell doch so verschieden sind?
Loh: Wenn wir keine selbstlernenden Maschinen wollen, die sich durch Erfahrungen moralische Kriterien setzen, sondern Systeme, an denen man ein festes Set an unausweichlichen Richtlinien einstellen muss, scheint mir ein globaler Standard unmöglich zu sein. Soll ein autonomes Auto ein moralisches Navigationssystem haben, welches sich umstellt, sobald es eine Landesgrenze überschreitet? Schwer vorstellbar. Auch beim Menschen brauchen wir keine globale Moral und wir könnten sie auch nicht ohne weiteres schaffen. Bei uns ist es gesetzlich verankert, dass die Würde des Menschen unantastbar ist. Aufgrund seiner Würde hat ein Mensch einen unendlichen Wert. Unendlichkeit kann man nicht aufsummieren, mathematisch gesehen ist unendlich plus unendlich immer noch unendlich. Daher hat eine Gruppe von zwei Menschen den gleichen Wert wie eine Gruppe von zehn Menschen. Ein autonomes Auto muss also meiner Meinung nach unbedingt den vorher einprogrammierten Fahrweg beibehalten – egal, wer bei einem ethischen Dilemma mit Unfallsfolgen zu Schaden kommt. Wenn man jetzt aber in ein Land fährt, welches dieses Prinzip nicht gesetzlich verankert hat, wird es schwierig.

DIE FURCHE: Warum werden Roboter wie beispielsweise der Pflegeroboter Pepper „menschlich“ dargestellt? Warum solleine Maschine überhaupt anthropomorph aussehen?
Loh: Pflegeroboter sind bewusst Menschen oder Tieren nachempfunden, weil Menschen, die damit umgehen, sich damit identifizieren können und Vertrauen aufbauen sollen. Das ist in diesem Bereich durchaus gerechtfertigt. Insbesondere bei militärischen Anwendungen ist das Gegenteil der Fall: Wenn man sich emotional zu sehr an einen Minenroboter bindet, kann das fatal ausgehen.

DIE FURCHE: Werden wir mit Robotern Freundschaften schließen können?
Loh: De facto können Menschen auch schon heute mit Maschinen Freundschaften eingehen und emotionale Bindungen haben. Über die Qualität der Freundschaften mag ich nicht urteilen, aber manche Menschen können nun mal nicht so gut mit anderen Menschen und warum sollen diese dann nicht Freunde in Maschinen finden? Die sind zwar nicht sehr komplex, aber das ist ja keine Voraussetzung für Freundschaft. Man kann ja auch mit kognitiv eingeschränkten Menschen befreundet sein.

DIE FURCHE: Es gibt sogenannte „objektophile“ Menschen, bei denen das Verhältnis zu Computergeräten bereits weit über Freundschaft hinausgeht ...
Loh: Tatsächlich sind bereits Fälle aufgetreten, wo sich Menschen in Roboterstimmen verlieben oder ihre Smartphones geheiratet haben.

DIE FURCHE: Wie der Filmemacher Aaron Chervenak 2016 in Las Vegas.
Loh: Ich finde, das ist nichts Schlechtes; es ist doch wunderbar, dass Menschen zu so etwas in der Lage sind. Gefährlich wird es dann, wenn der Roboter durch mangelhafte Technologie dem Menschen Schaden zufügen kann. Umgekehrt gibt es aber auch hochgradig schlechte und diskriminierende Beziehungen zwischen Menschen, die aus diesen nicht raus kommen. Das ist also kein neues Problem.

DIE FURCHE: Ein Smartphone kann sich gegen eine Hochzeit nicht wehren – sind künftig auch beidseitig romantische Beziehungen zwischen Menschen und Maschinen denkbar?
Loh: Ich glaube, „objektophile“ Menschen haben jetzt schon das Gefühl, dass die Zuneigung beidseitig ist. Vielleicht sind wir einfach zu blöd, um die Bedürfnisse eines Smartphones zu erkennen (lacht). Jemand, der sein Smartphone heiratet, würde wohl auch meinen, dass sich das Handy die Scheidung wünschen könnte. Der Großteil der Menschen kann das aber einfach nicht nachvollziehen. Das hängt sicherlich auch von der Komplexität der Maschine ab. Wenn wir einmal starke „Moral Agents“ haben, würde es vermutlich auch anderen Menschen leichter fallen, solche Beziehungen zu akzeptieren. Bis jetzt haben wir aber noch keine Sexroboter mit so starker Künstlicher Intelligenz, dass sie auch einmal „nein“ sagen könnten. Das wollen ja auch die Herstellerfirmen nicht. Man stelle sich nur vor, man gibt für so ein Ding 10.000 Euro aus und dann sagt es mir, es will lieber mit meinem Nachbarn schlafen!

Furche Zeitmaschine Vorschau