"Maschinen sollen sich selbst erklären"

Werbung
Werbung
Werbung

"Roboter sollen uns Arbeit abnehmen, sodass wir gerade in den Bereichen tätig sein können, in denen wir gut sind. Es gibt Jobfelder, wo man künftig mehr Menschen einsetzen kann."

Martina Mara forscht zu psychologischen Aspekten menschenähnlicher Roboter und leitete am Ars Electronica Futurelab den Forschungsbereich Robo-Psychology. Seit April ist die Medienpsychologin auf eine Professur für Roboter-Psychologie an die Universität Linz berufen. Sie ist Mitglied im Roboter-Rat des Infrastrukturministeriums, der Empfehlungen für den Umgang mit Künstlicher Intelligenz (KI) erarbeitet.

DIE FURCHE: Künstliche Intelligenz gehört bereits zu unserem Alltag. Warum braucht es jetzt eine österreichische Strategie?

Martina Mara: Man muss sich überlegen, wie eine menschenfreundliche technologische Zukunft aussehen kann. Faktoren der Nutzerakzeptanz spielen hier eine Rolle: Wo können wir Roboter und KI-Systeme als Partner, Tools oder Kollegen akzeptieren und wo nicht? Wie können möglichst viele Menschen einen Benefit vom Fortschritt haben? Das könnte mehr Freizeit sein oder Unterstützung bei Tätigkeiten, an denen man ohnehin keine Freude hat oder die man wegen körperlicher Einschränkung nicht durchführen kann. Künstliche Intelligenz hat das Potenzial, die Autonomie zu erhöhen. Aber es gibt auch Bereiche, in denen man aufpassen muss.

DIE FURCHE: Hier kommen Sie als Roboterpsychologin in Spiel?

Mara: Genau, ich untersuche etwa, welche Ängste es gegenüber autonomer Technologie gibt, woher diese kommen und was man dagegen tun kann. Auf Basis empirischer Daten versuchen wir, Empfehlungen für Industrie und Technikentwicklung abzuleiten. Es spielt eine große Rolle, in welchem Umfeld Roboter oder KI-Systeme zum Einsatz kommen. Oder welche Informationen man Menschen gibt, bevor sie damit zu tun haben. Im Ars Electronica Center haben wir untersucht, wie das Publikum auf Roboter - in diesem Fall ein gruseliger Android - reagiert.

DIE FURCHE: Mit welchem Ergebnis?

Mara: Wir haben geprüft, welche Rolle Vorabinformation bei der Bewertung dieser Maschinen spielt. Personen, denen die Infos über eine Kurzgeschichte vermittelt wurden, waren hier deutlich positiver eingestellt. Sie erlebten die Interaktion mit dem Roboter als angenehmer. Das passt gut zu Befunden, wonach durch "Storytelling" effektiv neue Konzepte vermittelt werden können. Wichtig scheint mir, dass unerfahrenen Nutzern kommuniziert wird, was von einem Roboter zu erwarten ist.

DIE FURCHE: Nicht nur in Science-Fiction-Geschichten werden Roboter gern sehr menschenähnlich dargestellt. Genau davor warnen Sie aber. Warum eigentlich?

Mara: Es gibt kaum Zweifel, dass hochgradig menschenähnliche Maschinen unheimlich wirken. Wir sprechen vom "Uncanny Valley"-Phänomen, wonach Menschenähnlichkeit nur bis zu einem gewissen Grad gut akzeptiert wird. Ich möchte das künftig verstärkt erforschen, vermute jedoch, dass die androide Darstellung Zukunftsängste schürt bzw. bestehende Ängste noch befeuert. Wenn in jeder Google-Suche diese Bilder auftauchen, darf es uns nicht wundern, dass viele denken, im Zentrum der Robotik-Forschung stünde die möglichst schnelle Ablöse des Menschen.

DIE FURCHE: Diese Angst scheint nicht unbegründet. Think-Tanks wie die "Chinese Academy of Social Sciences" meinen, dass Roboter binnen zehn bis 20 Jahren die menschlichen Fähigkeiten übertreffen werden. Stephen Hawking ließ uns mit 100 Jahren mehr Zeit. Alles Humbug?

Mara: Auf der einen Seite stehen Utopisten, die Künstliche Intelligenz als Heilsbringer sehen. Auf der anderen Seite gibt es Dystopisten, die Schreckensszenarien von robotischen Herrenmenschen entwickeln. Die Mitte erscheint vernünftig. Ich spreche viel mit Technikern über hypothetische Möglichkeiten der Intelligenz. Die große Mehrheit sagt, dass es keinen praktischen Hinweis für die Entwicklung von Emotionen oder Bewusstsein in einer Maschine gibt. Deshalb finde ich es unverantwortlich, die Debatte zu befeuern, als stünden wir kurz vor einer Übernahme. Das Unternehmen Hanson Robotics tut genau das. Aber sein Android "Sophia" ist vom bewussten Wesen gleich weit entfernt wie der "Schachtürke" aus dem 18. Jahrhundert vom Schachweltmeister. Statt die Debatte auf Basis von Science Fiction zu führen, wäre es wichtiger, aktuelle Probleme zu adressieren.

DIE FURCHE: Welche Themen sind aus Ihrer Sicht dringlich?

Mara: Momentan bedeutet Künstliche Intelligenz, dass ein Algorithmus mit riesigen Datenmengen gefüttert wird, aus denen er selbstständig Erkenntnisse generiert. Mittlerweile ist nachgewiesen, dass solche Algorithmen menschliche Stereotype reproduzieren. Klar, sie lernen ja auch aus Daten, die vom Menschen gemacht sind! Das bedeutet, dass sich etwa alte Geschlechter-Klischees widerspiegeln. Im Google-Translator wird ein türkischer Satz, der sowohl mit "Er ist Arzt" wie mit "Sie ist Ärztin" übersetzt werden könnte, immer zum "Arzt": Der KIAlgorithmus hat gelernt, dass Ärzte eher Männer sind. Das ist gefährlich, weil Algorithmen wichtige Entscheidungen treffen - wer zum Vorstellungsgespräch eingeladen wird oder wer ein Darlehen bekommt. Wichtig sind daher Systeme, die sich erklären können und transparent machen, was sie tun und warum. Das ist ein guter Ansatz, der in alle Prozesse integriert werden müsste, weil er Vertrauen schafft. Wird bei autonomen Fahrzeugen die Sicherheit optimiert, müsste man auch über unser Sicherheitsempfinden nachdenken.

DIE FURCHE: In den USA gab es bereits das erste Todesopfer durch ein selbstfahrendes Uber-Taxi. Welche Auswirkung hat das auf die Technik-Entwicklung?

Mara: Kurzfristig werden wahrscheinlich ein paar Entwicklungen und Praxistests in "Standby" gehen. Der traurige Unfall zeigt ja leider, wie gefährlich es ist, noch nicht fertig ausgetestete Technologien auf die Straße zu setzen bzw. falsche Erwartungen bei den Nutzern zu wecken. Wenn es aus Sicherheitsgründen noch erforderlich ist, dass Insassen niemals den Blick von der Straße abwenden, darf man das System eben nicht "Autopilot" nennen. Langfristig aber ist das autonome Fahren wohl nicht aufzuhalten. Die Lobby dahinter ist viel zu groß und im Endeffekt gibt es wohl auch zu viele Pluspunkte. Fast alle Experten gehen davon aus, dass ausgereifte vollautonome Robotertaxis im Mittel deutlich sicherer sein werden als menschliche Fahrer, die vielleicht müde oder unkonzentriert sind.

DIE FURCHE: Wie sollten Regelungen aussehen, um das Zusammenleben mit Künstlicher Intelligenz zu erleichtern?

Mara: Richtlinien müssen im technischen Design verankert sein und nicht nachträglich eingebaut werden. Die europäische Datenschutzgrundverordnung beinhaltet bereits kleine Fortschritte in diese Richtung. Und die Technologien müssen den Datenschutzbestimmungen folgen. "Explainable machines" sollten aufgenommen werden: Viele Techniker sehen bereits die Notwendigkeit, dass sich Maschinen erklären können. Das ist auch ethisch und juristisch relevant. Menschen, über die durch KI-Systeme entschieden wird, haben das Recht auf Erklärung, warum sie etwa für den Job nicht ausgewählt wurden. Meist kann nicht einmal mehr der Programmierer nachvollziehen, warum ein Algorithmus eine bestimmte Entscheidung getroffen hat.

DIE FURCHE: Wie könnte denn die Co-Existenz von Mensch und Maschine in 20 Jahren aussehen?

Mara: Es wird keinen Tag X geben, ab dem humanoide Haushaltsroboter wie "Rosie" bei den "Jetsons" durchs Wohnzimmer fegen werden. Robotik und KI finden in anderen Bereichen statt: Schon heute gibt es Lagerhallen, in denen kein Mensch mehr arbeitet; wir verwenden schlaue Sprachassistenten; und autonome Fahrzeuge werden bald öfter zu sehen sein. Wir brauchen Zukunftsbilder, die vom Schema der Substitution -Mensch wird durch Maschine ersetzt - abgehen und stattdessen komplementäre Mensch-Maschine-Beziehungen zeigen. Wir müssen KI dort einsetzen, wo ihre Stärken liegen, etwa in standardisierbaren Prozessen oder der Datenanalyse. Roboter sollen uns Arbeit abnehmen, sodass wir in den Bereichen tätig sein können, in denen wir gut sind. Es gibt Jobfelder, die uns besonders Freude bereiten und wo man künftig mehr Menschen einsetzen kann. Ein Pflegeroboter sollte die menschliche Pflegekraft nicht ersetzen, sondern ihr die mechanischen Aufgaben abnehmen, sodass sie Zeit hat, sich auf die Urform der Pflege -den menschlichen Umgang -zu konzentrieren. Man kann das als naive Vision abtun, oder die Chance nutzen.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung