Der gefühlte Kontrollverlust

Werbung
Werbung
Werbung

Mangelndes Vertrauen gibt es immer, wenn Menschen mit Systemen interagieren, die sie letztlich nicht durchschauen können.

Mehr Transparenz, wie die Algorithmen eines selbstlernenden Systems funktionieren, würde die Einstellung zur Künstlichen Intelligenz verbessern.

Stellen Sie sich vor, Sie sind Arzt oder Ärztin in einer Krebsklinik. Um Ihre Arbeit zu unterstützen, wird Ihnen von der Klinikleitung ein Super-Computer zur Seite gestellt, der als "Wunderwuzzi" der Krebstherapie angepriesen wird -nennen wir ihn "Watson", wie das berühmte Computerprogramm von IBM. Für die zwölf häufigsten Krebsarten liefert er auf Knopfdruck Behandlungsempfehlungen nach den neuesten wissenschaftlichen Erkenntnissen. Doch ganz wohl fühlen Sie sich nicht mit dem obergescheiten Watson. Wenn er für eine Therapie plädiert, die mit Ihrer Einschätzung übereinstimmt, verspüren Sie ein Gefühl größerer Sicherheit, sehen aber keinen großen Wert in Watson: Denn die Künstliche Intelligenz (KI) sagt Ihnen lediglich, was Sie ohnehin schon wissen.

Der Arzt aus der Box

Schlägt Watson hingegen eine andere Therapie vor, als Sie zu verschreiben gedenken, zweifeln Sie eher an seiner als an Ihrer Kompetenz. Wer weiß denn schon, wie die Maschine zu ihrem Schluss gekommen ist: Die Algorithmen sind zu komplex, als dass sie für Menschen völlig nachvollziehbar wären. Als Spezialist vertrauen Sie lieber auf Ihr handfestes Wissen und Ihre langjährige Erfahrung.

"Watson for Oncology" ist angetreten, um das Überleben von Krebspatienten zu verbessern. Das System kommt in mehr als 150 Krankenhäusern in elf Ländern zum Einsatz. Doch die Nutzung funktioniert nicht reibungslos; die erwähnten Probleme gibt es im klinischen Alltag tatsächlich. Zwei Krankenhäuser haben unlängst die Kooperation mit dem KI-System beendet, weil viele Ärzte schlicht nicht auf Watson vertrauten. Das berichtet der Computerforscher Vyacheslav Polonski vom Oxford Internet Institute, der sich darüber Gedanken macht, wie das Vertrauen in die Künstliche Intelligenz gestärkt werden kann. Denn ähnliche Probleme gibt es immer, wenn Menschen mit Systemen interagieren, die sie nicht durchschauen können.

Vertrauensfördernde Maßnahmen

Wer schon Erfahrungen mit Künstlicher Intelligenz gemacht hat, bringt diesen Systemen größeres Vertrauen entgegen, so Polonski. Auch mehr Transparenz, wie die Algorithmen funktionieren, würde die Einstellung verbessern. Und es wäre gut, die Menschen nicht ganz aus dem maschinellen Entscheidungsprozess auszuschließen: Gibt es die Möglichkeit, den Algorithmus leicht zu modifizieren, steigt die Zufriedenheit mit der Nutzung von Künstlicher Intelligenz, betont der Forscher.

Freilich empfiehlt sich auch ein Mindestmaß an kritischem Denken: Das ist eine Eigenschaft, die man auch sonst gut brauchen kann. Denn im Gegensatz zum IQ trägt es nachweislich zur allgemeinen Lebenszufriedenheit bei.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung