Die dunkle Seite der digitalen Macht

19451960198020002020

Nicht nur Technologie-Visionäre warnen davor, dass uns die Entwicklung der künstlichen Intelligenz über den Kopf wachsen könnte. Auch zwei deutschsprachige Expertenpapiere setzen sich nun mit konkreten Bedrohungsszenarien auseinander.

19451960198020002020

Nicht nur Technologie-Visionäre warnen davor, dass uns die Entwicklung der künstlichen Intelligenz über den Kopf wachsen könnte. Auch zwei deutschsprachige Expertenpapiere setzen sich nun mit konkreten Bedrohungsszenarien auseinander.

Werbung
Werbung
Werbung

Irgendwie scheint sich die Stimmung 2015 verdüstert zu haben. Anfang des Jahres hat eine von der EU geförderte Forschergruppe ein Manifest publiziert: Neue Ideen, Visionen und Konzepte für das Internet-Zeitalter wurden darin vorgestellt. Angesichts der technologischen Umwälzungen gelte es, mit mehr Zuversicht in die Zukunft zu blicken, so die Stoßrichtung des "Onlife-Manifesto". Doch gegen Ende des Jahres bringt dieser Blick selbst bei den Vordenkern pessimistische Töne hervor: Vor einer Gefährdung der Demokratie durch fortschreitende "Automatisierung der Gesellschaft" warnt nun ein neues "Digital-Manifest" deutschsprachiger Forscher, welches unlängst im Spektrum der Wissenschaft erschienen ist. "Die Entwicklung verläuft von der Programmierung von Computern zur Programmierung von Menschen", heißt es dort wenig aufmunternd.

Technologie-Gurus wie Tesla-Chef Elon Musk, Microsoft-Gründer Bill Gates und Appel-Mitbegründer Steve Wozniak gingen heuer sogar soweit, in der Entwicklung künstlicher Superintelligenzen eine ernste Gefahr für die Menschheit zu sehen. Auch der bekannte Physiker Stephen Hawking ließ mit solchen Äußerungen aufhorchen.

Selbstoptimierung der Maschinen

Lernfähige Maschinen, die unser Verhalten manipulieren und nach der Weltherrschaft streben, vernetzte Sensoren, die uns auf Schritt und Tritt verfolgen, oder autonome Waffensysteme, die nur allzu leicht in schlechte Hände geraten können - Fantasien dieser Art sind nicht besonders neu. Man kennt sie aus der Science-Fiction-Literatur, aus Film und Fernsehen, oder von leicht abgehobenen IT-Visionären, deren Aussagen zwar spannend und unterhaltsam, aber nicht wirklich fundiert sind. Doch es mehren sich offenbar die Anzeichen, Szenarien einer übermenschlichen Intelligenz ernsthaft in Betracht zu ziehen.

Künstliche Intelligenz (KI) ist heute lernfähig geworden, kann sich eigenständig weiterentwickeln. Als vor rund einem Jahr der IT-Konzern Google für rund eine halbe Milliarde Dollar das KI-Unternehmen "Deep Mind" übernahm, wurde das als Signal gewertet, dass von der entsprechenden Forschung bald vielversprechende Ergebnisse zu erwarten sind. Und zumindest in bestimmten Bereichen konkurrieren die Algorithmen künstlicher Intelligenz bereits erfolgreich mit dem Menschen: Bereits in den 1990er-Jahren konnte ein selbstlernendes Backgammon-Programm mit den besten Spielern mithalten, und 1997 besiegte der Computer "Deep Blue" den amtierenden Weltmeister Garry Kasparov im Schach. Algorithmen können heute Schrift, Sprache und Muster fast ebenso gut erkennen wie Menschen -und sie beginnen nun auch, die Inhalte von Fotos und Videos zu beschreiben. Künstliche neuronale Netzwerke können heute sogar Krebszellen diagnostizieren, ähnlich wie langwierig ausgebildete Labormediziner.

Globale Chancen und Risiken

Inzwischen gibt es auch Algorithmen, die Computerspiele selbstständig erlernen können und dabei menschliches oder sogar übermenschliches Niveau erreichen: Googles "Deep Mind"-Algorithmen etwa lernten autonom, Atari-Spiele zu gewinnen. Zahlreiche Computer-Forscher erwarten, dass sich die KI-Algorithmen in immer stärkerem Ausmaß selbst optimieren werden. Nähern wir uns also der Entwicklung einer generellen Maschinen-Intelligenz, die Probleme aller Art selbstständig lösen kann? Dass die Risiken und Chancen der Künstlichen Intelligenz als globale Priorität -ähnlich wie der Klimawandel - erkannt werden sollten, ist nun auch das Anliegen eines Diskussionspapiers der Stiftung für Effektiven Altruismus, einer Denkfabrik an den Schnittstellen von Ethik und Wissenschaft. "Unsere Spezies hat deshalb eine dominante Stellung inne, weil sie (aktuell) über die am höchsten entwickelte Intelligenz verfügt", so die Autoren. "Es ist aber wahrscheinlich, dass bis zum Ende des Jahrhunderts künstliche Intelligenzen entwickelt werden, deren Intelligenz sich zu der unseren so verhält wie die unsere zu derjenigen etwa der Schimpansen." Dann aber wird es ernst: Denn nicht wenige Experten sind der Meinung, dass von dieser Entwicklung neben globalen Chancen auch globale Risiken ausgehen, die vielleicht sogar jene der Nukleartechnologie übertreffen. Und wurde nicht auch die Kernkraft lange Zeit unterschätzt? Das Fazit des aktuellen Diskussionspapiers jedenfalls mahnt zur Vorsicht: Hohe potenzielle Schadensausmaße sind auch dann sehr ernst zu nehmen, wenn die Risikowahrscheinlichkeit nur gering wäre.

Digitale Selbstbestimmung?

"Es ist absehbar, dass Supercomputer menschliche Fähigkeiten bald in fast allen Bereichen übertreffen werden -irgendwann zwischen 2020 und 2060", vermuten wiederum die Autoren des "Digital-Manifests", und: "Es muss uns klar sein, dass auch eine Superintelligenz irren, lügen, egoistische Interessen verfolgen oder selbst manipuliert werden kann." Die größte Gefahr sehen sie in der Aushöhlung der Demokratie durch die unsichtbaren Vorgaben der Computer-Algorithmen: Gesinnungsüberwachung, Manipulation und Volksverdummung seien mögliche Folgen. Im schlimmsten Fall drohe eine zentrale künstliche Intelligenz zu steuern, was wir wissen, denken und wie wir handeln.

Der Gefahr für die Demokratie halten die Autoren ein zutiefst demokratisches Rezept entgegen: "Aufklärung 2.0", basierend auf digitaler Selbstbestimmung. Das wiederum erfordere "Informationssysteme, die mit den demokratischen Prinzipien vereinbar sind - andernfalls werden sie unsere Gesellschaft zerstören."

Es ist den Verfassern beider Dokumente zugute zu halten, dass sie nicht der Verlockung eines Schwarz-Weiß-Denkens erlegen sind. Bei der Bewertung der Künstlichen Intelligenz geht es ihnen stets um eine wissenschaftliche Nutzen-Risiko-Analyse. Diese sei angesichts des zu erwartenden KI-Wettrüstens, das die Sicherheit der Technologieentwicklung ihrem Tempo opfert, immer dringlicher. Ein Verbot jeder risikobehafteten KI-Forschung, so die Autoren des Diskussionspapiers, wäre jedenfalls nicht praktikabel - und würde nur rasch zu einer gefährlichen Forschungsverlagerung in Länder mit niedrigeren Sicherheitsstandards führen.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung