"Der Intransparenz entgegenwirken"

19451960198020002020

Als Benutzer und Kunde im Internet ist man oft unübersichtlichen Strukturen und versteckten Persönlichkeitsscreenings ausgesetzt. Sie werden durch Algorithmen festgelegt und sind hoch umstritten. Ein Experte über die neue Ordnung im Netz und was ihr noch fehlt.

19451960198020002020

Als Benutzer und Kunde im Internet ist man oft unübersichtlichen Strukturen und versteckten Persönlichkeitsscreenings ausgesetzt. Sie werden durch Algorithmen festgelegt und sind hoch umstritten. Ein Experte über die neue Ordnung im Netz und was ihr noch fehlt.

Werbung
Werbung
Werbung

Private Eye

Internetkonzerne wie Google screenen die Gewohnheiten und Vorlieben der User. Derzeit sind die Möglichkeiten öffentlicher Kontrolle aber begrenzt.

Peter Parycek ist Leiter des Departments für E-Governance in Wirtschaft und Verwaltung an der Donau-Universität Krems und seit Juli 2017 Leiter des Kompetenzzentrums Öffentliche IT in Berlin. Er wird bei der Globart Academy zum Thema "Der Algorithmus, dein Freund und Helfer" sprechen.

DIE FURCHE: Herr Parycek, wo spielen Algorithmen beim Thema E-Governance eine Rolle und was sind dabei Aspekte, auf die wir als Gesellschaft in Zukunft achten müssen? Peter Parycek: Die E-Governance steht für den Diskurs, wie wir das digitale Leben gestalten. Dazu brauchen wir Politiken, Strategien und Regularien. Wie die ausschauen werden, wissen wir vielfach noch nicht. Im Fachdiskurs vertreten viele die Position, dass wir im Bereich Algorithmen regulieren müssen und dass die aktuellen Rahmenbedingungen dazu nicht ausreichen. DIE FURCHE: Was tun Algorithmen eigentlich?

Parycek: Algorithmen treffen Entscheidungen auf der Basis und unter den Rahmenbedingungen, die wir ihnen über die Programmierung beigebracht haben. Ein Algorithmus ist vereinfacht dargestellt eine Abfolge von "wenn-danns". Algorithmen finden sich bei unterschiedlichsten täglichen Abläufen, beispielsweise bei jeder Suche im Netz. Wenn wir bei Google eine Suchanfrage starten, ist im Hintergrund ein Algorithmus tätig, der uns bei der Eingabe mit Vorschlägen unterstützt.

DIE FURCHE: Wie kann man sich das konkret vorstellen?

Parycek: Wenn Google weiß, wer vor dem Rechner sitzt, weil wir in einen Google-Dienst eingeloggt sind, versucht es auf Basis unseres persönlichen Profils die optimale Antwort auf unsere Suchanfrage zu liefern. Das sind sehr komplexe, kaum noch nachvollziehbare Regelwerke, die in den vergangenen 20 Jahren entwickelt wurden. Sie haben einen großen Einfluss auf unser individuelles Leben, aber auch eine große gesellschaftspolitische Bedeutung, beispielsweise wenn wir uns eine Meinung zu politischen Themen bilden. Die gleiche Fragestellung finden wir im Facebook-Algorithmus, der entscheidet, welche Inhalte wir in unserer Timeline sehen oder auch nicht sehen.

DIE FURCHE: Gezielte Informationen sind zwar bequem, aber bergen Algorithmen nicht auch Gefahren in sich?

Parycek: Ein Problem ist, dass Algorithmen sortieren, filtern, selektieren, damit unsere Wahrnehmung der Wirklichkeit prägen und wir nicht nachvollziehen können, warum der Algorithmus für uns so entschieden hat. Wir müssen den Organisationen und Individuen vertrauen, die den Algorithmus erstellen, trainieren und weiterentwickeln. Eine Gefahr ist, dass der Algorithmus eine gewisse Werte-Voreingenommenheit des Programmierers oder der Organisation in sich trägt, eine andere, dass er mit Daten trainiert wird, in denen ein Bias enthalten ist.

DIE FURCHE: Was wären denn die Konsequenzen daraus?

Parycek: Es gab das Beispiel eines Chat-Bots, der ein freundliches Mädchen darstellen sollte und dann vom Netz genommen werden musste, weil er begonnen hat, fremdenfeindlich zu chatten. Gefährlich sind auch Algorithmen, die entscheiden, wer zu einem Vorstellungsgespräch eingeladen wird oder die unsere Bonität berechnen und vieles mehr. Datenanalyse und Algorithmen werden in Kürze alle Lebensbereiche durchdringen.

DIE FURCHE: Worauf müsste die Gesellschaft achten?

Parycek: Wir müssen uns die Frage stellen, inwieweit wir eine Vorselektion von Informationen oder eine Steuerung durch Algorithmen haben wollen. Wenn ja, müssen wir uns die Frage stellen, wie wir der Diskriminierung, der Entsolidarisierung oder der Intransparenz der Systeme entgegenwirken können. Ich glaube nicht, dass wir mit einem allgemeinen gesetzlichen Rahmen wie der EU-Datenschutz-Grundverordnung ein Auslangen finden werden, sondern wir müssen mitlernen, wie der Einsatz von Datenanalyse und Algorithmen sich in den jeweiligen Domänen ausprägt, um eingreifen zu können, wenn es zu gesellschaftspolitisch unerwünschten Entwicklungen kommt. So können wir Regulierungen anpassen und das Risiko gering halten.

Wir müssen uns die Frage stellen, inwieweit wir eine Vorselektion von Informationen oder eine Steuerung durch Algorithmen im Internet haben wollen.

DIE FURCHE: Aber man wird wahrscheinlich nicht vorschreiben können, wie ein Algorithmus auszusehen hat, oder?

Parycek: Man könnte aber vorschreiben, dass die Erstellung und Weiterentwicklung eines Algorithmus transparent sein muss, durch Offenlegung des Programm-Codes oder durch Beteiligung von neutralen externen Experten. In weiterer Folge könnte man beobachten, wie der Algorithmus agiert, welche Selektionen und Steuerungsmechanismen er vornimmt. DIE FURCHE: Sollen Algorithmen offengelegt werden müssen? Derzeit sind das ja meist streng gehütete Firmengeheimnisse.

Parycek: Das wäre die ganz harte Regulierung, dass Unternehmen, die eine so große Bedeutung für die Gesellschaft haben und daher auch für die demokratischen Rahmenbedingungen, ihre Algorithmen offenlegen müssen. Das ist natürlich nicht im Interesse der Unternehmen. Was immer wieder diskutiert wird in dem Zusammenhang ist beispielsweise ein TÜV-Algorithmus, durchgeführt von einer Organisation, die vielleicht vom Staat initiiert, aber nicht vom Staat betrieben wird, die einen Einblick in solche Algorithmen bekommt und diese zertifiziert. Das hört sich einfach an, würde aber in der Umsetzung sehr schwierig werden, da gibt es viele offene Fragen. Die Firmen denken derzeit darüber nach, wie man durch Visualisierungen nachvollziehbarer machen kann, warum der Algorithmus gewisse Ergebnisse liefert. Da sind wir aber erst in den Anfängen.

DIE FURCHE: Bei Facebook kann man sich anschauen, warum bestimmte Werbungen angezeigt werden. Geht das in diese Richtung?

Parycek: Das sind erste Ansätze. Nichtsdestotrotz bleibt die Frage, inwieweit Firmen wie Google, Facebook und Co., die so große Bedeutung bekommen haben, die Teil des öffentlichen Raums und der politischen Sphäre sind, einer gewissen globalen Regulierung unterworfen werden müssen. Man könnte zum Beispiel Beiräte einrichten, wie es sie in Österreich und Deutschland für den Rundfunk gibt. Das sind Elemente, die über die nächsten Jahrzehnte, auch im Verhandlungsweg mit den Unternehmen, entstehen werden, weil die Firmen natürlich auch ein Interesse an möglichst großer Akzeptanz bei ihren Userinnen und Usern haben. Ich glaube, dass das eine natürliche Entwicklung sein wird, dass wir zu einer besseren Darstellung gelangen werden, wie Algorithmen zu Entscheidungen kommen.

DIE FURCHE: Was könnte denn passieren, wenn wir das nicht tun?

Parycek: Es könnte passieren, dass Teile der Gesellschaft sich entziehen, und wenn das Vertrauen nicht da ist, dann verlieren gewisse Firmen auch ihre Geschäftsgrundlage. Gesellschaft und Politik werden Zeit und Erfahrung brauchen, bis diese Entwicklungen richtig eingeordnet werden können. Elon Musk fordert immer wieder, dass autonome Steuerungssysteme regulierende Rahmenbedingungen brauchen. Er meint, wenn wir nicht jetzt regulieren, dann wächst uns das alles über den Kopf und die Artificial Intelligence macht sich quasi selbstständig und wird für den Dritten Weltkrieg verantwortlich sein. Da bin ich nicht so pessimistisch. Aber vielleicht ist es gut, dass es Personen gibt, die das Thema so stark akzentuieren, damit es überhaupt zu einem gesellschaftlichen Diskurs kommt.

Peter Parycek

Der Experte an der Uni Krems zählt zu den Köpfen der Open-Government-Bewegung im deutschsprachigen Raum.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung