Von klugen Rechnern DURCHSCHAUT

19451960198020002020

Eine Konferenz in Wien zeigte einmal mehr das Janusgesicht der Digitalisierung - zwischen Nutzungseffizienz und Überwachung.

19451960198020002020

Eine Konferenz in Wien zeigte einmal mehr das Janusgesicht der Digitalisierung - zwischen Nutzungseffizienz und Überwachung.

Werbung
Werbung
Werbung

Wer bei Callcentern anruft, ist es vielleicht schon gewohnt, mit einer metallisch tönenden Computerstimme zu sprechen. Bevor man sein Anliegen gegenüber einem Mitarbeiter des Unternehmens äußern kann, durchläuft man eine automatische Schleife, die für die richtige Zuordnung des Anrufers sorgt. Das Unternehmen profitiert von dieser Automatisierung: Es kann Kosten sparen und etwaige Querulanten herausfiltern. Doch für die Kunden kann dieser Durchlauf mitunter problematisch sein: Für sie kann es länger dauern, bis sie die gewünschte Auskunft erhalten. Wenn ein Kunde nuschelt oder sonst irgendwie unklar spricht, wird er (oder sie) vielleicht gar nicht weitergereicht und schafft es nicht bis zur eigentlichen Betreuung. Das kann zu Kundenunzufriedenheit führen. Diese wiederum könnte auf das Unternehmen zurückfallen.

Verbreitung von "Deep Learning"

Systeme dieser Art beruhen auf maschineller Spracherkennung: Der Computer vermag im Sprechen bestimmte Klangmuster zu identifizieren und ist darauf programmiert, auf diese Muster zu reagieren. "Assistenzsysteme mit Spracherkennung haben in den letzten Jahren große Fortschritte gemacht", sagt Stefan Strauß vom Institut für Technikfolgenabschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW)."Mit Google kann man sogar schon im Wiener Dialekt sprechen." Der Technikforscher war einer der Vortragenden der ITA-Jahreskonferenz an der ÖAW in Wien (s. Interview rechts). Im Fokus stand die neue Arbeitswelt, die immer mehr durch die fortschreitende Digitalisierung geprägt wird. Und wie bereits das simple Beispiel der Callcenter zeigt, gibt es hier jede Menge an Folgen und Nebenwirkungen zu beachten.

Glaubt man dem deutschen Computerforscher Dirk Helbing, steht eine umfassende Automatisierungswelle bevor: "The Automation of Society is Next", lautet sein Ausblick in Buchform (2015). Auch wenn man diese Prognose nicht generell teilt: Die Intelligenz der Maschinen wird künftig je denfalls eine wichtigere Rolle spielen. Maschinelles Lernen (ML) ist seit jeher zentral im Bereich der Künstlichen Intelligenz. Es befasst sich mit der Entwicklung automatisierter, lernfähiger Prozesse, um Computersystemen das Aneignen von Erfahrungswissen zu ermöglichen. Die frühen Ansätze maschinellen Lernens waren von Methoden geprägt, deren Problemlösungsstrategien noch kaum systematisch waren und viel eher auf "Versuch und Irrtum" basierten. Doch in den letzten Jahren sind die Entwicklungen in diesem Bereich deutlich fortgeschritten. Ein jüngerer Ansatz ist das "Deep Learning", das eine leistungsfähige Auswertung und effiziente Restrukturierung großer Datenmengen erlaubt. "Deep Learning" stützt sich dabei unter anderem auf künstliche Nerven-Netzwerke, um Informationen auf mehrfachen Abstraktionsebenen zu analysieren. Große Unternehmen wie Google und Facebook fördern die Forschung in diesem Bereich und haben stark zur Vermarktung und Verbreitung dieses Ansatzes beigetragen.

Auswertung von Biodaten

Computer werden künftig nicht nur Sprachmuster präziser auswerten, sondern auch Biodaten wie etwa die Atem-oder Herzfrequenz. Durchaus vorstellbar, dass die Mitarbeiter in einem Unternehmen dahingehend untersucht werden. Ein Mensch, der einen Kaffee getrunken und deshalb eine erhöhte Herzfrequenz hat, könnte dann als Arbeitsrisiko eingestuft werden - und für den Tag dienstfrei bekommen. "Maschinen können viel mehr messen als wir wahrnehmen", so Stefan Strauß. Die Regulierung solcher Szenarien ist noch kaum angedacht.

Sogar das Auslesen von Emotionen wird für neue Mensch-Maschine-Interaktionen diskutiert. Emotionserkennende Systeme könnten zum Beispiel Psychiatern die Diagnose erleichtern, wie Torsten Fleischer und Gerd Lindner vom Karlsruher Institut für Technologie (KIT) berichteten. Sie könnten die Gemütsverfassung des Fahrers in einem selbstfahrenden Auto registrieren, um zu überwachen, wann ihm die Kontrolle über das Fahrzeug übergeben werden kann. Klassenräume in den Schulen könnten mit Sensoren ausgestattet werden, um Informationen über die emotionale Verfassung der Schüler auszuwerten, deren Leistungsfähigkeit vorherzusagen und zu erkennen, wann ein Eingreifen notwendig wird.

Doch gerade in diesem Bereich liegen der Wunsch der Technikentwickler und die Wirklichkeit noch weit auseinander, betonte Torsten Fleischer. Zwar zeige eine Vielzahl aktueller Studien, dass hier erfolgreich statistische Zusammenhänge zwischen universellen Basisemotionen und äußerlichen Emotionsmarkern und -wörtern identifiziert werden können. "Es ist jedoch umstritten, inwiefern diese Zusammenhänge allgemeingültig sind. Zudem werden die Nebenwirkungen und Gefahren des verbreiteten Einsatzes solcher Systeme bislang nur unzureichend beachtet." So könnte bei unkritischer Einstellung zur Technologie das Vertrauen in das eigene emotionale Sensorium beschädigt werden, gab Fleischer zu bedenken. Menschen könnten sogar den Umgang mit den eigenen Emotionen verlernen, wenn Computer diese Aufgabe übernehmen. Allein die Komplexität des menschlichen Gefühlslebens sowie die korrekte Einordnung der Gefühlsäußerungen in den jeweiligen situativen und kulturellen Kontext ist schwer zu bewältigen.

Die Forscher folgern derzeit, dass solche Systeme bestenfalls als automatisiertes Element komplexerer Entscheidungssysteme angewendet werden könnten. Auf keinen Fall sollten sie unüberwacht folgenreiche Entscheidungen treffen dürfen.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung