#

True News

Journalisten - © Foto: Getty Images / Sylvain Lefevre
Medien

Raus aus der Blase

1945 1960 1980 2000 2020

Soziale Medien treiben im Eiltempo die Spaltung der Gesellschaft voran. Doch jetzt regt sich Widerstand: Wie sich Journalisten, Forscher und Tech-Firmen gemeinsam gegen Fake News und verzerrte Weltbilder wehren.

1945 1960 1980 2000 2020

Soziale Medien treiben im Eiltempo die Spaltung der Gesellschaft voran. Doch jetzt regt sich Widerstand: Wie sich Journalisten, Forscher und Tech-Firmen gemeinsam gegen Fake News und verzerrte Weltbilder wehren.

Tabea Wilke sitzt bei der Internetkonferenz „Re:Publika“ am Diskussionspodium und spricht über Wahlmanipulation. Die Frau mit den braunen Haaren und dem schwarzen Blazer ist eine der gefragtesten Expertinnen im deutschsprachigen Raum, wenn es um Manipulation im Netz geht. 2017 gründete sie das Berliner Start-up „Botswatch“, dessen Geschäftsführerin sie seither ist. Das Unternehmen hat sich auf gefälschte, automatisierte Profile in sozialen Medien spezialisiert. Die Idee: Botswatch spürt diese erfundenen Identitäten auf und entlarvt sie quasi in Echtzeit. Grundsätzlich müsse man davon ausgehen, dass keine Wahl vor Manipulationen geschützt sei, erklärte Wilke bei der Re:Publika im Mai dieses Jahres: „Wir müssen immer auf alles vorbereitet sein, auch auf das, was wir uns jetzt noch nicht vorstellen können.“

Wilke und ihr Team arbeiten daran, dass große Trollfabriken, also organisierte Gruppen, die vor Wahlen oder anderen Volksentscheidungen gezielt Falschmeldungen in sozialen Medien verstreuen, weniger Einfluss bekommen. Und damit ist Botswatch nicht alleine. Längst formiert sich Widerstand gegen die Spaltung der Gesellschaft, die nicht zuletzt dem steigenden Einfluss sozialer Medien in politischen Diskursen geschuldet ist. Die neuen Start-up-Gründer möchten Manipulatoren mit ihren eigenen Waffen schlagen. Sie entwickeln Technologien, die verzerrten Meinungsbildern und einseitigen Algorithmen etwas entgegensetzen. Aber ist das tatsächlich der Weg aus der Krise? „Zum Glück sind sich immer mehr Technologie-Unternehmer dessen bewusst, dass Daten im Allgemeinen verzerrt sind und man datenbasierte Algorithmen nicht naiv einsetzen darf“, sagt Stefan Szeider, Informatiker und Professor an der Technischen Universität Wien.

Denn spätestens seit dem Brexit-Referendum, dem irischen Abtreibungs-Referendum oder der US-Wahl werden über soziale Medien beachtliche Kampagnen gefahren. Mithilfe automatisierter Programme, sogenannten „Social Bots“, können Falschmeldungen und provokante Aussagen zum Beispiel auf Twitter beliebig häufig geteilt und verbreitet werden. Botswatch möchte diese Programme in Echtzeit scannen, erkennen und transparent machen. So ließe sich herausfinden, ob hinter der verbreiteten Botschaft tatsächlich eine echte Person steckt oder ein automatisiertes Programm, das gezielt zur Manipulation eingesetzt wird. Dafür werden ununterbrochen Daten analysiert und ausgewertet, immer auf der Suche nach Unregelmäßigkeiten.

Intransparente Systeme

Dennoch: 2018 erntete das Start-up auch Kritik. So hatte Botswatch einen Diskurs über den damals verabschiedeten UN-Migrationspakt auf Twitter gescannt und behauptet, dass 28 Prozent der gesendeten Tweets über den Migrationspakt von Social Bots stammen. Die Analyse sorgte für Aufsehen. Doch Experten kritisieren, dass Botswatch die Methode, wie die knapp 800.000 Tweets, die zum Migrationspakt ausgewertet wurden, nicht offenlegt. Das Unternehmen argumentierte damit, dass es den Kern seines Geschäftsmodells nicht verraten werde und man das Geschäftsgeheimnis akzeptieren müsse. Botswatch ist nur eines von vielen Startups, das sich auf die Enttarnung manipulativer Aktionen im Netz spezialisiert hat. Auch der spanisch-chilenische Informatiker Ricardo Baeza-Yates sorgt mit seiner Firma NTENT im Silicon Valley für Aufmerksamkeit. Baeza-Yates widmet seine Arbeit intelligenten Suchalgorithmen.

Der frühere Vizepräsident der Forschungsabteilung des Internetriesen Yahoo entwickelte seine Idee während des amerikanischen Präsidentschaftswahlkampfs. Mit seinen Suchalgorithmen will er Filter-Blasen ausgleichen. Sobald man im Internet also zu suchen beginnt, greift der Algorithmus ein. Und zwar genau dann, wenn eine Verzerrung der Meinungsbildung droht. Bekommt ein Internetnutzer zum Beispiel nur negative Nachrichten über geflüchtete Menschen, weil er diese immer häufiger anklickt, gleicht der Algorithmus von Baeza-Yates die Suchergebnisse mit neutralerer Berichterstattung wieder aus. „Sowohl wir, die Userinnen und User, als auch künstliche neuronale Netzwerke, die unsere Informationen filtern, müssen lernen, das Entstehen von Verzerrungen und Filter-Bubbles besser zu verstehen“, sagte Baeza-Yates 2017 bei einer Konferenz in Wien. Aber können wir dem mächtigen Algorithmus wirklich auf die Schliche kommen?

Im Prinzip ist es durchaus möglich, Suchalgorithmen so zu gestalten, dass sie Verzerrungen berücksichtigen und ausgleichen.

„Im Prinzip ist es durchaus möglich, Suchalgorithmen so zu gestalten, dass sie Verzerrungen berücksichtigen und ausgleichen“, sagt TU-Professor Szeider. „Bei den großen Suchmaschinen wie Google sehe ich mehr das Problem, dass sie völlig intransparent sind und nicht sagen, nach welchen Kriterien sie die Suchergebnisse reihen.“ Google könne diese Reihung beeinflussen, ohne dafür Rechenschaft abgeben zu müssen, sagt der Informatiker. Das gebe der Suchmaschine erhebliche Macht und Einfluss. „Denn ob zum Beispiel eine Firma auf der ersten Seite der Suchtreffer oder erst auf der zehnten Seite gelistet wird, hat einen enormen wirtschaftlichen Einfluss.“ Welches Unternehmen wie gereiht wird, obliegt der logischen Struktur der jeweiligen Suchmaschine. „Im Prinzip funktionieren Suchmaschinen so, dass sie jenen Web-Seiten, auf die oft verlinkt wird, ein höheres Gewicht geben“, sagt Szeider. Wenn dann eine Seite von hohem Gewicht auf eine andere Seite verweist, erhöht das wiederum das Gewicht der anderen Seite und so weiter.

Sozialer Schneeballeffekt

Dieser Schneeballeffekt hat zur Folge, dass die Seite mit dem meisten Gewicht bei den Suchergebnissen an erster Stelle erscheint. „Das ist die robuste Methode, die auch wesentlich zum Erfolg von Googles Suchmaschine beigetragen hat“, erklärt Szeider, „allerdings ist die tatsächliche Reihung der Suchergebnisse noch erheblich komplizierter und es werden weitere Kriterien und Gewichtungen miteinbezogen, was letzten Endes zu einer nicht transparent nachvollziehbaren Reihung führt.“ Häufig passiert es, dass sogenannte „FakeNews-Seiten“, die Lügen verbreiten, aber aussehen wie seriöse Nachrichtenseiten, bei Google weit vorne gereiht werden. In den letzten Jahren wurde Google häufig dafür kritisiert, zu wenig gegen diesen Mechanismus zu tun. Nun hat der Internetriese diesen Lügenseiten im Netz den Kampf angesagt. Anfang dieses Jahres hat das Unternehmen auf einer Sicherheitskonferenz in München offengelegt, wie es das Problem der Desinformation künftig angehen möchte. So soll die Qualität des Inhalts einer Seite überprüft werden. Außerdem werde gecheckt, ob die vermeintliche Nachrichtenseite eine transparente Urheberschaft offengelegt hat oder seine wahre Identität verschleiert. Google arbeitet auch mit Faktencheckern und Medienhäusern zusammen, um die Verbreitung seriöser Nachrichten voranzutreiben.

Trump - Laut, lauter, am lautesten: Auf sozialen Kanälen wie Twitter werden häufig nur jene erhört, die besonders provokative Nachrichten verbreiten. - © Foto: APA / AFP/ Saul Loeb (Bildbearbeitung: Rainer Messerklinger)
© Foto: APA / AFP/ Saul Loeb (Bildbearbeitung: Rainer Messerklinger)

Laut, lauter, am lautesten: Auf sozialen Kanälen wie Twitter werden häufig nur jene erhört, die besonders provokative Nachrichten verbreiten.

Nicht nur Google hat mit Desinformation im Netz zu kämpfen. Im Mai 2016 haben sich vier Internetriesen – Facebook, Microsoft, Twitter und YouTube, eine Tochtergesellschaft von Google – sowie NGOs und die EU-Kommission zusammengeschlossen, um einen „Verhaltenskodex zum Vorgehen gegen illegale Hassreden“ zu erstellen. Facebook hat alleine in Deutschland in den ersten drei Monaten dieses Jahres eigenen Angaben zufolge mehr als 160.000 Inhalte entfernt, die als Hassrede eingestuft wurden und damit gegen die hausinternen Richtlinien verstießen. Auch die Zahl der Falsch-Profile steigt kontinuierlich. So hat das Unternehmen weltweit allein im ersten Quartal dieses Jahres rund 2,2 Milliarden gefälschte Identitäten gelöscht. Ein großer Teil werde von Spammern angelegt, die ihre Plattform für dubiose Werbung nutzen wollen, wie Facebook erklärt.

Millionen Fake-Konten

Die Spammer versuchten, automatisiert jeweils hunderttausende oder sogar Millionen Fake-Konten zu erzeugen. Politische Desinformation im Internet zeichnet sich nach Angaben der EU-Kommission zunehmend durch „subtilere, maßgeschneiderte und genau gezielte Methoden“ aus, wie EU-Sicherheitskommissar Julian King im Juni dieses Jahres der Welt am Sonntag erklärte. Die Methoden der Desinformation zielen darauf, bereits bestehende Entwicklungen zu beschleunigen und zu verstärken und somit eine größere lokale Wirkung zu erzielen. So sei beispielsweise in Spanien ein koordiniertes Netz von Twitter-Konten entdeckt worden, das „mithilfe einer Kombination aus Bots und Fake-Profilen antiislamische Hashtags nach oben trieb, um die Unterstützung für die rechtspopulistische Partei Vox zu verstärken“, erklärt King. Ähnliche Vorfälle habe es in Österreich, Polen und einigen weiteren Ländern gegeben.

Deshalb seien seitens der Mitgliedstaaten, aber auch der Plattformen wie Facebook, Google und Twitter weitere Schritte notwendig, um Desinformation zu bekämpfen. „Es gibt einige vielversprechende Ansätze, um automatisch erzeugte Fake News zu erkennen“, sagt TU-Professor Szeider. Erst kürzlich hat das US-amerikanische Forschungsinstitut „Allen Institute“ ein Werkzeug veröffentlicht, das zur Identifikation von Fake News dient. „Es geht vom Prinzip aus, dass man Fake News mit denselben Methoden erkennen kann, mit denen sie auch erzeugt werden“, sagt Szeider. Dennoch sei es nach wie vor äußerst schwer, Falschmeldungen im Netz vollständig zu erkennen. Zwischen den Erzeugern von Desinformation und den Aufspürern lasse sich derzeit ein „Katzund-Maus-Spiel“ beobachten, sagt der Informatik-Professor. Nicht nur Staaten und Internetriesen kämpfen gegen Desinformation und Verzerrung von Weltbildern durch Algorithmen, auch Szeider forscht mit seinem Team der Forschungsgruppe „Algorithms and Complexity“ zu klugen Algorithmen und wie man sie ein- setzen kann. „Die Forschung hat hier große Fortschritte gemacht und Methoden entwickelt, mit denen man Verzerrungen in Zukunft kompensieren kann“, sagt der TU-Professor. Jetzt gehe es vor allem darum, dass diese auch tatsächlich eingesetzt werden.

Furche Zeitmaschine Vorschau