Fake News, Algorithmen, Social Bots und die Wahrheit

Beatrice Kübli, SAGW, Kommunikation
 
Welche Menschenmenge war grösser? Die beim Amtsantritt von Barack Obama oder von Donald Trump? Die Bilder zeigen klar: bei Obama. «Fake News», fand Trump. Wie bei vielem, was ihm nicht passt. In diesem Beispiel ist es relativ einfach, die Wahrheit zu erkennen. Aber Falschnachrichten zu enttarnen, wird immer schwieriger. Fehlinformationen sind eine Herausforderung für uns alle. Vincent F. Hendricks, der Autor von «Postfaktisch», war kurz vor Weihnachten zu Besuch im Haus der Akademien und sprach im Science at Noon über die neue Wirklichkeit in Zeiten von Bullshit, Fake News und Verschwörungstheorien. Die einen Falschmeldungen entstehen nur mangels besseren Wissens, andere hingegeben werden absichtlich publiziert, um Meinungen oder auch Wahlen und Abstimmungen zu beeinflussen. Es ist schwierig abzuschätzen, welche Nachrichten noch glaubwürdig sind. Wie wir mit der Situation umgehen können, ist Thema der Ausstellung «Fake. Die ganze Wahrheit» im Stapferhaus Lenzburg. Aber nicht nur Falschnachrichten erschweren die Orientierung, sondern auch die Flut an Information und die neuen Selektionsmechanismen.

Algorithmen – Gatekeeper ohne Verantwortung

Heute sind es nicht mehr primär die Journalisten, die Nachrichten filtern und verbreiten. Mit den neuen digitalen Möglichkeiten kann jeder zum Newsproduzent werden. Es entsteht eine unüberschaubare Menge von neuen und thematisch sehr unterschiedlichen Nachrichten. Auch die Art, wie sich die Nachrichten verbreiten, ändert sich. Suchmaschinen und Social-Media-Plattformen bestimmen durch ihre Algorithmen, nach welchen Prinzipien die Nutzer welche Nachrichten sehen. Sie haben die Gatekeeper-Rolle übernommen, allerdings nicht deren gesellschaftliche Verantwortung. Im Gegensatz zu Journalisten prüfen Algorithmen keine Quellen und nehmen keine Rücksicht auf moralische Grundsätze. Ausgespielt wird, was am meisten Klicks und Interaktionen verspricht. Die Chance dazu ist gerade bei sensationellen, empörenden oder unglaublichen Artikeln besonders hoch. Falschinformationen entsprechen diesen Kriterien häufig und verbreiten sich dadurch schneller als journalistische Artikel.

Social Bots – Computerprogramme diskutieren mit
Verbreitet werden Fake News auch durch Computerprogramme, denn die Menschen sind im Internet längst nicht mehr unter sich. Social Bots analysieren Texte, verfassen Beiträge, antworten und diskutieren mit. Die Programmierer nutzen dabei bewusst das Algorithmus-System der sozialen Netzwerke für ihre Zwecke aus. Gemäss einer Studie von Imperva Incapsula generierten Social Bots 2016 rund 52% des gesamten Internet Traffics. Rund 29% waren mit böswilligen Absichten unterwegs waren. (Allerdings wurde die Studie von einer Sicherheitsfirma durchgeführt, die ein gewisses Interesse an einem solchen Resultat hat.) Aber auch Oliver Leistert beschreibt im Buch «Algorithmuskulturen» Social Bots als Piraten und teilt sie den Betrügern, Dieben und Tricksern zu. Sie verkörpern die Kehrseite eines Internets, das mit der vermeintlichen Gratis-Kultur Information für zielgerichtete Werbung und Propaganda sammelt. Die Programmierer investieren viel, damit es ihre Code-Programme schaffen, plausibel als Menschen aufzutreten, und nicht als Social Bot erkannt zu werden: Die Maschinen machen Pausen, haben Freunde und erhalten Geburtstagsglückwünsche. Wie das Magazin Higgs berichtete, werden inzwischen auch Gesichter täuschend echt von künstlichen Intelligenzen kreiert.

Meinungsmanipuation und Einfluss auf die Demokratie
In sozialen Netzwerken können Social Bots leicht für die Manipulation von Meinungen eingesetzt werden. Sie vermitteln sowohl den Algorithmen als auch den menschlichen Nutzern das Gefühl, dass sich sehr viele Personen für ein bestimmtes Thema interessieren. Die Wirklichkeit wird verzerrt. Meinungsforscher, die sich auf Aktivitäten im Netz konzentrieren, erhalten einen falschen Eindruck. Es können gar Wahlresultate und Abstimmungen durch Social Bots beeinflusst werden. Ob und wie stark das der Fall ist, wird in letzter Zeit intensiv diskutiert. Patricia Egli und David Rechtsteiner bestätigten in ihrem Aufsatz «Social Bots und Meinungsbildung in der Demokratie» das Potenzial von Social Bots zur Wahlbeeinflussung, konnten es jedoch nicht nachweisen. Einerseits sei es schwierig Social Bots zu identifizieren und andererseits sei nur schwer messbar, welchen Effekt den Social Bots zugeschrieben werden könne.

Eine Aufgabe für den Journalismus – und für die SAGW-Forschungsinfrastrukturen

Durch die neuen Entwicklungen weitete sich die Watchdog-Aufgabe des Journalismus aus. Während früher die Politik im Fokus der «Wächter» stand, sollten Journalisten nun auch die Entwicklungen der Technologie beaufsichtigen. Jemand muss im Auge behalten, wie Algorithmen funktionieren, welche Nachrichten hoch gewertet werden und welche Meldungen gar nicht erst auftauchen, fordert Mercedes Bunz in ihrem Buch «Die stille Revolution». Eine verlässliche Recherchequelle im Kampf gegen Fake News stellen die Forschungsinfrastrukturen der SAGW dar. Im Dezember hat das Historische Lexikon der Schweiz seine neue Website aufgeschaltet, die nun neue Zugänge zu rund 36‘000 Artikeln bietet. Wie die Qualität in der Wissenschaft gesichert werden kann, ist dann Thema am Science at Noon vom 15. Januar 2019.



Kommentare