
Zukunftsvision: Die automatische Erkennung von "Fake News"
Fake News – oder nennen wir sie einfach Falschmeldungen und Lügen – sind sicher kein Phänomen der Digitalisierung der modernen Welt. Und auch ihre Nutzung zur Erreichung ideologischer, politischer oder wirtschaftlicher Ziele ist nicht neu. Trotzdem steht das Thema Fake News spätestens seit der Wahl des aktuellen US-Präsidenten Donald Trump im Fokus der Diskussion und wird direkt mit der Digitalisierung und den sozialen Medien verbunden. Soziale Medien sind zumeist die ersten Kanäle, auf denen Gerüchte, Lügen und Falschmeldungen auftauchen, massiv verbreitet werden, und von denen aus sie den Weg in die gesellschaftliche Diskussion sowie das allgemeine Bewusstsein finden. Sicher haben Sie davon gehört, dass Bundeskanzlerin Angela Merkel sich 2015 mit dem Attentäter von Brüssel fotografieren ließ, den sie als Flüchtling ins Land gelassen hatte. Dies ist natürlich eine absurde Falschmeldung. Aber das Bild dazu ist jedem, der es gesehen hat, im Gedächtnis geblieben. Schlimmer noch, auch außerhalb des falschen Kontextes ruft es in vielen Fällen die Erinnerung an die Falschmeldung hervor.
Die Strategie hinter dieser Geschichte ist nicht neu. Vieles davon wäre mit erheblichem Aufwand vielleicht auch vor 200 Jahren möglich gewesen. Neu ist, dass der organisatorische, technische und personelle Aufwand nun viel geringer ist. Und genau dies ist es, was uns Fake News im „Zeitalter der Digitalisierung“ so gefährlich erscheinen lässt.
Die Offenheit und Anonymität sozialer Netzwerke ermöglichen ein großes Maß an Meinungsvielfalt und -freiheit sowie Schutz dort, wo freie Meinungsäußerung in der „analogen“ Öffentlichkeit gefährlich ist. Sie bieten aber in gleichem Maße Angriffspunkte für den Missbrauch. Die Abstraktion durch einen einfachen Nutzeraccount und die gleichzeitige Verfügbarkeit von Programmierschnittstellen zu den sozialen Netzwerken ermöglichen die massive und mitunter rein automatische Verbreitung sowie Vervielfältigung von Inhalten aller Art. Anders als bei der (ebenfalls automatischen) Verbreitung von SPAM-E-Mails geht es dabei aber nicht um das Erreichen weniger interessierter Nutzer mithilfe massiver Vervielfältigung. Die in sozialen Netzwerken frei verfügbaren Metadaten zu Nutzern sowie die Vernetzung von Interessensgruppen erlauben eine sehr gezielte Inhaltsverbreitung. Platziert man eine (zumeist ideologisch motivierte) Falschmeldung im geeigneten Umfeld, so wird sie oft ungeprüft oder gar mutwillig weiterverbreitet.
Es bleibt die Frage: Kann man sich denn nicht technisch vor Fake News schützen? Die automatische Identifikation von Falschmeldungen würde bedeuten, inhaltliche Aspekte einer Meldung maschinell validieren oder falsifizieren zu können. Es existiert bisher kein Verfahren, das dies zuverlässig kann – und es ist auch keines in Sicht. Nicht umsonst setzt Facebook eine Heerschar von menschlichen Moderatoren ein, um Falschmeldungen zu finden. Auch der Nachweis sogenannter Social Bots läuft zu einem Teil ins Leere. Selbst wenn automatisierte Profile entdeckt sind, ist in der Regel nicht klar, ob sie Teil einer Kampagne oder lediglich Dienstprogramme sind. Außerdem werden nicht alle Kampagnen vollautomatisiert durchgeführt.
Ein universeller Ansatz für die Identifikation von Automatisierung und Fake News scheint die Aufdeckung von Kampagnen selbst zu sein. Sind diese nachgewiesen, können sowohl Inhalte wie Akteure leicht extrahiert und geprüft werden. Dieser Ansatz ist zurzeit noch annähernd unerforscht und stellt eine aktuelle und sehr spannende Forschungsfrage dar.
Dr. Christian Grimme ist Postdoktorand am Institut für Wirtschaftsinformatik der WWU Münster. Er ist mit dem Teilprojekt „Koordination von Simulation, Erkennung und Abwehr von verdeckten Propaganda-Angriffen“ an dem vom Bundesministerium für Bildung und Forschung geförderten Verbundprojekt „PropStop“ zum Thema Erkennung, Nachweis und Bekämpfung verdeckter Propaganda-Angriffe über neue Online-Medien beteiligt, welches er auch als Verbundkoordinator leitet.