Kampf gegen Desinformation: Maßnahmen von Tech-Konzernen greifen zu kurz
Die Algorithmen von Social-Media-Plattformen sollen Menschen auf den Plattformen halten – aber so befeuern sie auch Falschmeldungen. Auf diese Weise profitieren die Tech-Konzerne von Verschwörungserzählungen. Dafür, dass sich Desinformation durch sie verstärkt, müssen sie Verantwortung tragen – aktuelle Bemühungen reichen hierfür nicht aus.
Eigentlich haben wir als Faktencheck-Team von CORRECTIV nur ein Ziel: Dass es uns nicht mehr braucht. Weil Desinformation keine Chance mehr hat, niemand mehr Falschbehauptungen in die Welt setzt oder sie direkt im Keim erstickt werden – lange bevor sie im Netz viral gehen und Menschen verunsichern, manipulieren und wütend machen. Desinformation ist mächtig. Falschinformationen können unsere Weltsicht verzerren, unser Wahlverhalten beeinflussen und Menschen gegeneinander aufbringen. Gäbe es keine Kriegspropaganda mehr, keine manipulativen Videos, gezielte Hetze, wäre unsere Welt eine bessere. Davon sind wir fest überzeugt.
Doch davon sind wir bislang noch weit entfernt, denn ein Rezept, Fakes für immer aus der Welt zu schaffen, kennt bislang keiner. Desinformation ist ein komplexes Phänomen. Um es zu bekämpfen, müssen Gesellschaft, Medien und Politik an verschiedenen Stellen ansetzen. Ein Ansatz, der zuletzt viel Anklang fand, ist Prebunking: eine Methode um Falschnachrichten zu begegnen, noch bevor sie sich verbreiten. Die Idee dahinter? Menschen darin stärken, sich nicht manipulieren zu lassen und innezuhalten, bevor die empörende – aber vielleicht falsche – Meldung an Whatsapp-Kontakte weitergeschickt wird.
Google setzt in einer neuen Kampagne auf genau diese Methode. Unter dem Motto „Lass dich nicht manipulieren“ will der Konzern mithilfe von Videos, die auf YouTube, Instagram und Facebook ausgespielt werden, Menschen dafür sensibilisieren, verschiedene Manipulationstechniken zu erkennen. Einen Fake in die Welt zu setzen, dauert oft nur wenige Sekunden, ihn zu widerlegen, durch eine gründliche Recherche, aber Stunden oder sogar Tage. Wertvolle Zeit, in der sich die Falschnachricht rasant weiter verbreiten kann.
„Kritisch und wachsam zu sein ist wichtig und kann präventiv gegen Desinformation helfen – deshalb schulen wir Jugendliche, Bürgerinnen und Bürger seit Jahren in Medienkompetenz, geben Workshops, halten Vorträge – und unterstützen auch die aktuelle Kampagne von Google. Aber Prebunking allein löst das Problem nicht. Denn konkreter Desinformation setzt Prebunking nichts entgegen“, sagt Uschi Jonas, die Teamleiterin von CORRECTIV.Faktencheck.
Prebunking ist wichtig – doch nur Faktenchecks können konkreten Falschbehauptungen den Wind aus den Segeln nehmen
Clara Jimenez Cruz ist Vorsitzende vom European Fact-Checking Standards Network (EFCSN), einem europäischen Zusammenschluss von Faktencheck-Organisationen, dem auch CORRECTIV angehört. Auch sie sagt: „Prebunking-Initiativen bieten zwar die Möglichkeit, das Bewusstsein der Bürger zu schärfen, stoßen aber an ernsthafte Grenzen.“ Sie deckten nur einen kleinen Teil des Problems ab. Die Forschung zur Wirkung von Prebunking liefere bislang keine schlüssigen Ergebnisse. Zudem sei es „ziemlich unmöglich, vorherzusagen, wie sich Desinformationskampagnen entwickeln werden, sowohl in Bezug auf die entstehenden Narrative als auch auf die verwendeten Taktiken“. Sprich: Prebunking versucht, potenziellen Falschmeldungen, die in Zukunft aufkommen könnten, vorzugreifen – doch das ist nur sehr begrenzt vorhersehbar.
Deshalb braucht es auch Faktenchecks, das sogenannte Debunking. Denn konkreter Desinformation kann man nur mit nachvollziehbaren und glaubwürdig recherchierten Fakten ernsthaft etwas entgegensetzen – zum Beispiel zur Wirksamkeit von Covid-19-Impfungen oder zum angeblichen Einsatz von Nato-Soldaten im Ukraine-Krieg. Das schützt unsere Meinungsvielfalt und somit unsere Demokratie und die Werte einer offenen Gesellschaft. Auch die Forschung zeigt: Faktenchecks können den Glauben an eine Falschmeldung und ihre Verbreitung signifikant reduzieren.
Das Verbreiten von Lügen und Propaganda ist so alt wie die Geschichte der Menschheit. Aber klar ist auch: Schuld daran, dass Falschnachrichten in den vergangenen Jahren mit seriösen Informationen konkurrieren können, sind vor allem die Interessen großer Social-Media-Konzerne. Das Geschäftsmodell dahinter ist simpel: Facebook, Instagram, Youtube, Twitter, Tiktok – sie alle wollen, dass wir möglichst viel Zeit auf ihren Plattformen verbringen. Und das gelingt ihnen, weil hauseigene Algorithmen dafür sorgen, dass uns vermeintlich für unsere persönlichen Interessen relevante Inhalte vorgeschlagen werden. Das ist vielleicht nicht bedenklich, wenn es Katzenvideos sind – aber, wenn es Falschnachrichten sind und Menschen so in einen Strudel von Mythen und Gerüchten gezogen werden, schon. Zudem befeuern die Algorithmen, dass emotionalisierende Inhalte wie Hatespeech oder Desinformation schneller viral gehen als andere Inhalte.
Deshalb stehen Social-Media-Konzerne in der Verantwortung: weil Desinformation durch sie floriert – und sie finanziell davon profitieren.
EFCSN beurteilt das Verhalten der Tech-Konzerne in Bezug auf den Code of Conduct on Disinformation als enttäuschend
Wir sind seit 2017 in einer Kooperation mit dem Facebook-Konzern Meta. Der Konzern hat sich dazu entschieden, mit Faktencheck-Redaktionen zusammenzuarbeiten, weil er sich selbst nur als Anbieter der Plattform betrachtet und keine Inhalte produzieren will. Zu welchen Themen wir in diesem Zusammenhang Faktenchecks veröffentlichen hat der Konzern keinen Einfluss. Die entsprechenden Beiträge auf Facebook werden dann mit einem Warnhinweis und einer Verlinkung zu unserem Faktencheck versehen. Die Reichweite der Beiträge wird runtergeschraubt, aber sie werden nicht gelöscht. Nur wenn Inhalte nicht einfach gelöscht werden, erfahren Nutzerinnen und Nutzer, dass sie etwas gesehen, gelesen oder geteilt haben, das auf irreführenden oder falschen Informationen beruht. Und ein übermäßiges Löschen von Inhalten – von illegalen Inhalten wie Pornographie oder Gewalt abgesehen – könnte auch als Eingriff in die Meinungsfreiheit durch die Plattformen gesehen werden.
Meta unterstützt damit also Faktencheck-Redaktionen in ihrer Arbeit. Verbesserungswürdig ist das Programm aber allemal: Das EFCSN hat im Februar bei einer ersten Überprüfung der Berichte zum Code of Practice on Disinformation beanstandet, dass Meta sein Programm noch deutlich transparenter gestalten und eine unabhängige Bewertung der Wirksamkeit des Programms ermöglichen sollte.
Noch problematischer sieht das EFSCN die Weigerung großer Unternehmen wie Youtube oder Microsoft, sich effektiv an wirksamen Maßnahmen zur Eindämmung von Desinformationen zu beteiligen. Im Gegensatz zu Meta hätten diese Unternehmen sich nicht mal ernsthaft auf die Reise gemacht, das Problem wirksam zu bekämpfen.
Der Code of Practice on Disinformation ist ein Verhaltenskodex in der EU, der auf eine größere Bandbreite an verpflichtenden Maßnahmen zur Bekämpfung von Falschinformationen abzielt. Der Code ist freiwillig – und die unterzeichnenden Unternehmen können selbst entscheiden, welche der vorgeschlagenen Verpflichtungen sie eingehen, um die wirksame Umsetzung zu gewährleisten. Dazu gehört zum Beispiel, die Verbreitung von Desinformationen zu einzudämmen, Transparenz bezüglich politischer Werbung zu gewährleisten, die Zusammenarbeit mit Faktencheck-Redaktionen zu verbessern und Forschenden einen besseren Zugang zu Daten zu ermöglichen.
Der Code of Practice wurde überarbeitet und ist in der aktuellen Form seit Mitte 2022 in Kraft. Die Unterzeichner des Code of Practice veröffentlichten im Januar 2023 Berichte zu ihren Aktivitäten – das EFCSN sieht darin drastischen Verbesserungsbedarf. Demzufolge hinken die Social-Media-Konzerne diesen Selbstverpflichtungen hinterher – und versuchen sich teilweise aus der Affäre zu ziehen.
Twitter arbeitet nicht mit Faktencheck-Redaktionen zusammen – Bemühungen von Tiktok, Google und Youtube lassen zu Wünschen übrig
Twitter plant nach eigenen Angaben nicht, mit Faktencheck-Redaktionen zusammenarbeiten. Seit Dezember 2022 hat Twitter stattdessen das Feature der „Community Notes“ eingeführt, das es Nutzerinnen und Nutzern ermöglicht, Kontext zu potenziell irreführenden Tweets zu liefern. Wenn genügend Personen finden, dass der Kontext hilfreich ist, wird er zu dem Tweet angezeigt. Unabhängig geprüft wird das aber nicht.
Aus EFCSN-Sicht einzig sinnvolle Maßnahme war es, dass Twitter Forschenden und Faktenprüfern über eine API – sprich eine technische Schnittstelle – den Zugang zu relevanten Daten erleichtert hat – doch der Zugang dazu wird künftig nicht mehr kostenfrei sein, wie der Konzern im Februar 2023 ankündigte.
Tiktok arbeitet mit einer Handvoll Faktencheck-Organisationen zusammen, aber in sehr geringem Umfang – der bislang bei weitem nicht Tiktoks Selbstverpflichtung nachkomme, dabei alle Mitgliedstaaten und Sprachen abzudecken, so das EFCSN. Tiktoks Ansatz, auf Desinformation mit der Entfernung von Inhalten zu reagieren, ohne den Nutzerinnen und Nutzern zusätzliche Informationen zu geben, sei „besorgniserregend“.
Und wie steht es um Google und Youtube? Deren Berichte enthielten keine Details darüber, dass die Plattformen planen, Faktenchecks zu integrieren. „Dieser Mangel an Transparenz ist seit langem ein Grund zur Besorgnis für die Fact-Checking-Gemeinschaft und wird nun durch die Tatsache verschlimmert, dass die Berichte von Google und Youtube darauf hindeuten, dass die Dienste nicht beabsichtigen, in den nächsten Monaten spezifische Maßnahmen in dieser Hinsicht zu ergreifen. Folglich kann das EFCSN nicht erkennen, wie Google und YouTube ihren Verpflichtungen zur Faktenprüfung gemäß dem Verhaltenskodex nachkommen wollen“, so das EFCSN im Februar. Auch vor diesem Hintergrund muss Googles aktuelle Prebunking-Kampagne betrachtet werden. EFCSN-Vorsitzende Clara Jimenez Cruz resümiert zum Thema Prebunking: „Wir dürfen uns weder zu simplen Lösungen hinreißen lassen, weil sie kostengünstiger oder skalierbarer sind, noch unseren gesamten Kampf gegen Desinformation einer einzigen Taktik anvertrauen.“
Was wird der Digital Services Act bewirken?
Doch künftig wird es nicht bei der Selbstverpflichtung in Form des Code of Practice bleiben – die EU zwingt die Tech-Konzerne ab 2024 über eine gesetzlich Regulierung Hassrede und Desinformation im Netz etwas entgegenzusetzen. Dafür hat die Europäische Union den Digital Services Act (DSA) verabschiedet. Die großen Plattformen müssen im Zuge dessen regelmäßig eine Risikobewertung zum Umgang mit illegalen Inhalten vorlegen, geprüft werden diese Berichte von der EU-Kommission. Halten sich die Plattformen nicht an ihre Vorschriften, drohen saftige Bußgelder. Dem EFCSN zufolge werden die Plattformen in der nächsten Zeit große Verbesserungsschritte ankündigen müssen, um sich nicht nur an den selbstverpflichtenden Code of Practice zu halten – sondern auch um mögliche Verstöße gegen den DSA zu vermeiden.
Es bleibt abzuwarten, wie der DSA am Ende umgesetzt wird – und wie viel er wirklich bewirken kann. Twitter kündigte Ende Mai an, sich aus dem Code of Practice zurückzuziehen – und in den USA hat Youtube mitgeteilt, Inhalte, die Falschbehauptungen über angeblichen Wahlbetrug bei den Präsidentschaftswahlen 2020 und früheren Wahlen aufstellen, nicht mehr wie bislang von der Plattform zu entfernen – aber eben auch nicht mit einem Falschmeldungs-Hinweis zu versehen. Signale, die im Kampf gegen Desinformation alles andere als beruhigend sind und nicht darauf hoffen lassen, dass die Plattform-Betreiber ihren Verpflichtungen langfristig nachgehen.