Hintergrund

Klima, Kriege und KI: Das waren die hartnäckigsten Falschmeldungen 2023

Krisen und Katastrophen lieferten dieses Jahr reichlich Grundlage für Falschmeldungen und Gerüchte – dazu wurde KI als Werkzeug populär. Neben bekannten Narrativen sorgten vermeintlich brisante Aussagen und Bilder für Aufregung. Unser Jahresrückblick.

von Sophie Timmermann

Symbolbild-Desinformation-Unsplash-Nijwam Swargiary
Desinformation floriert in Krisenzeiten, so auch 2023 (Symbolbild: Unsplash / Nijwam Swargiary)

Krisen schüren Unsicherheit und liefern einen gefährlichen Nährboden für Falschmeldungen. Denn Desinformation baut besonders gut auf Wut und Angst auf, von Emotionen getriebene Behauptungen verbreiten sich schneller und viraler im Netz. 2023 war von politischem Zündstoff und Gewalteskalationen gezeichnet. Das alles bot reichlich Fläche für Falschbehauptungen. 

Anders als in 2021 vor allem das Coronavirus oder 2022 der russische Angriffskrieg gegen die Ukraine beschäftigte uns dieses Jahr ein breiteres Themenfeld rund um Migration, Naturkatastrophen und Krieg. In mehr als 450 Faktenchecks sind wir falschen und irreführenden Meldungen nachgegangen, in Hintergrundberichten haben wir die Mechanismen, Narrative und Akteure eingeordnet. 

Große Erzählungen trafen auf einfache Fakes. Doch auch hinter vermeintlichen banalen Falschmeldungen wie zu einer Dönerpreisbremse, angeblichen Insekten im Essen oder einem vermeintlichen Haustierverbot steckt oft gezielte Stimmungsmache. 

Wir beschreiben in diesem Jahresrückblick die hartnäckigen Falschmeldungen aus 2023 und schauen auf die zehn meistgelesenen Faktenchecks.

Trump im Gefängnis und Mode-Papst Franziskus? Diese KI-Bilder gingen viral

Im März zeigten Aufnahmen angeblich, wie der ehemalige US-Präsidenten Donald Trump festgenommen wird. Doch das ist so gar nicht passiert – ein Journalist erstellte die Bilder mit Hilfe Künstlicher Intelligenz. Ähnlich hohe Wellen schlug ein KI-generiertes Bild von Papst Franziskus im modischen Daunenmantel. Nicht alle Nutzerinnen und Nutzer erkannten die Fakes. 

KI-Bilder vom Papst und von Trump
Diese KI-generierten Bilder vom Papst und Donald Trump schlugen hohe Wellen (Quelle: X; Screenshots: CORRECTIV.Faktencheck)

KI-Bilder oder manipulierte Videos, die Politikern oder Schauspielerinnen ungewöhnliche Aussagen in den Mund legen, sind oft witzig gemeint. Manchmal wollen sie auch Betroffenheit und Solidarität erzeugen. Immer wieder werden sie jedoch missbraucht, um Unsicherheit zu schüren oder Stimmung zu machen: wie im Falle eines Fake-Fotos einer Explosion am Pentagon, das im Mai um die Welt ging, oder eines Deepfakes vom kanadischen Psychologen Jordan B. Peterson, demzufolge er sich abfällig über Baerbock, Scholz, Habeck und Lauterbach geäußert habe. 

Eine Stichwortsuche nach Medienberichten oder Faktenchecks zu dem Ereignis oder eine Bilder-Rückwärtssuche kann helfen, solche Fakes zu entlarven. Es lohnt sich, auf Ungereimtheiten und Details in den Bildern und Videos zu achten. Es klingt banal, doch oft genügt schon ein genauer Blick auf Proportionen oder die Anzahl von Fingern, um eine künstlich generierte Aufnahme als solche zu enttarnen. Aber: KI-Technologien entwickeln sich rasant und werden immer präziser, ein kritisches Auge wird auch nächstes Jahr wichtig sein. 

Krieg im Nahen Osten: Falsch zugeordnete Angriffe und angeblich inszenierte Verletzungen 

In einer Überraschungsoffensive feuerte die Hamas am 7. Oktober tausende Raketen auf Israel ab und rückte in israelische Gebiete vor. Mitglieder der von der EU und den USA als Terrororganisation eingestuften Hamas töteten wahllos über 1.000 Menschen und verschleppten über 200 israelische Geiseln. Israel reagierte mit massiven Luftangriffen und einer Bodenoffensive im Gazastreifen. Rund 20.000 Menschen, darunter viele Kinder, verloren dabei Angaben des von der Hamas geführten Gesundheitsministeriums zufolge bislang ihr Leben. Unabhängig überprüfen lassen sich diese Angaben nicht, aber Experten — zum Beispiel von der WHO — halten sie für realistisch.

Zum Krieg im Nahen Osten kursieren bis heute zahlreiche Falschmeldungen. Die Dynamik, mit der sie sich anfangs verbreiteten, ähnelte jener zu Beginn des russischen Angriffskrieges. Aufnahmen aus Computerspielen wurden fälschlich als echte Kampfszenen verbreitet, alte Videos als aktuell ausgegeben oder Videos aus anderen Ländern fälschlich dem Nahen Osten zugeordnet.

Politikerinnen und Politiker bemühen sich, den richtigen Ton zu treffen. Umso brisanter, wenn ihnen scheinbar unüberlegte Aussagen rausrutschten. Über den russischen Präsidenten Wladimir Putin und den türkischen Staatschef ​​Recep Tayyip Erdoğan verbreiteten sich fast identische Fakes: Sie sollen die USA jeweils in Ansprachen gewarnt haben, sich vom Krieg im Nahen Osten fernzuhalten. Beide Male wurden den Videos falsche Untertitel gegeben. Ein einfacher, aber effektiver Trick — die Videos erreichten hunderttausende Nutzerinnen und Nutzer. Viele hielten die Aussagen fälschlich für echt. 

Der Begriff „Pallywood“ geht in Sozialen Netzwerken viral. Er ist eine Zusammensetzung aus „Palästina“ und „Hollywood“ und wird im Zusammenhang mit Bildern und Videos genutzt, um den Menschen im Gazastreifen oder der Hamas Propaganda und die Inszenierung von Verletzungen zu unterstellen. Zahlreiche dieser Behauptungen haben sich als falsch herausgestellt, wie wir zum Beispiel hier, hier und hier berichteten. Neben diesen Vorwürfen angeblicher Inszenierungen nährten Falschmeldungen zu angeblichem Waffenschmuggel übergeordnete Narrative der Desinformation, die wir schon aus dem Ukraine-Krieg kennen.

Ukraine-Krieg: Prorussische Desinformationskampagne wütet weiter

Der russische Angriffskrieg auf die Ukraine hält weiter an, auch wenn sich die mediale und politische Aufmerksamkeit seit Oktober stärker auf Israel und Palästina konzentriert. Unser erster Faktencheck des Jahres handelte von einem Bild, das zeigen soll, wie Joe Biden dem ukrainischen Präsidenten an den Hintern fasste. Das Bild war manipuliert und einer von zahlreichen Versuchen, Selenskyj zu diskreditieren. Das geschieht sonst mit unbegründeten Korruptions- und Bereicherungsvorwürfen gegen den Präsidenten oder seine Frau, ihm angedichtetem Drogenkonsum oder mit plumper Diffamierung Selenskyjs und des ganzen Landes. 

Auf Trab hält uns eine prorussische Desinformationskampagne, die Facebook letztes Jahr gestoppt haben wollte: Doch sie verbreitet weiter gefälschte Nachrichtenseiten, Fake-Regierungsseiten und Inhalte von AfD-Politikern. Die Spur führt nach Russland. Mittlerweile ist die Kampagne auch auf X und Tiktok aktiv. 

Der Frage, welche Rolle Desinformation im Krieg gegen die Ukraine spielt und wie sie unser Bild vom Krieg beeinflusst, ging unser Team in dem sechsteiligen Podcast „Fakten, Front und Fakes“ nach. Hören Sie rein und senden Sie uns Ihr Feedback. 

EU-weite Hetze gegen Geflüchtete geht weiter

Das zum 1. Januar 2023 in Kraft getretene Bürgergeld liefert reichlich Stoff für falsche und irreführende Meldungen. Anders als behauptet, haben Asylbewerberinnen und Asylbewerber keinen Anspruch darauf. Angaben zu Bürgergeld-Beziehenden wurden mehrfach aus dem Kontext gerissen, angebliche Weihnachtsgeldzahlungen erfunden.

Wie im Jahr davor kursierten 2023 Falschmeldungen zu angeblichen Boni und Sonderbehandlungen für ukrainische Geflüchtete. Doch sie bekommen weder ein höheres Kindergeld, noch einen 250-Euro-Bonus und die deutsche KFZ-Versicherung des Unfallopfers zahlt auch nicht die Schäden eines ukrainischen Unfallverursachers.

Diese Narrative gegen Geflüchtete schüren Stimmung gegen Migration und Menschen, die in Deutschland oder der EU Schutz suchen. Desinformation dazu gibt es nicht nur in Deutschland. Wir sind im regelmäßigen Austausch mit europäischen Faktencheck-Redaktionen und beobachten gängige Desinformations-Strategien und Techniken

Erdbeben und Brände werden für Desinformation missbraucht 

Starke Erdbeben erschütterten im Februar den Südosten der Türkei und Regionen in Syrien. Zehntausende verloren ihr Leben. Neben zahlreichen authentischen Aufnahmen missbrauchten einige Akteurinnen und Akteure die Katastrophe für Verschwörungserzählungen, rückten Spenden in ein falsches Licht und brachten Videos von einstürzenden Gebäuden, Tsunamis oder Lichtstrahlen am Himmel fälschlich in Verbindung mit den Beben. Gerüchte über angeblich mysteriöse Ursprünge von Naturkatastrophen zogen nach Erdbeben in Marokko oder Unwettern auf Mallorca ihre Kreise. 

Kind vor Trümmern nach Erdbeben in Nordsyrien
Starke Erdbeben erschütterten im Februar den Südosten der Türkei und Regionen in Syrien (Bild aus Nordsyrien vom 12. März 2023: Hristo Vladev / Picture Alliance / NurPhoto)

Weltweit standen 2023 Wälder in Flammen, es herrscht zunehmend Dürre. Klimawandelskeptiker wollen vom Einfluss des Klimawandels darauf ablenken und verbreiteten Falschmeldungen zu angeblicher Brandstiftung oder irreführende Aussagen zu Ursachen von Waldbränden

Auch alles rund um erneuerbare Energien bot 2023 weiter Zündstoff für Falschbehauptungen, zum Beispiel in Bezug auf angeblich explodierende E-Autos (hier, hier und hier) oder die Umweltfreundlichkeit von Windkraftanlagen (hier und hier).

Pandemie als beendet erklärt, doch das Coronavirus und Impfungen liefern weiter Vorlage für Falschmeldungen

Falschmeldungen rund um das Coronavirus gab es 2023 deutlich weniger als in den Jahren zuvor — naheliegend, denn im April liefen die letzten Corona-Schutzmaßnahmen in Deutschland aus. Ganz ohne Falschmeldungen kam das Jahr dennoch nicht aus, vor allem in Bezug auf das Thema Impfen: Ein angeblicher Impfzwang bei den Special Olympics, angebliche Nebenwirkungen auf die Fruchtbarkeit von Männern oder Falschbehauptungen zu Todesfällen nach einer Covid-19-Impfung machten die Runde.  

Alte Gerüchte aus den Vorjahren hielten sich hartnäckig. Entgegen der Überzeugung zahlreicher Nutzerinnen und Nutzer hat Impfgegner Robert F. Kennedy weiterhin keinen Prozess zu Covid-19-Impfstoffen vor dem Obersten Gerichtshof der USA gewonnen und es gab auch keine neuen Grundrechtseinschränkungen durch Änderungen des Infektionsschutzgesetzes. 

Skurril war ein Video aus Italien, das zeigen soll, wie Rinder nach einer Covid-19- Impfung verendeten. Die Geschichte war frei erfunden. 

Das waren unsere zehn meistgelesenen Recherchen des Jahres 2023:

Künstliche Intelligenz generiert Bilder von Donald Trumps Festnahme – die gab es aber gar nicht

Fotos im Netz zeigen angeblich Polizisten, die den ehemaligen US-Präsidenten Donald Trump festnehmen. Doch es handelt sich um keine echten Fotos – ein Journalist erstellte die Bilder mit Künstlicher Intelligenz. Unser Faktencheck.

Nein, Vergleich mit 1997 belegt nicht, dass die Tagesschau-Wetterkarten manipuliert

Jedes Jahr aufs Neue: Eine irreführende Collage mit Wetterkarten der Tagesschau soll zeigen, dass die Sendung hohe Temperaturen absichtlich farbintensiver darstelle, um Panik zu erzeugen. Wir ordnen ein, warum die Wetterkarten unterschiedlich aussehen. Unser Faktencheck.

 

Ja, die Stadt Willich baute Einfamilienhäuser für Geflüchtete

Online verbreitete sich das Foto eines Bauschilds, das ein Projekt der Stadt Willich in Nordrhein-Westfalen zeigt. Demnach seien neun Einfamilienhäuser für Geflüchtete geplant. Die Stadt bestätigte, dass die Häuser für Geflüchtete 2018 gebaut wurden, die menschenwürdige Unterbringung sei eine „wichtige und moralisch absolut gegebene Aufgabe“. Unser Faktencheck.

 

Was hinter Gerüchten um den angeblichen Tod des ukrainischen Oberbefehlshabers Saluschnyj steckt

Mitte Mai verbreiteten sich Gerüchte über eine wichtige Figur im ukrainischen Militär: Oberbefehlshaber Walerij Saluschnyj. Er soll schwer verletzt oder tot sein, hieß es in russischen Medienberichten im Mai. Ein aktuelles Video und ukrainische Berichte widersprachen. Unser Faktencheck.

 

Fehlender Kontext: Selenskyj forderte die USA nicht auf, Soldaten in die Ukraine zu schicken

Der ukrainische Präsident Wolodymyr Selenskyj habe im März angeblich gesagt, die USA würden „ihre Söhne und Töchter“ in den Krieg schicken müssen. Er bezog sich dabei aber nicht auf die damalige Lage, wie ein verkürzter Videoausschnitt in Sozialen Netzwerken andeuten soll. Er sprach davon, was passieren könne, wenn Russland seine Angriffe auf die baltischen Staaten ausweite. Unser Faktencheck.

 

Ja, auf diesem Foto steht ein ukrainischer General vor einem Stepan-Bandera-Gemälde

Ein Foto von Walerij Saluschnyj kursierte Anfang des Jahres international. Kritisiert wurde, dass der hochrangige ukrainische General vor einem Gemälde posiert, das den ukrainischen Nationalisten Stepan Bandera zeigt. Das Selfie wurde zwar zugeschnitten, es ist aber echt, bestätigte der Armeeoffizier, der ebenfalls auf dem Originalbild zu sehen ist. Unser Faktencheck.

 

Weshalb ein deutsches Gericht die Impfung einer 85-Jährigen gegen ihren Willen ermöglichen wollte

In der Impfgegner-Szene wird der Fall Inna Z. als Skandal instrumentalisiert: Ein deutsches Gericht habe die damals 85-Jährige „zur Zwangsimpfung“ gegen Covid-19 verurteilt. Wir haben recherchiert, unter welchen Umständen es dazu kommen kann, dass Menschen gegen ihren Willen geimpft werden dürfen. Unser Hintergrundbericht.

 

Nein, dieses Foto zeigt keine Lieferung von Leopard-Panzern an die Ukraine

In Sozialen Netzwerken kursierte im Januar Bildmaterial, das suggeriert, in Senftenberg, Brandenburg, seien Leopard-Panzer unterwegs in die Ukraine – schon, bevor sich die Bundesregierung offiziell für eine Lieferung ausgesprochen hatte. Zwar zeigen die Aufnahmen Leopard-Panzer in Hosena, diese waren laut Bundeswehr jedoch nicht für die Ukraine bestimmt. Unser Faktencheck.

 

Nein, Deutschland verbietet nicht als einziges Land fossile Heizungen

Eine Karte erweckte im Mai den Eindruck, nur Deutschland verbiete als einziges von vielen Ländern fossile Heizungen, um den weltweiten CO2-Ausstoß zu verringern. Doch die Karte ist falsch: Darauf nicht gekennzeichnet sind Länder wie Schweden, Österreich oder der US-Bundesstaat New York, die bereits auf nachhaltige Alternativen setzen oder konkrete Pläne dafür haben. Unser Faktencheck.

 

Ein Jahr Krieg in der Ukraine: Wie Desinformation zu einer mächtigen Waffe wurde

Der russische Angriffskrieg war von Beginn an ein Nährboden für Desinformation. Wir rekonstruierten im Februar, wie Hackergruppen, staatliche Akteure und Telegram-Nutzer Falschmeldungen im Netz streuen und schauten auf die hartnäckigsten Narrative und darauf, wer sie verbreitete. Unser Überblick.

 

Desinformation macht keine Winterpause. Bleiben Sie wachsam und fragen sich: Wer steckt hinter einem Beitrag und profitiert vielleicht davon? Und falls Sie einer potenziellen Falschmeldung begegnen, schicken Sie uns diese über unseren Whatsapp-Chatbot zu an +49-151-17535184.