Faktencheck

Pro-Putin Profile verbreiten mutmaßlichen Audio-Deepfake von Alexej Nawalnys Mutter

Im Netz verbreiten pro-russische Accounts eine vermeintliche Audio-Aufnahme von Ljudmila Nawalnaja, der Mutter des kürzlich gestorbenen Alexej Nawalny. In dem Clip soll sie angeblich schwere Vorwürfe gegen dessen Ehefrau erheben. Doch dabei handelt es sich laut KI-Experten höchstwahrscheinlich um einen Deepfake.

von Max Bernhard

Pro-Putin Profile verbreiten mutmaßlichen Audio-Deepfake von Alexej Nawalnys Mutter
In Videoansprachen hat sich Ljudmila Nawalnaja nach dem Tod ihres Sohnes an die Öffentlichkeit gewandt. Eine angebliche Audioaufnahme, in der sie dessen Frau Julija Nawalnaja kritisieren soll, ist jedoch gefälscht. (Quelle: Sipa USA / Kommersant Photo Agency / Picture Alliance)
Behauptung
In einer Audioaufnahme kritisiere Ljudmila Nawalnaja, die Mutter von Alexej Nawalny, dessen Ehefrau Julija, und sage unter anderem: „Du warst es, der ihn dazu gebracht hat, nach Russland zu kommen. Er war gerade aus dem Koma erwacht und konnte die Situation nicht richtig einschätzen. Du hast ihn dazu gebracht, Alexejs gesamten Besitz auf dich zu übertragen. Du hast sogar deinen Sohn enterbt.“
Bewertung
Manipuliert. Laut der Einschätzung mehrerer Experten und KI-Analysetools handelt es sich bei der Aufnahme höchstwahrscheinlich um einen Deepfake. Auch sonst finden sich keine Belege dafür, dass Ljudmila Nawalnaja diese Aussagen je getroffen hat.

Am 16. Februar wurde der Tod des russischen Oppositionellen Alexej Nawalny bekannt. Er starb in einer sibirischen Strafkolonie, die genauen Umstände sind ungeklärt. Nach dessen Tod wandte sich Nawalnys Mutter, Ljudmila Nawalnaja, an die Öffentlichkeit. In Video-Botschaften berichtete sie, wie die russischen Behörden versuchten, sie zu „erpressen“ und wie sie um die Herausgabe des Leichnams kämpfte. 

Am 22. Februar tauchte eine weitere angebliche Audioaufnahme Nawalnajas auf, in der sie die Ehefrau ihres Sohnes scharf kritisiert. Darin soll Nawalnys Mutter unter anderem sagen: „Du warst es, die ihn dazu gebracht hat, nach Russland zu kommen. Er war gerade aus dem Koma erwacht und konnte die Situation nicht richtig einschätzen. Du hast ihn dazu gebracht, Alexejs gesamten Besitz auf dich zu übertragen.“

Die Behauptung verbreitete sich auf Deutsch, aber auch international auf X und Telegram, verbreitet unter anderem von russischen Profilen. Hunderttausende sahen einzelne Beiträge

Twitter-Beitrag mit der Behauptung über Ljudmila Nawalnaja
Im Netz wird behauptet, die geteilte Audioaufnahme stamme von Ljudmila Nawalnaja, laut Experten und Analysetools handelt es sich jedoch höchstwahrscheinlich um einen Deepfake – eine mit künstlicher Intelligenz erstellte Fälschung (Quelle: X; Screenshot und Unkenntlichmachung: CORRECTIV.Faktencheck)

Aufnahme von Nawalnaja ist laut Experten höchstwahrscheinlich ein Deepfake 

CORRECTIV.Faktencheck hat die Aufnahme mehreren Experten vorgelegt und um eine Einschätzung dazu gebeten, ob sie gefälscht ist. 

Marc Ruef ist Forschungschef der Schweizer IT-Sicherheitsfirma Scip AG. Laut ihm gibt es mehrere Ungereimtheiten. „In der Aufnahme finden sich keine Umgebungsgeräusche und die Distanz zum Aufnahmegerät ist verdächtig konstant“, schrieb er auf Nachfrage. Außerdem habe der Clip generell eine schlechte Qualität, die sich mit „Rauschen“ und unrein klingenden Tönen bemerkbar mache. Das könne an schlechten Aufnahmegeräten, aber auch an einer „minderwertigen Sprachsynthetisierung“ liegen – in anderen Worten einem schlecht gemachten Deepfake

Die schlechte Tonqualität lässt sich zum Beispiel in diesem Abschnitt (ab Sekunde 20) hören:

Der IT-Sicherheitsexperte nennt weitere Merkmale, wie man mit Hilfe von KI geklonte Stimmen erkennt. „Ein schlechtes Voice Cloning ist unter anderem daran zu erkennen, dass die für die Intonation erforderliche Atmung nicht korreliert“, beispielsweise würden lange Aussagen gemacht, ohne zu atmen, so Ruef. „Es macht den Anschein, als würde im Sample an verschiedenen Stellen geatmet. Dies geschieht aber erst sehr spät, dafür dann unerwartet oft und ähnlich.“

Dieses Atmen ist beispielsweise in diesem Ausschnitt (ab Minute 1:04) zu hören:

Anton Tarasyuk ist sich nahezu sicher, dass es sich um einen Deepfake handelt. Er ist Mitbegründer von Mantis Analytics, einer ukrainischen Plattform, die mit Hilfe von KI russische Propaganda und Desinformation bekämpft. „Der Tonfall ist insgesamt seltsam und ähnelt nicht dem von Nawalnys Mutter“, schreibt er uns. Außerdem gäbe es viele unnötige Tonstörungen und seltsame Geräusche, die den Redefluss aber nicht beeinträchtigen. Auch das sei ein Hinweis auf eine schlechte Audio-Fälschung.

Was sind Deepfakes?
Deepfakes sind manipulierte Bild-, Video oder Audio-Aufnahmen, die täuschend echt wirken. Sie können Personen Dinge sagen und tun lassen, die sie nicht gesagt oder getan haben. Sie werden mit Hilfe von Künstlicher Intelligenz erstellt, die in entsprechenden Apps und anderer Software eingebaut ist. „Deep“ kommt von Deep Learning, sprich maschinellem Lernen, einer Technik der Künstlichen Intelligenz. „Fake“ steht für Fälschung.
Unsere Recherche zu den Gefahren von Deepfakes gibt es hier

Hany Farid zweifelt ebenfalls an der Echtheit der Aufnahme. Der Professor an der Universität Berkeley forscht zu digitaler Forensik und schreibt CORRECTIV.Faktencheck: „Ich kann zwar nicht sagen, dass das Audiomaterial auf jeden Fall fake ist, aber es gibt Grund, an der Echtheit [...] zu zweifeln“. Er habe die Datei mit eigener Software analysiert, die echtes von KI-generiertem Audio unterscheiden soll. Die Analyse sei allerdings uneindeutig. Etwa die Hälfte der Audiodatei werde als KI-generiert eingestuft, der Rest nicht.

Mehrere KI-Analysetools deuten auf Deepfake 

Wir haben die Audio-Datei auch selbst mit mehreren Programmen zur Erkennung von Audio-Deepfakes analysiert oder bei den entsprechenden Organisationen um eine Analyse gebeten, wenn die Tools nicht öffentlich zugänglich waren. Wichtig zu wissen: Die Analysetools können keine definitive Antwort auf die Frage liefern, ob eine Audio-Datei authentisch oder mit KI-generiert ist. Sie berechnen lediglich, mit welcher Wahrscheinlichkeit das der Fall sein könnte und sollten nicht als alleiniger Beleg für die Echtheit einer Aufnahme genutzt werden.  

In unserer Recherche stuften alle von uns genutzten Analysetools den Clip mit hoher Wahrscheinlichkeit als Deepfake ein.

Deepfake-Wahrscheinlichkeit der Aufnahme laut unterschiedlichen Analysetools
  • Deepfake Total: 97,6%
  • DeepID: 93%
  • Loccus*: 99,96%
  • Pindrop*: 80,7%
  • Sensity: 78,0%

*Bei Loccus und Pindrop wurden ursprünglich die Wahrscheinlichkeitswerte für die Authentizität der Aufnahme angegeben (0,04 Prozent; 19,3 Prozent). Wir haben diese Werte umgerechnet, um sie mit der Darstellung der anderen Programme, wie wahrscheinlich ein Deepfake ist, vergleichbar zu machen.

 

Pro-Putin Kanäle verbreiteten den Fake früh 

Auch andere Details sprechen für eine Fälschung: Ljudmila Nawalnaja hat sich seit dem Tod ihres Sohnes bisher zwei Mal per Video an die Öffentlichkeit gewandt: am 20. und am 22. Februar. Diese Video-Ansprachen wurden auf dem Youtube-Kanal Nawalny Live und dem des Teams von Alexej Nawalny veröffentlicht. Die angebliche Audioaufnahme findet sich dort jedoch nicht und auch sonst gibt es keine Belege, dass Ljudmila Nawalnaja diese Aussagen gemacht hat. Stichwortsuchen dazu auf Google lieferten keine Ergebnisse.

Der mutmaßliche Deepfake wurde früh von Kreml-freundlichen Kanälen auf Telegram verbreitet: Sowohl auf Russisch, als auch auf Deutsch und weiteren Sprachen. Mehrere Kanäle, die in der Vergangenheit Falschbehauptungen zum Krieg in der Ukraine verbreiteten, teilten den Clip ebenfalls. Darunter zum Beispiel der Kanal „Conspiracy Newsroom“ oder „Stimme aus Russland“, ein Kanal der für pro-russische Propaganda bekannt ist. Laut dem russischen Medium Provereno stammt einer der frühesten Beiträge vom Telegram-Kanal „Signal“, der laut Recherchen des russischen Onlinemediums The Bell Verbindungen zur russischen Regierung haben soll.   

Nawalnys Vermögen wurde schon 2020 eingefroren

Inhaltlich birgt die Aufnahme zudem Unstimmigkeiten. Julija Nawalnaja sah Alexej Nawalny, der seit Januar 2021 in russischen Gefängnissen saß, laut Medienberichten tatsächlich das letzte Mal im Februar 2022 – und war damals auch zuletzt in Russland. Bei Einreise droht ihr eine Festnahme. Für die weiteren Behauptungen, die in der Audio-Datei aufgestellt werden, konnten wir jedoch keine Belege finden. Laut Medienberichten wurde sein Vermögen bereits 2020 von einem Moskauer Gericht eingefroren. Auch darauf, dass seine Frau ihn überredet hat, nach Russland zurückzukehren, fanden wir keine Hinweise. Nawalny selbst erklärte im Januar, dass er zurückgekehrt sei, um für seine Überzeugungen einzutreten.  

Mit dem Clip soll vermutlich Nawalnys Frau Julija diffamiert werden. Laut der Faktencheck-Redaktion der AFP kursieren aktuell auch mehrere Falschbehauptungen über sie, mit denen ihr Affären angedichtet werden sollen. Das passt zu der Einschätzung von Anton Tarasyuk von Mantis Analytics. Aktuell laufe eine große, „wahrscheinlich koordinierte“ Desinformationskampagne gegen Julija Nawalnaja, die geschlechtsspezifisch sei.

Was ist geschlechtsspezifische Desinformation?

Frauen, die politisch aktiv sind oder anderweitig in der Öffentlichkeit stehen, werden besonders häufig zur Zielscheibe von Anfeindungen und Falschmeldungen. Forschende sprechen in diesem Zusammenhang von „geschlechtsspezifischer Desinformation“. Laut der Expertin Nina Jankowicz sollen die Frauen damit zum Schweigen gebracht und aus dem öffentlichen Leben ferngehalten werden. 

Medienberichte und Studien zeigen, wie Russland und pro-russische Akteure geschlechtsspezifische Desinformation im Angriffskrieg gegen die Ukraine einsetzen, etwa um Journalistinnen oder weibliche Streitkräfte zu diskreditieren oder ein negatives Bild von der Rolle der Frau in demokratischen Gesellschaften zu schaffen.

Zu den Hauptbotschaften der Kampagne gehöre die Hervorhebung ihrer angeblichen „Unmoral“, „Unanständigkeit“ und „Untreue“. „Ich betone den geschlechtsspezifischen Aspekt, weil es schwer vorstellbar ist, dass eine ähnliche Verleumdungskampagne gegen einen männlichen Politiker geführt wird, insbesondere in Russland“, erklärte uns Tarasyuk. 

Julia Nawalnaja kündigte nach dem Tod ihres Mannes an, seine Oppositionsarbeit fortführen zu wollen. Anfang März rief sie zu einer Protestaktion gegen Putin bei den anstehenden Präsidentschaftswahlen in Russland auf.  

Einen Überblick mit allen Faktenchecks von uns zum Krieg in der Ukraine finden Sie hier.

Korrektur, 11. März 2024: Wir haben die Wahrscheinlichkeitangaben von Loccus und Pindrop für die Authentizität der Aufnahme korrigiert. Loccus gab die Wahrscheinlichkeit mit 0,04% an und Pindrop mit 19,3%; nicht wie wir ursprünglich schrieben mit 0,004% und 0,193%.

Redigatur: Matthias Bau, Sophie Timmermann