Gefälschtes Selenskyj-Video:
Meta löscht Deepfake-Video mit Kapitulationsaufruf
Der Facebook-Konzern Meta hat ein gefälschtes Video identifiziert und entfernt, in dem der ukrainische Präsident Wolodymyr Selenskyj angeblich seine Soldaten auffordert, die Waffen niederzulegen.
Auf einem Online-Video fordert der ukrainische Präsident Wolodymyr Selenskyj angeblich seine Soldaten auf, die Waffen niederzulegen. Der Facebook-Konzern Meta hat dieses Video als Fälschung enttarnt und entfernt. Selenskyj habe die Erklärung nie abgegeben, sagte Meta-Sicherheitschef Nathaniel Gleicher auf Twitter. "Wir haben dieses Video schnell überprüft und entfernt, da es gegen unsere Richtlinie gegen irreführende, manipulierte Medien verstößt." Außerdem habe man die Kollegen auf anderen Internet-Plattformen über die Fälschung informiert.
Das gefälschte Material erschien am Mittwoch zunächst auf der Website der Nachrichtenwebsite Ukraine 24, nachdem diese angeblich von Hackern angegriffen wurde. Danach verbreitete sich das Deepfake-Video rasch im Internet und auch in den Meta-Diensten Facebook und Instagram.
Ein Deepfake-Video ist ein mithilfe künstlicher Intelligenz erstelltes Video, das authentisch wirken soll, es aber nicht ist. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.
Die ukrainische Regierung hatte bereits vor zwei Wochen auf Facebook davor gewarnt, dass der russische Präsident Wladimir Putin die Deepfake-Technologie bei seinen Versuchen einsetzen werde, die Regierung Selenskyj zu stürzen. "Sein Ziel ist es, die Bürger zu verwirren, Panik zu verbreiten und unsere Truppen zum Rückzug zu bewegen", schrieb die Regierungsbehörde.
Zuvor war bereits ein gefälschtes Video aufgetaucht, in dem Putin eine Kapitulationsankündigung in den Mund gelegt wird.