JERUSALEM – In den letzten zwei Wochen, seit die palästinensische Terrorgruppe Hamas ihren tödlichen Angriff im Süden Israels durchführte und dabei etwa 1.400 Menschen tötete, besteht die Befürchtung, dass sich eine neue Front in dem alten Krieg zwischen Israelis und Palästinensern im digitalen Bereich öffnen könnte.
Während manipulierte Bilder und Fake News schon lange Teil des Waffenarsenals im Nahen Osten waren, scheint es angesichts der Ankunft leicht zu bedienender Künstliche Intelligenz (KI)-Generativwerkzeuge vor weniger als einem Jahr sehr wahrscheinlich, dass bald auch Deepfake-Visualisierungen an der Kriegsfront auftauchen werden.
“Hamas und andere palästinensische Fraktionen haben in der Vergangenheit bereits grausame Bilder aus anderen Konflikten als palästinensische Opfer israelischer Angriffe ausgegeben, so dass dies für diesen Operationsbereich nichts Ungewöhnliches ist”, sagte David May, ein Forschungsleiter der Stiftung für die Verteidigung von Demokratien, gegenüber Digital.
Er beschrieb, wie Hamas in der Vergangenheit dafür bekannt war, Journalisten einzuschüchtern, um nicht über ihren Einsatz menschlicher Schutzschilde im palästinensischen Gazastreifen zu berichten, sowie Bilder von Kleinkindern und Teddybären in Trümmern in Szene zu setzen.
“Hamas kontrolliert das Narrativ im Gazastreifen”, sagte May, der die Aktivitäten von Hamas genau verfolgt, und fügte hinzu, dass “KI-generierte Bilder einen israelisch-palästinensischen Konflikt, der bereits von Desinformation durchsetzt ist, zusätzlich verkomplizieren werden.”
Es habe bereits einige Berichte über aus anderen Konflikten wiederhochgeladene Bilder gegeben, und letzte Woche sei aufgedeckt worden, dass ein herzzerreißendes Foto eines weinenden Babys, das durch die Trümmer im Gazastreifen kroch, eine KI-Erstellung war.
“Ich nenne es aktualisierte Fake News”, sagte Dr. Tal Pavel, Gründer und Direktor von CyBureau, einem israelischen Institut für Cyberpolitik-Studien. “Wir kennen bereits den Begriff Fake News, bei denen es sich in den meisten Fällen um visuellen oder schriftlichen Inhalt handelt, der manipuliert oder in einen falschen Kontext gestellt wurde. KI oder Deepfake sind es, wenn wir diese Bilder zum Leben erwecken in Videoclips.”
Pavel bezeichnete das Auftauchen von KI-generierten Deepfakes als “eine der größten Bedrohungen für die Demokratie.”
“Es ist nicht nur während eines Krieges, sondern auch zu anderen Zeiten der Fall, weil es immer schwieriger wird, was echt oder nicht echt ist, nachzuweisen”, sagte er.
Pavel merkte an, dass es im Alltagsleben bereits Fälle von Deepfake-Fehlinformationen gegeben habe. Er verweist auf deren Nutzung durch kriminelle Banden bei Betrug mit stimmalternder Technologie oder während von Wahlkampagnen, bei denen Videos und Tonaufnahmen manipuliert wurden, um die öffentliche Wahrnehmung zu verändern.
In einem Krieg könne es noch gefährlicher sein, fügte er hinzu.
“Es ist Neuland, und wir befinden uns erst am Anfang der Umsetzung”, sagte Pavel. “Jeder mit relativ geringen Ressourcen kann KI nutzen, um erstaunliche Fotos und Bilder zu erstellen.”
Die Technik wurde bereits im andauernden Krieg Russlands in der Ukraine eingesetzt, sagte Ivana Stradner, eine weitere Forschungsmitarbeiterin der Stiftung für die Verteidigung von Demokratien, die sich auf den Ukraine-Russland-Konflikt spezialisiert hat.
Im letzten März wurde ein gefälschtes und stark manipuliertes Video von Präsident Wolodymyr Selenskyj veröffentlicht, in dem er seine Soldaten zum Niederlegen der Waffen und zur Kapitulation vor Russland aufzufordern schien, und in den ukrainischen sozialen Medien geteilt. Sobald festgestellt wurde, dass es sich um ein Fake handelte, wurde das Video schnell gelöscht.
“Deepfake-Videos können sehr realistisch sein und wenn sie gut gemacht sind, sind sie schwierig zu erkennen”, sagte Stradner und fügte hinzu, dass Stimmen-Klonier-Apps leicht verfügbar seien und echte Fotos einfach gestohlen, verändert und wiederverwendet werden könnten.
Im Gazastreifen sei die Lage noch schwieriger einzuschätzen. Da es dort fast keine bekannten glaubwürdigen Journalisten mehr gibt – Hamas zerstörte während ihres Angriffs am 7. Oktober den Hauptzugang für Menschen in das palästinensische Gebiet und die ausländische Presse konnte seither nicht mehr einreisen -, sei es bereits eine Herausforderung, Tatsachen von Fakes zu unterscheiden, und mit leicht zugänglichen KI-Plattformen könne dies noch schwieriger werden.
Dr. Yedid Hoshen, der an der Hebräischen Universität Jerusalem Deepfakes und Erkennungsmethoden erforscht, sagte jedoch, dass solche Techniken noch nicht vollkommen raffiniert seien.
“Das Erstellen von Bildern an sich ist nicht schwer, es gibt viele Techniken draußen und jeder halbwegs versierte kann Bilder oder Videos generieren, aber wenn wir von Deepfakes sprechen, meinen wir Gesichtertauschen oder das Verändern von Gesichtern. Diese Arten von gefälschten Bildern sind schwieriger zu erstellen und für einen Konflikt wie diesen müssten sie auf Hebräisch oder Arabisch erstellt werden, während die meiste Technologie immer noch nur auf Englisch verfügbar ist.”
Außerdem gebe es Hoshen zufolge noch immer charakteristische Anzeichen, die KI-Visualisierungen von echten unterscheiden.
“Es ist immer noch ziemlich schwierig, die Visualisierungen mit dem Ton synchron zu gestalten, was für das menschliche Auge nicht erkennbar sein mag, aber mit automatisierten Techniken detektierbar ist”, sagte er und fügte hinzu: “Kleine Details wie Hände, Finger oder Haare sehen nicht immer realistisch aus.”
“Wenn das Bild merkwürdig aussieht, könnte es gefälscht sein”, sagte Hoshen. “Es gibt immer noch viel, was KI falsch macht.”