
Epoch Times Nachrichten Podcast Wie Künstliche Intelligenz unsere Wahrnehmung des Irankrieges manipuliert | Nr. 9003
Mar 14, 2026
Das Gespräch beleuchtet den massenhaften Einsatz KI‑generierter Bilder und Videos zur Manipulation im Irankonflikt. Es geht um gefälschte Satellitenbilder, erkennbare visuelle Fehler und Beispiele viraler Falschmeldungen. Außerdem werden Erkennungswerkzeuge, Plattformrichtlinien und die Folgen für die Bevölkerung sowie Parallelen zu anderen Kriegen thematisiert.
AI Snips
Chapters
Transcript
Episode notes
KI Erzeugt Gefälschte Angriffsnarrative
- KI wird gezielt genutzt, um falsche Narrative über angebliche iranische Angriffe auf US-Stützpunkte zu verbreiten.
- Teheran Times und andere Accounts veröffentlichten manipulierte Vorher-Nachher-Bilder, die Logikfehler wie unveränderte parkende Fahrzeuge zeigten.
Teheran Times Veröffentlicht Gefälschte Satellitenbilder
- Die Teheran Times veröffentlichte manipulierte Satellitenbilder, die angebliche Zerstörung auf einem US-Stützpunkt in Bahrain zeigten.
- Google SynthID identifizierte das Nachher-Bild als von Google-KI generiert oder bearbeitet und enthüllte Diskrepanzen in Gebäuden und Fahrzeugpositionen.
Detektionswerkzeuge Liefern Widersprüchliche Ergebnisse
- Verschiedene KI-Erkennungstools liefern nicht immer dieselben Ergebnisse und können widersprüchlich sein.
- Grog identifizierte Hinweise auf KI-Verarbeitung, während SynthID bei manchen Fotos nichts nachweisen konnte.
