Holger ruft an

Holger ruft an ... wegen KI-Fakes

Mar 20, 2026
Anika Gruner, Mitgründerin eines Deep‑Tech‑Startups für KI‑gestützte Deepfake‑Erkennung, hat Redaktionen wie den Spiegel bei der Aufdeckung von KI-Fakes unterstützt. Sie erklärt, wie ihre Software KI‑Spuren in Bildern und Videos findet. Kurze Sätze zu Erkennungsverfahren, Herausforderungen durch KI‑Enhancement und wie Redaktionen ihre Workflows schützen können.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

KI Nutzt KI Zur Erkennung Von KI-Fakes

  • Neuramancer nutzt eigene KI und Multimedia‑Forensik, um statistische Artefakte im Bildrauschen einzelnen KI‑Generatoren zuzuordnen.
  • Die Firma trainierte eine KI auf Muster im Pixelrauschen und liefert skalierbare Automatisierung für Erkennung, Menschen treffen finale Entscheidung.
ANECDOTE

Wie Neuramancer Den Spiegel Unterstützte

  • Beim Spiegel wurden Agenturbilder verdächtig, Redakteure riefen Neuramancer und schickten Bilder zur Analyse.
  • Neuramancer lieferte Heatmaps und Anatol Maier erklärte Muster persönlich als verlängerter Arm der Fact‑Checking‑Redaktion.
INSIGHT

Enhancement Zerstört Nachvollziehbare Authentizität

  • KI‑Enhancement verwischt forensische Spuren, weil KI unklar entscheidet, welche Pixel sie verändert.
  • Selbst nur 'verschönerte' Originalbilder können dadurch nicht mehr als authentisch verifiziert werden und untergraben Vertrauen der Medien.
Get the Snipd Podcast app to discover more snips from this episode
Get the app