Verbrechen

Science-Fiction im Polizeialltag: Wenn KI ermittelt

30 snips
Jan 27, 2026
Kai Biermann, Investigativ-Redakteur der ZEIT, forscht zu Überwachung, IT‑Sicherheit und Geheimdiensten. Er erzählt von KI, die Vermisste in Sekunden findet. Es geht um Avatar‑ und Gesichtserkennung, Deepfakes, Datenverknüpfungen wie Palantir und die Risiken intransparenten, fremdgesteuerten Polizeieinsatzes. Abschließend diskutiert er rechtliche Schranken und No‑Go‑Szenarien.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Avatare Sind Praktische Deepfakes

  • KI‑Avatare sind im Kern Deepfakes, weil sie Gesicht und Stimme nachbilden und vorgegebene Texte sprechen können.
  • Das eröffnet Chancen für Fahndungen, aber auch Missbrauchspotenzial durch manipulierte Aussagen.
ANECDOTE

Erpressungsanruf Mit Eigener Stimme

  • Eine Kollegin wurde per synthetischer Stimme angerufen, ihr Vater wurde so überzeugt, sie habe ein Kind überfahren, bis sie die echte Nummer zurückrief.
  • Der Fall zeigt, wie täuschend echt Stimmdeepfakes bereits eingesetzt werden.
ADVICE

Rückruf Prüft Stimm‑Deepfakes

  • Wenn jemand per Telefon mit Ihrer Stimme Schlimmes behauptet, rufen Sie die Person zurück auf ihrer bekannten Nummer, um die Echtheit zu prüfen.
  • Ruhe bewahren und nochmal anrufen verhindert oft schnelle Überreaktionen der Angehörigen.
Get the Snipd Podcast app to discover more snips from this episode
Get the app