
Verbrechen Science-Fiction im Polizeialltag: Wenn KI ermittelt
30 snips
Jan 27, 2026 Kai Biermann, Investigativ-Redakteur der ZEIT, forscht zu Überwachung, IT‑Sicherheit und Geheimdiensten. Er erzählt von KI, die Vermisste in Sekunden findet. Es geht um Avatar‑ und Gesichtserkennung, Deepfakes, Datenverknüpfungen wie Palantir und die Risiken intransparenten, fremdgesteuerten Polizeieinsatzes. Abschließend diskutiert er rechtliche Schranken und No‑Go‑Szenarien.
AI Snips
Chapters
Transcript
Episode notes
Avatare Sind Praktische Deepfakes
- KI‑Avatare sind im Kern Deepfakes, weil sie Gesicht und Stimme nachbilden und vorgegebene Texte sprechen können.
- Das eröffnet Chancen für Fahndungen, aber auch Missbrauchspotenzial durch manipulierte Aussagen.
Erpressungsanruf Mit Eigener Stimme
- Eine Kollegin wurde per synthetischer Stimme angerufen, ihr Vater wurde so überzeugt, sie habe ein Kind überfahren, bis sie die echte Nummer zurückrief.
- Der Fall zeigt, wie täuschend echt Stimmdeepfakes bereits eingesetzt werden.
Rückruf Prüft Stimm‑Deepfakes
- Wenn jemand per Telefon mit Ihrer Stimme Schlimmes behauptet, rufen Sie die Person zurück auf ihrer bekannten Nummer, um die Echtheit zu prüfen.
- Ruhe bewahren und nochmal anrufen verhindert oft schnelle Überreaktionen der Angehörigen.
