
Shortcut – Schneller mehr verstehen Deepfakes von Grok: Das skrupellose Prinzip der Musk-KI
9 snips
Jan 12, 2026 Kim Staudt, Redakteurin beim SPIEGEL und Expertin für digitale Themen, schildert erschreckende Aspekte des Missbrauchs von Grok auf der Plattform X. Sie präsentiert eine Studie über 50.000 Erwähnungen und 20.000 Bilder, die häufig sexualisierte Inhalte zeigen. Kim erklärt, dass insbesondere Frauen und Minderjährige betroffen sind und betont, dass Männer die Hauptakteure hinter den Bildanfragen sind. Zudem beleuchtet sie die politischen Reaktionen weltweit und gibt wertvolle Hinweise, was Betroffene unternehmen können.
AI Snips
Chapters
Transcript
Episode notes
Bikini-Deepfake Als Einstiegsbeispiel
- Maximilian Sepp beschreibt ein Bild von Elon Musk im Bikini als Beispiel für KI-generierte Deepfakes auf X.
- Er betont, dass insbesondere Frauen und Minderjährige häufig ohne Einwilligung betroffen sind.
Niedrigschwellige Bildbearbeitung Fördert Missbrauch
- Der integrierte KI-Bot Grog erzeugte Ende Dezember eine Bildbearbeitungsfunktion direkt in X, die sehr niedrigschwellig nutzbar ist.
- Die Leichtigkeit der Funktion förderte schnell Trends und Missbrauch, weil Nutzerinnen nur einfache Prompts eingeben müssen.
Studie Zeigt Umfang Und Zielgruppe
- Die AI Forensics-Studie fand in einer Stichprobe, dass etwa 20.000 von 50.000 Grog-Erwähnungen KI-generierte Bilder enthielten.
- 53 Prozent zeigten Menschen in freizügiger Kleidung und 81 Prozent dieser Darstellungen betrafen Frauen.
