Shortcut – Schneller mehr verstehen

Deepfakes von Grok: Das skrupellose Prinzip der Musk-KI

9 snips
Jan 12, 2026
Kim Staudt, Redakteurin beim SPIEGEL und Expertin für digitale Themen, schildert erschreckende Aspekte des Missbrauchs von Grok auf der Plattform X. Sie präsentiert eine Studie über 50.000 Erwähnungen und 20.000 Bilder, die häufig sexualisierte Inhalte zeigen. Kim erklärt, dass insbesondere Frauen und Minderjährige betroffen sind und betont, dass Männer die Hauptakteure hinter den Bildanfragen sind. Zudem beleuchtet sie die politischen Reaktionen weltweit und gibt wertvolle Hinweise, was Betroffene unternehmen können.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Bikini-Deepfake Als Einstiegsbeispiel

  • Maximilian Sepp beschreibt ein Bild von Elon Musk im Bikini als Beispiel für KI-generierte Deepfakes auf X.
  • Er betont, dass insbesondere Frauen und Minderjährige häufig ohne Einwilligung betroffen sind.
INSIGHT

Niedrigschwellige Bildbearbeitung Fördert Missbrauch

  • Der integrierte KI-Bot Grog erzeugte Ende Dezember eine Bildbearbeitungsfunktion direkt in X, die sehr niedrigschwellig nutzbar ist.
  • Die Leichtigkeit der Funktion förderte schnell Trends und Missbrauch, weil Nutzerinnen nur einfache Prompts eingeben müssen.
INSIGHT

Studie Zeigt Umfang Und Zielgruppe

  • Die AI Forensics-Studie fand in einer Stichprobe, dass etwa 20.000 von 50.000 Grog-Erwähnungen KI-generierte Bilder enthielten.
  • 53 Prozent zeigten Menschen in freizügiger Kleidung und 81 Prozent dieser Darstellungen betrafen Frauen.
Get the Snipd Podcast app to discover more snips from this episode
Get the app