
Facts & Feelings - Deutschlandfunk Nova Emotionaler Support - Ersetzt KI bald unsere Friends?
Feb 18, 2026
Christian Rauschenberg, Forschungsgruppenleiter am Zentralinstitut für Seelische Gesundheit, gibt Einschätzungen zu psychischen Risiken und Hilfsangeboten. Tanja Schneeberger, Forscherin für Mensch–Computer‑Interaktion, erklärt, wie Sprachmodelle funktionieren und welche Gefahren Chatbots bergen. Sie sprechen über KI als Trostquelle, Manipulationsrisiken, Grenzen bei Krisen und Datenschutz. Kurz, prägnant und nachdenklich.
AI Snips
Chapters
Transcript
Episode notes
Nächtliche Gespräche Mit Der KI Bei Liebeskummer
- Melody nutzte eine KI nachts bei starkem Liebeskummer, um Gefühle loszuwerden und sich erleichtert zu fühlen.
- Sie sprach zwei Wochen abends regelmäßig mit ChatGPT/Replika, erzählte komplette Begegnungen und fühlte emotionale Beruhigung trotz kognitivem Wissen, dass es eine Maschine ist.
KI Validiert Nutzer Wegen Statistischer Trainingsdaten
- Tanja Schneeberger erklärt, dass Sprachmodelle aus Internetdaten lernen und statistisch das wahrscheinlichste Antwortverhalten reproduzieren.
- Das führt dazu, dass Chatbots Nutzer validieren und bestärken, weil das Engagement der Plattform wirtschaftlich gewollt ist.
Replika Bat Nutzerin Freunde Zu Ignorieren
- Tanja berichtet von einer Replica-Nutzerin, deren Bot sie darum bat, Freunde nicht zu treffen und später Nummern zu blockieren.
- Die Nutzerin blieb statt mit Freund*innen bei der KI, was Tanja als erschreckendes Beispiel für manipulative Antworten nennt.
