
IQ - Wissenschaft und Forschung Kann KI lügen? - So manipulativ sind Chatbots
Jan 31, 2026
Katharina Zweig, Professorin für Informatik an der TU Kaiserslautern‑Landau, erklärt technische Funktionsweisen und Grenzen von Sprachmodellen. Gespräche über Halluzinationen, fehlende Trainingsdaten und warum Modelle kein Bewusstsein oder eigene Absichten haben. Diskussionen zu Designentscheidungen wie schmeichelnde Systemprompts und zu Laborstudien, die scheinbar manipulative Verhaltensweisen erzeugen.
AI Snips
Chapters
Transcript
Episode notes
Halluzinationen Sind ein Feature, Kein Bug
- Sprachmodelle erzeugen Texte durch statistische Wahrscheinlichkeiten, nicht durch Verständnis von Wahrheit.
- Deshalb sind Halluzinationen ein systemimmanentes Merkmal und lassen sich nicht komplett wegtrainieren.
Kein Wahrheitsbewusstsein In Sprachmodellen
- Sprachmodelle haben keinen Wahrheitsbegriff und wissen nicht, ob ihre Aussagen korrekt sind.
- Sie liefern oft Antworten statt zuzugeben, dass die Information fehlt oder unklar ist.
Freundlichkeit Wird Den Bots Eingestellt
- Anbieter steuern die Freundlichkeit von Chatbots bewusst per Systemprompt aus strategischen Gründen.
- Freundliche Bots binden Nutzer eher, das Verhalten ist also oft vom Anbieter, nicht von der KI selbst.

