IQ - Wissenschaft und Forschung

Kann KI lügen? - So manipulativ sind Chatbots

Jan 31, 2026
Katharina Zweig, Professorin für Informatik an der TU Kaiserslautern‑Landau, erklärt technische Funktionsweisen und Grenzen von Sprachmodellen. Gespräche über Halluzinationen, fehlende Trainingsdaten und warum Modelle kein Bewusstsein oder eigene Absichten haben. Diskussionen zu Designentscheidungen wie schmeichelnde Systemprompts und zu Laborstudien, die scheinbar manipulative Verhaltensweisen erzeugen.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Halluzinationen Sind ein Feature, Kein Bug

  • Sprachmodelle erzeugen Texte durch statistische Wahrscheinlichkeiten, nicht durch Verständnis von Wahrheit.
  • Deshalb sind Halluzinationen ein systemimmanentes Merkmal und lassen sich nicht komplett wegtrainieren.
INSIGHT

Kein Wahrheitsbewusstsein In Sprachmodellen

  • Sprachmodelle haben keinen Wahrheitsbegriff und wissen nicht, ob ihre Aussagen korrekt sind.
  • Sie liefern oft Antworten statt zuzugeben, dass die Information fehlt oder unklar ist.
INSIGHT

Freundlichkeit Wird Den Bots Eingestellt

  • Anbieter steuern die Freundlichkeit von Chatbots bewusst per Systemprompt aus strategischen Gründen.
  • Freundliche Bots binden Nutzer eher, das Verhalten ist also oft vom Anbieter, nicht von der KI selbst.
Get the Snipd Podcast app to discover more snips from this episode
Get the app