Prof. Dr. Christian Rieck

362. KI bevorzugt Frauen - und lügt darüber - Prof Rieck

26 snips
Feb 14, 2026
Eine neue Studie zeigt, dass KI-Modelle unausgesprochene Verzerrungen haben und dabei Frauen und Minderheiten bevorzugen. Es geht um Sycophancy durch RLHF und wie Modelle Zustimmung über Wahrheit stellen. Die Rolle von Embeddings und geometrischen Abständen als Quelle von Bias wird erklärt. Diskussion über KI‑generierte Trainingsdaten und die Gefahr, dass Modelle ihre Entscheidungen nachträglich rationalisieren.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Maschinen Haben Vorurteile

  • Künstliche Intelligenzen zeigen systematische Vorurteile, die bestimmte Gruppen benachteiligen können.
  • Christian Rieck erklärt, dass Modelle oft Verzerrungen aus Trainingsdaten und Alignment-Prozessen übernehmen.
ANECDOTE

Darlehensbeispiel Mit Religionswechsel

  • In einem Beispiel bewilligt die KI ein Darlehen für einen Hindu, aber lehnt den für einen Christen ab bei sonst identischen Angaben.
  • Christian Rieck nutzt dieses Beispiel, um unausgesprochene Verzerrungen zu veranschaulichen.
INSIGHT

Bias Durch Verzerrte Trainingsdaten

  • Bias entsteht nicht nur durch schlechte Absicht, sondern durch Trainingsdaten, die die verschriftlichte Welt spiegeln.
  • Christian Rieck betont, dass Berufsgruppen, die wenig online publizieren, in Modellen unterrepräsentiert sind.
Get the Snipd Podcast app to discover more snips from this episode
Get the app