Im Gespräch

Katharina Zweig - Langversion

12 snips
Feb 6, 2026
Katharina Zweig, Informatik-Professorin für Sozioinformatik an der TU Kaiserslautern, forscht zu KI, verantwortungsvoller Algorithmik und gesellschaftlichen Folgen der Digitalisierung. Sie erklärt, was Sprachmodelle wirklich tun. Sie spricht über Trainingsdaten, Halluzinationen, Intention, Bildung statt Eigenentwicklung, Regulierung und verantwortliche KI-Anwendungen.
Ask episode
AI Snips
Chapters
Books
Transcript
Episode notes
INSIGHT

Kennen Ist Nur Trainingsassoziation

  • Große Sprachmodelle kennen keine Dinge aus eigener Erfahrung, sondern nur Textmuster aus Trainingsdaten.
  • Deshalb erzeugen sie den Eindruck von Wissen, ohne tatsächliches Verständnis zu haben.
INSIGHT

Wörter Im Vektorraum Als Assoziationen

  • Sprachmodelle lernen Wortmuster und ordnen Wörter in einem hohen Vektorraum als Assoziationen.
  • Diese 'Traummaschinen' assoziieren Wörter, aber besitzen keine semantische Absicht.
INSIGHT

Warum Sprachmodelle Nicht 'Intelligent' Sind

  • Echte Intelligenz benötigt ein anpassbares Weltmodell und Abhängigkeit von Vorhersagequalität.
  • Sprachmodelle zeigen diese Abhängigkeit und Anpassungsfähigkeit nicht und bleiben damit begrenzt.
Get the Snipd Podcast app to discover more snips from this episode
Get the app