Im Gespräch

Katharina Zweig, Sozioinformatikerin

9 snips
Feb 6, 2026
Katharina Zweig, Informatik-Professorin an der TU Kaiserslautern und Autorin, erklärt verständlich die gesellschaftlichen Folgen von KI. Sie spricht über die begrenzte Verlässlichkeit großer Sprachmodelle. Themen sind Training und Wortvektoren, Blackbox-Probleme, Verführung durch Personalisierung, Verzerrungen in Daten, Bildungsrisiken und Forderungen nach Regulierung.
Ask episode
AI Snips
Chapters
Books
Transcript
Episode notes
INSIGHT

Modelle erzeugen Assoziationen, kein Wissen

  • Große Sprachmodelle erzeugen Text durch Assoziation, nicht durch tatsächliches Wissen.
  • Sie stützen sich auf Muster in Trainingsdaten und formulieren überzeugend, ohne vor Ort etwas erlebt zu haben.
INSIGHT

Wörter leben in einem hohen Vektorraum

  • Sprachmodelle lernen Wortmuster und Wahrscheinlichkeiten, indem sie fehlende Wörter vorhersagen.
  • Dieses Training erzeugt räumliche Repräsentationen von Wörtern, die Assoziationen ermöglichen.
INSIGHT

Blackbox Trotz Klarem Code

  • Die innere Ordnung eines Modells ist oft nicht erklärbar, obwohl Code und Trainingsvorgaben bekannt sind.
  • Diese Blackbox-Eigenschaft macht sie für zuverlässige Ergebnisse ungeeignet.
Get the Snipd Podcast app to discover more snips from this episode
Get the app