
Im Gespräch Katharina Zweig, Sozioinformatikerin
9 snips
Feb 6, 2026 Katharina Zweig, Informatik-Professorin an der TU Kaiserslautern und Autorin, erklärt verständlich die gesellschaftlichen Folgen von KI. Sie spricht über die begrenzte Verlässlichkeit großer Sprachmodelle. Themen sind Training und Wortvektoren, Blackbox-Probleme, Verführung durch Personalisierung, Verzerrungen in Daten, Bildungsrisiken und Forderungen nach Regulierung.
AI Snips
Chapters
Books
Transcript
Episode notes
Modelle erzeugen Assoziationen, kein Wissen
- Große Sprachmodelle erzeugen Text durch Assoziation, nicht durch tatsächliches Wissen.
- Sie stützen sich auf Muster in Trainingsdaten und formulieren überzeugend, ohne vor Ort etwas erlebt zu haben.
Wörter leben in einem hohen Vektorraum
- Sprachmodelle lernen Wortmuster und Wahrscheinlichkeiten, indem sie fehlende Wörter vorhersagen.
- Dieses Training erzeugt räumliche Repräsentationen von Wörtern, die Assoziationen ermöglichen.
Blackbox Trotz Klarem Code
- Die innere Ordnung eines Modells ist oft nicht erklärbar, obwohl Code und Trainingsvorgaben bekannt sind.
- Diese Blackbox-Eigenschaft macht sie für zuverlässige Ergebnisse ungeeignet.




