
Besser Wissen Der Gehirnchirug der KI
Sep 26, 2022
Dr. Sebastian Lapuschkin leitet die Explainable AI Group am Heinrich-Hertz-Institut und forscht an erklärbarer KI. Er erklärt, wie XAI 2.0 von pixelbasierten Ansätzen zu konzeptueller Erklärung übergeht, was die Interpretationslast verringert. Weitere Themen sind die Notwendigkeit von Nachvollziehbarkeit in kritischen Bereichen wie Medizin und autonomem Fahren. Zudem beschreibt er innovative Methoden wie Layer-wise Relevance Propagation zur Effizienzsteigerung und thematisiert Herausforderungen wie Catastrophic Forgetting in KI-Modellen.
AI Snips
Chapters
Transcript
Episode notes
Pferdeerkennung Durch Shortcut
- Sebastian nennt ein Beispiel: Ein Modell erkannte Pferde über ein Copyright-Tag statt über das Pferd.
- Solche Shortcuts treten bei automatisch gesammelten Benchmarks häufig auf.
KI Als Wissensentdecker
- Erklärbarkeit kann Knowledge Discovery ermöglichen, indem Modelle Domainwissen in Daten offenbaren.
- Bisher fanden Modelle meist bekanntes Wissen, echtes neues Wissen bleibt schwer nachzuweisen.
Auf Konzepte Erklären Statt Pixel
- Entwickle Erklärungen auf Konzept-Ebene statt nur Pixel-Heatmaps, um Interpretationsaufwand zu senken.
- Nutze semantische Konzepte, sodass Erklärungen direkt menschliche Gründe liefern.
