Besser Wissen

Der Gehirnchirug der KI

Sep 26, 2022
Dr. Sebastian Lapuschkin leitet die Explainable AI Group am Heinrich-Hertz-Institut und forscht an erklärbarer KI. Er erklärt, wie XAI 2.0 von pixelbasierten Ansätzen zu konzeptueller Erklärung übergeht, was die Interpretationslast verringert. Weitere Themen sind die Notwendigkeit von Nachvollziehbarkeit in kritischen Bereichen wie Medizin und autonomem Fahren. Zudem beschreibt er innovative Methoden wie Layer-wise Relevance Propagation zur Effizienzsteigerung und thematisiert Herausforderungen wie Catastrophic Forgetting in KI-Modellen.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Pferdeerkennung Durch Shortcut

  • Sebastian nennt ein Beispiel: Ein Modell erkannte Pferde über ein Copyright-Tag statt über das Pferd.
  • Solche Shortcuts treten bei automatisch gesammelten Benchmarks häufig auf.
INSIGHT

KI Als Wissensentdecker

  • Erklärbarkeit kann Knowledge Discovery ermöglichen, indem Modelle Domainwissen in Daten offenbaren.
  • Bisher fanden Modelle meist bekanntes Wissen, echtes neues Wissen bleibt schwer nachzuweisen.
ADVICE

Auf Konzepte Erklären Statt Pixel

  • Entwickle Erklärungen auf Konzept-Ebene statt nur Pixel-Heatmaps, um Interpretationsaufwand zu senken.
  • Nutze semantische Konzepte, sodass Erklärungen direkt menschliche Gründe liefern.
Get the Snipd Podcast app to discover more snips from this episode
Get the app