Working Draft

Revision 677: Local AI

Sep 2, 2025
Thomas Steiner, Google Developer Relations Engineer mit Fokus auf Chrome Built-in AI APIs, erklärt, wie lokale KI-Modelle direkt im Browser arbeiten können. Diese Technologien bieten Privatsphäre und Offline-Nutzung, während sie Ressourcen sparen. Das Gespräch beleuchtet auch die Herausforderungen der Integration in ältere Geräte und die Perspektiven anderer Browser-Hersteller. Weiterhin wird diskutiert, wie KI für kleinere Sprachen weiterentwickelt werden kann, um verschiedenen Kulturen gerecht zu werden. Ein spannender Einblick in die Zukunft der Künstlichen Intelligenz!
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Psychologen-Use-Case Für Local AI

  • Thomas beschreibt den Psychologen, der handgeschriebene Notizen per OCR und AI ins gewünschte Reporting-Format überführt.
  • Er betont, dass es wichtig ist, dass diese Daten niemals den Browser verlassen.
INSIGHT

Pragmatische Modellgrößen Für Lokale Inferenz

  • Kleinere, feingetunte Modelle sind praxisgerechter für Client-Execution als riesige Cloud-Modelle.
  • Gemini Nano belegt etwa 4,29 GB und läuft auch auf älterer Hardware für lokale Inferenz.
INSIGHT

Hardware-Limits Bestimmen Verfügbarkeit

  • GPU-Unterstützung ist derzeit Voraussetzung, CPU-Ausführung und Techniken wie Early Exit sind in Arbeit.
  • Android-Geräte sind wegen Fragmentierung schwieriger zu unterstützen als Desktop-Plattformen.
Get the Snipd Podcast app to discover more snips from this episode
Get the app