
Working Draft Revision 677: Local AI
Sep 2, 2025
Thomas Steiner, Google Developer Relations Engineer mit Fokus auf Chrome Built-in AI APIs, erklärt, wie lokale KI-Modelle direkt im Browser arbeiten können. Diese Technologien bieten Privatsphäre und Offline-Nutzung, während sie Ressourcen sparen. Das Gespräch beleuchtet auch die Herausforderungen der Integration in ältere Geräte und die Perspektiven anderer Browser-Hersteller. Weiterhin wird diskutiert, wie KI für kleinere Sprachen weiterentwickelt werden kann, um verschiedenen Kulturen gerecht zu werden. Ein spannender Einblick in die Zukunft der Künstlichen Intelligenz!
AI Snips
Chapters
Transcript
Episode notes
Psychologen-Use-Case Für Local AI
- Thomas beschreibt den Psychologen, der handgeschriebene Notizen per OCR und AI ins gewünschte Reporting-Format überführt.
- Er betont, dass es wichtig ist, dass diese Daten niemals den Browser verlassen.
Pragmatische Modellgrößen Für Lokale Inferenz
- Kleinere, feingetunte Modelle sind praxisgerechter für Client-Execution als riesige Cloud-Modelle.
- Gemini Nano belegt etwa 4,29 GB und läuft auch auf älterer Hardware für lokale Inferenz.
Hardware-Limits Bestimmen Verfügbarkeit
- GPU-Unterstützung ist derzeit Voraussetzung, CPU-Ausführung und Techniken wie Early Exit sind in Arbeit.
- Android-Geräte sind wegen Fragmentierung schwieriger zu unterstützen als Desktop-Plattformen.
