F.A.Z. Digitalwirtschaft

Steht in der KI der nächste Durchbruch bevor, Sepp Hochreiter?

Jul 5, 2024
Sepp Hochreiter, deutscher Informatiker und Erfinder der LSTM-Architektur, stellt seinen neuen Lernalgorithmus XLSTM vor. Er erzählt von LSTMs Entstehung, erklärt Transformer und Attention. Es geht um Unterschiede zu GPT/LLMs, technische Neuerungen von XLSTM, Effizienz bei langen Sequenzen, Anwendungen in Robotik und die Gründung seines Start-ups NXAI.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Die Entstehung Von LSTM

  • Sepp Hochreiter erzählt, wie er LSTM bereits 1991 in seiner Diplomarbeit vorschlug und es später mit Jürgen Schmidhuber publizierte.
  • LSTM wurde lange Zeit in Sprachanwendungen eingesetzt und prägte bis 2017 viele Systeme, bevor Transformer kamen.
INSIGHT

Attention Ermöglicht Paralleles Training

  • Der Transformer brachte die Attention-Idee, die Speicher durch Rückblick ersetzt und damit Training massiv parallelisierbar macht.
  • Diese Parallelisierbarkeit erlaubte viel mehr Daten in gleicher Zeit zu verarbeiten und erzeugte den Durchbruch.
INSIGHT

LLMs Sind Mächtige Datenbanken

  • Hochreiter bewertet Large Language Models als sehr gute, aber nicht intelligente Datenbanken, die Texte kombinieren und interpolieren.
  • Sie generalisieren begrenzt und liefern nur zuverlässige Ergebnisse, wenn ähnliche Beispiele im Training vorhanden sind.
Get the Snipd Podcast app to discover more snips from this episode
Get the app