IQ - Wissenschaft und Forschung

KI bei der Mathe-Olympiade - Können Sprachmodelle jetzt rechnen?

8 snips
Mar 14, 2026
Spannende Berichte von KI-Teams, die zur Mathematik-Olympiade antreten und mit speziellen Trainingsmethoden rechnen lernen. Diskussionen über warum Sprachmodelle bei langen logischen Ketten und echten Rechnungen scheitern. Einblicke in parallele Lösungsstrategien, eine konkrete Niederlage bei einer schweren Aufgabe und die Frage, was ein IMO-Erfolg über allgemeine Intelligenz aussagt.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Teenager erzählt vom Flow bei der Mathe-Olympiade

  • Tiger Zhang beschreibt seine IMO-Erfahrung und löst am ersten Tag Geometrieaufgaben, fühlt sich nach fertigen Lösungen sicher und freut sich über das Licht-an-Gefühl beim Beweisen.
  • Er sitzt in Australien, ist 17, kommt aus Kalifornien und hat seit der zweiten Klasse an Wettbewerben teilgenommen; Geometrie ist sein Spezialgebiet.
INSIGHT

Sprachmodelle raten Token statt logisch zu rechnen

  • Sprachmodelle erzeugen Antworten, indem sie das nächste Token mit höchster Wahrscheinlichkeit vorhersagen, nicht durch formales Rechnen oder Theorem-Anwendung.
  • Deshalb scheitern LLMs an einfachen Zählausgaben oder seltenen, komplexen Rechnungen, obwohl sie menschenähnliche Texte schreiben können.
INSIGHT

Reinforcement Learning formt mathematisches Denken

  • DeepMinds Training nutzt Reinforcement Learning: Modell probiert millionenfach Lösungswege und wird für richtige Schritte belohnt, ähnlich dem Unterrichten eines Schülers.
  • JJ bewertete Modelloutputs, vergab Punkte und steuerte Daten für Verbesserungen.
Get the Snipd Podcast app to discover more snips from this episode
Get the app