
IQ - Wissenschaft und Forschung KI bei der Mathe-Olympiade - Können Sprachmodelle jetzt rechnen?
8 snips
Mar 14, 2026 Spannende Berichte von KI-Teams, die zur Mathematik-Olympiade antreten und mit speziellen Trainingsmethoden rechnen lernen. Diskussionen über warum Sprachmodelle bei langen logischen Ketten und echten Rechnungen scheitern. Einblicke in parallele Lösungsstrategien, eine konkrete Niederlage bei einer schweren Aufgabe und die Frage, was ein IMO-Erfolg über allgemeine Intelligenz aussagt.
AI Snips
Chapters
Transcript
Episode notes
Teenager erzählt vom Flow bei der Mathe-Olympiade
- Tiger Zhang beschreibt seine IMO-Erfahrung und löst am ersten Tag Geometrieaufgaben, fühlt sich nach fertigen Lösungen sicher und freut sich über das Licht-an-Gefühl beim Beweisen.
- Er sitzt in Australien, ist 17, kommt aus Kalifornien und hat seit der zweiten Klasse an Wettbewerben teilgenommen; Geometrie ist sein Spezialgebiet.
Sprachmodelle raten Token statt logisch zu rechnen
- Sprachmodelle erzeugen Antworten, indem sie das nächste Token mit höchster Wahrscheinlichkeit vorhersagen, nicht durch formales Rechnen oder Theorem-Anwendung.
- Deshalb scheitern LLMs an einfachen Zählausgaben oder seltenen, komplexen Rechnungen, obwohl sie menschenähnliche Texte schreiben können.
Reinforcement Learning formt mathematisches Denken
- DeepMinds Training nutzt Reinforcement Learning: Modell probiert millionenfach Lösungswege und wird für richtige Schritte belohnt, ähnlich dem Unterrichten eines Schülers.
- JJ bewertete Modelloutputs, vergab Punkte und steuerte Daten für Verbesserungen.
