Radio Naukowe

#283 Sztuczna matematyka – modele językowe zaczynają zawstydzać matematyków | prof. Bartosz Naskręcki

14 snips
Jan 8, 2026
Bartosz Naskręcki, profesor matematyki i prodziekan Wydziału Matematyki i Informatyki UAM, omawia rewolucję, którą modele językowe wprowadzają do matematyki. Podejmuje temat testowania takich modeli na nowych problemach matematycznych, gdzie LLM-y osiągnęły średnio 20% poprawności. Opowiada o weryfikowaniu prac matematycznych i naprawianiu błędów, w tym w wielkim twierdzeniu Fermata. Naskręcki replikuje, że te narzędzia mogą zrewolucjonizować sposób, w jaki postrzegamy rolę matematyków w przyszłości.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Jak Myśli Matematyka

  • Bartosz opisuje, jak myśli matematycznie poza słowami i potem koduje dowód dla innych.
  • Różni matematycy mają inne intuicje: geometryczne, algebraiczne czy kombinatoryczne.
INSIGHT

Uniwersalne Modele Nie Muszą Być Specjalistami

  • Najnowsze multimodalne LLM-y potrafią rozwiązywać zadania matematyczne mimo ogólnego treningu.
  • Różne modele wyróżniają się odmiennymi cechami: jedne lepiej programują, inne lepiej kreatywnie łączą fakty.
ADVICE

Testuj I Dopasowuj Prompt Dla Wyników

  • Testuj modele samodzielnie i iteruj prompt, bo wyniki zależą od modelu i prompta.
  • Używaj dotrenowania i specjalnych mechanizmów (function calling) dla lepszych wyników praktycznych.
Get the Snipd Podcast app to discover more snips from this episode
Get the app