Bartosz Naskręcki, profesor matematyki i prodziekan Wydziału Matematyki i Informatyki UAM, omawia rewolucję, którą modele językowe wprowadzają do matematyki. Podejmuje temat testowania takich modeli na nowych problemach matematycznych, gdzie LLM-y osiągnęły średnio 20% poprawności. Opowiada o weryfikowaniu prac matematycznych i naprawianiu błędów, w tym w wielkim twierdzeniu Fermata. Naskręcki replikuje, że te narzędzia mogą zrewolucjonizować sposób, w jaki postrzegamy rolę matematyków w przyszłości.
01:40:21
forum Ask episode
web_stories AI Snips
view_agenda Chapters
auto_awesome Transcript
info_circle Episode notes
question_answer ANECDOTE
Jak Myśli Matematyka
Bartosz opisuje, jak myśli matematycznie poza słowami i potem koduje dowód dla innych.
Różni matematycy mają inne intuicje: geometryczne, algebraiczne czy kombinatoryczne.
insights INSIGHT
Uniwersalne Modele Nie Muszą Być Specjalistami
Najnowsze multimodalne LLM-y potrafią rozwiązywać zadania matematyczne mimo ogólnego treningu.
Różne modele wyróżniają się odmiennymi cechami: jedne lepiej programują, inne lepiej kreatywnie łączą fakty.
volunteer_activism ADVICE
Testuj I Dopasowuj Prompt Dla Wyników
Testuj modele samodzielnie i iteruj prompt, bo wyniki zależą od modelu i prompta.
Używaj dotrenowania i specjalnych mechanizmów (function calling) dla lepszych wyników praktycznych.
Get the Snipd Podcast app to discover more snips from this episode
– Bardzo szybko się przekonaliśmy, że nasze wyobrażenie o tym, co jest trudne, a co mogą robić modele językowe, to były dwa zupełnie różne światy – mówi odcinku nr 283 dr Bartosz Naskręcki, prodziekan Wydziału Matematyki i Informatyki Uniwersytetu Adama Mickiewicza w Poznaniu.
* * * Słuchasz nas regularnie? Może spodoba Ci się któryś z progów wsparcia :) Zajrzyj na https://patronite.pl/radionaukowe Nasze wydawnictwo: https://wydawnictworn.pl/ * * *
Dr Naskręcki jest jedynym polskim naukowcem w międzynarodowym zespole FrontierMath. Zespół zebrał się, by stworzyć bazę zupełnie nowych, nigdzie wcześniej niepublikowanych problemów matematycznych i sprawdzić, jak sobie z nimi poradzą popularne duże modele językowe (LLM). A radzą sobie nieźle: podały poprawną odpowiedź do ok. 20% przygotowanych zadań, a ich rezultaty są coraz lepsze z czasem (wraz z rozbudową i dotrenowywaniem modeli w internecie). LLM-y można wykorzystać też do weryfikowania poprawności już istniejących prac matematycznych. – Magia matematyki polega na tym, że jak się ten program, czyli ten sformalizowany dowód, skompiluje w odpowiednim kompilatorze, to on mi daje gwarancję, że to jest poprawnie – wyjaśnia dr Naskręcki. W ten sposób naukowcy wyśledzili i naprawili błąd np. w wielkim twierdzeniu Fermata.
Wykorzystanie modeli AI to już rewolucja. – Można w pewnym sensie już tworzyć matematykę trochę bez matematyków – zauważa gość. Oczywiście na razie to narzędzie i wciąż potrzebny jest człowiek, który nim kieruje, wpisuje prompty i weryfikuje wyniki. Kolejnym poziomem rewolucji byłoby stworzenie modelu zdolnego do samodzielnego tworzenia i rozwiązywania problemów matematycznych. Wydaje się jednak, że do tego jeszcze daleko. – Modele nie będą robiły niczego kognitywnie ciekawego, dopóki nie pozwolimy im wchodzić w różne interakcje. Bez interakcji trudno mi sobie wyobrazić, że coś, co ma ewidentnie pewną strukturę dynamiczną, a świadomość ma strukturę dynamiczną, da się wytworzyć w takim algorytmie – dodaje.
W odcinku usłyszycie też sporo rozważań na temat świadomości i dowiecie się, jak weryfikować prawdziwość rozwiązań, których nie umiemy policzyć, i dlaczego matematyk z modelem AI jest jak pasterz. Polecamy!