2024 - Speciale Intelligenza Artificiale

Sviluppi tecnologici

Apr 17, 2024
Marco Bellagente, research scientist e responsabile di team in Stability AI, noto per il lavoro su Stable Diffusion. Parla dell'espansione del long context nei modelli linguistici e delle nuove possibilità applicative. Discute potenza di calcolo tra training e inference, importanza di dataset puliti e il ruolo dell'open source. Racconta la transizione da immagini a video generativi e le sfide tecniche correlate.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Long Context Trasforma Le Possibilità Dei Modelli

  • I progressi recenti sui modelli aumentano drasticamente il "long context", permettendo ai modelli di ragionare su decine di migliaia o centinaia di migliaia di token.
  • Marco Bellagente spiega che questo abilita casi d'uso come interrogare intere opere o molti documenti aziendali per risposte più intelligenti.
INSIGHT

Dati Di Qualità Riduccono Costi Di Training

  • L'efficienza nell'addestramento è migliorata selezionando dati di alta qualità invece di enormi corpus sporchi e ridondanti.
  • Bellagente cita come poche migliaia di documenti ben curati possano sostituire grandi dataset che richiedono molta più potenza di calcolo.
ADVICE

Filtra I Dati Prima Di Trainare Il Modello

  • Curare i dataset prima del training riduce tempo e costi di cloud necessari per allenare un modello efficace.
  • Il CEO di Mistral viene citato come esempio: filtrare i dati permette di spendere molto meno in hardware.
Get the Snipd Podcast app to discover more snips from this episode
Get the app