2024 - Speciale Intelligenza Artificiale

Intelligenza artificiale. Abbiamo (non solo) un problema

9 snips
May 31, 2023
Andrea Loreggia, docente e ricercatore in IA, spiega problemi di chiusura dei modelli, bias, copyright e nudging. Federico Faggin, inventore del microprocessore, mette in guardia dal togliere l'uomo dal loop decisionale e dalla presunta superiorità delle macchine. Si parlano trasparenza dei dataset, responsabilità automatica, rischi di democratizzazione degli strumenti e bisogno di regole.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Rischio Di Togliere L'Uomo Dalla Decisione

  • L'eliminazione dell'uomo dal loop decisionale è il rischio etico principale identificato da Federico Faggin.
  • Faggin osserva che l'IA non fa nulla di concettualmente impossibile per l'uomo, ma lo fa molto più velocemente e su dati molto più vasti.
INSIGHT

Limiti Dell'IA In Situazioni Imprevedibili

  • L'IA eccelle in compiti ripetitivi ma fatica con situazioni imprevedibili dove gli umani prendono decisioni sensate.
  • Faggin prevede miglioramenti lenti e sottolinea la resilienza del giudizio umano in contesti non controllati.
INSIGHT

Opacità Dei Modelli Limita Il Controllo

  • Andrea Loreggia segnala la chiusura dei grandi sistemi generativi come problema perché nasconde implementazioni e dati di training.
  • Questa opacità impedisce ai ricercatori di individuare bias e limita l'accesso alle università per riprodurre i modelli.
Get the Snipd Podcast app to discover more snips from this episode
Get the app