
2024 - Speciale Intelligenza Artificiale Intelligenza artificiale. Abbiamo (non solo) un problema
9 snips
May 31, 2023 Andrea Loreggia, docente e ricercatore in IA, spiega problemi di chiusura dei modelli, bias, copyright e nudging. Federico Faggin, inventore del microprocessore, mette in guardia dal togliere l'uomo dal loop decisionale e dalla presunta superiorità delle macchine. Si parlano trasparenza dei dataset, responsabilità automatica, rischi di democratizzazione degli strumenti e bisogno di regole.
AI Snips
Chapters
Transcript
Episode notes
Rischio Di Togliere L'Uomo Dalla Decisione
- L'eliminazione dell'uomo dal loop decisionale è il rischio etico principale identificato da Federico Faggin.
- Faggin osserva che l'IA non fa nulla di concettualmente impossibile per l'uomo, ma lo fa molto più velocemente e su dati molto più vasti.
Limiti Dell'IA In Situazioni Imprevedibili
- L'IA eccelle in compiti ripetitivi ma fatica con situazioni imprevedibili dove gli umani prendono decisioni sensate.
- Faggin prevede miglioramenti lenti e sottolinea la resilienza del giudizio umano in contesti non controllati.
Opacità Dei Modelli Limita Il Controllo
- Andrea Loreggia segnala la chiusura dei grandi sistemi generativi come problema perché nasconde implementazioni e dati di training.
- Questa opacità impedisce ai ricercatori di individuare bias e limita l'accesso alle università per riprodurre i modelli.

