
IFTTD - If This Then Dev #309.exe - IA inclusives: Une intelligence artificielle et une équité réelle par Julien Landuré
9 snips
Apr 3, 2026 Julien Landuré, organisateur tech engagé pour la diversité, parle des biais historiques qui menacent l’IA et d’exemples concrets comme le recadrage photo problématique. Il évoque la représentation dans les conférences, les limites des tests cliniques et l’importance des labels et de données diversifiées. Discussion vigilante mais optimiste sur comment rendre l’IA réellement inclusive.
AI Snips
Chapters
Transcript
Episode notes
Les IA Amplifient Les Biais Historiques
- Les IA reproduisent nos erreurs à grande échelle lorsqu'elles s'entraînent sur des données historiques biaisées.
- Bruno et Julien soulignent le risque de répliquer des inégalités sociales si les datasets ne sont pas diversifiés et nettoyés.
Le Recadrage Photo Qui A Favorisé Certains Visages
- Julien rappelle l'échec de recadrage automatique de photos par Twitter qui favorisait certains visages.
- Cet exemple illustre comment un dataset déséquilibré conduit à des fonctions produit discriminantes en production.
Suivre Plus De Femmes Pour Diversifier Les Conférences
- Cherchez activement des profils féminins sur les réseaux pour diversifier vos conférenciers et speakers.
- Julien explique qu'il suit plus de femmes pour repérer des candidates et inviter des « pépites » aux conférences GDG Nantes.
