IFTTD - If This Then Dev

#309.exe - IA inclusives: Une intelligence artificielle et une équité réelle par Julien Landuré

9 snips
Apr 3, 2026
Julien Landuré, organisateur tech engagé pour la diversité, parle des biais historiques qui menacent l’IA et d’exemples concrets comme le recadrage photo problématique. Il évoque la représentation dans les conférences, les limites des tests cliniques et l’importance des labels et de données diversifiées. Discussion vigilante mais optimiste sur comment rendre l’IA réellement inclusive.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Les IA Amplifient Les Biais Historiques

  • Les IA reproduisent nos erreurs à grande échelle lorsqu'elles s'entraînent sur des données historiques biaisées.
  • Bruno et Julien soulignent le risque de répliquer des inégalités sociales si les datasets ne sont pas diversifiés et nettoyés.
ANECDOTE

Le Recadrage Photo Qui A Favorisé Certains Visages

  • Julien rappelle l'échec de recadrage automatique de photos par Twitter qui favorisait certains visages.
  • Cet exemple illustre comment un dataset déséquilibré conduit à des fonctions produit discriminantes en production.
ADVICE

Suivre Plus De Femmes Pour Diversifier Les Conférences

  • Cherchez activement des profils féminins sur les réseaux pour diversifier vos conférenciers et speakers.
  • Julien explique qu'il suit plus de femmes pour repérer des candidates et inviter des « pépites » aux conférences GDG Nantes.
Get the Snipd Podcast app to discover more snips from this episode
Get the app