I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle

Jean-François Sénéchal, Frédérick Plamondon, Ève Gaumond, Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Mineo, Benjamin Leblanc et Marie-Ève Vachon Savary.
undefined
Mar 25, 2021 • 44min

Épisode 12 - Debriefing (Cécile Petitgand) - IA, Covid, Santé. Pas le temps de niaiser!

Retour sur notre rencontre avec Cécile Petitgand et les applications AI en santé!Nous avons révisé plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLes attentes (parfois démesurées en AI)Bonne écoute! Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Mar 11, 2021 • 37min

Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé

Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé». Nous avons abordé avec elle plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLa déclaration de MontréalLes attentes (parfois démesurées en AI)Bonne écoute! Et merci encore, Cécile!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Feb 25, 2021 • 1h 4min

Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.

Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu. Dans cet épisode:Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).Les articles cités sont ici:Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001 Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503. Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology.  Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493. Support the show
undefined
Feb 11, 2021 • 52min

Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine

Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.  Thèmes abordés: -          Une IA humaine, trop humaine.Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines. -          Les biais psychosociaux.Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).-          Une IA qui reflète la morale et la culture des maîtres. Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?-          Une IA difficile à intégrer au monde du travail.La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions? Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 28, 2021 • 51min

Épisode 8 - Justine Dima - Dis-moi qui tu embauches, et je saurai qui tu es!

Quelques mois avant le début de la pandémie au Québec,  nous recevions, dans nos studios, une force montante de l'intelligence artificielle: Justine Dima.Justine était alors étudiante au doctorat en management à l’Université Laval. Son sujet de thèse:  « Le bon et le mauvais côté de l’intelligence artificielle : ses effets sur les travailleurs et les équipes de travail ».  Dans ses travaux, Justine souhaite « Déterminer comment les travailleurs perçoivent les effets de l’utilisation de l’intelligence artificielle, quelles sont les stratégies que les travailleurs mettent en œuvre pour faire face à ces effets et quels sont les conséquences positives et/ou négatives liés à l’utilisation de l’intelligence artificielle». Rien de moins!Nous avons abordé avec elle plusieurs thèmes.Notons: Mobilisation des IA en ressources humaines. Sélection de cv pertinents lors du processus d’embauche.  Recherche de candidats. Analyse de cv pour le candidat et l'employeur. Des difficultés d'intégration des IA dans le monde du travail et des ressources humaines.Biais psychosociaux, processus d'embauche et reproduction (intensification) des biais via l'intelligence artificielle.Bonne écoute! Et merci encore, Justine!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 14, 2021 • 49min

Épisode 7 - Le Bye Bye d'Element AI - Nos prix Lovelace et IArk (partie 2)

Deuxième partie de nos prix Lovelace et IArk.Rappelons le concept. Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. Les prix Lovelace. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace.La contrepartie: nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!---Dans cet épisode:Pour Frédérick:Prix Lovelace à Timnit Gebru (encore!). Fred résume deux de ses contributions à la réflexion sur les enjeux éthiques et sociaux de l'intelligence artificielle.Prix IArk à «La réponse Google AI (et Jeff Dean ) dans l'Affaire Gebru vs Google,  et parce qu'il mérite bien un deuxième prix IArk.Pour JF: Prix Lovelace à Deepmind, le laboratoire d’Alphabet (mère de Google). Le laboratoire s’est servi des algorithmes d’AlphaFold (Le jeu de Go : une pierre "blanche" dans l‘histoire de l’AI) pour résoudre un problème insoluble depuis 50 ans: la prédiction de la forme exacte des protéines.Prix IArk à «la vente d’Élément AI au développeur de logiciels californien la compagnie ServiceNow». Articles cités:Gebru et al. (2018). Datasheets for Datasets, ArXiv  Gebru et al. (2020). « Race and Gender » dans Oxford Handbook of Ethics of AI Deepmind, (novembre 2020)  AlphaFold: a solution to a 50-year-old grand challenge in biologyKarim Benessaieh, (novembre 2020)  Element AI acquise par une firme californienneProduction, animation et collaboration: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Dec 18, 2020 • 1h 3min

Épisode 6 - Le Noël de Timnit Gebru - Nos prix Lovelace et IArk (partie 1)

Le concept:Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. Le concept est simple. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace (évidemment en l'honneur d'Ada Lovelace).La contrepartie, ce sera nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sera nos prix citrons, nos navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!C’est le concept.Essayons-le !---Dans cet épisode:Pour David:Prix Lovelace à Timnit Gebru dans l’affaire Timnit Gebru vs GoogliathPrix IArk à Google (et jeff Dean AKA Le vilain) dans la même affairePour Ève: Prix Lovelace au projet de Loi C11 Prix IArk à Google dans l'affaire Timnit Gebru vs GoogleAutre thème abordé:La place de l'éthique en AI - et le rôle de l'éthicien au sein des compagnies qui développent ces applications AI.Articles cités:https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/The invention of Ethical AI The problem with AI ethics Résumé législatif du projet de loi C-11 : Loi modifiant la Loi sur le droit d’auteur (accès des personnes ayant des déficiences perceptuelles aux œuvres ou autres objets du droit d’auteur protégés) https://lop.parl.ca/sites/PublicWebsite/default/fr_CA/ResearchPublications/LegislativeSummaries/421C11E Production, animation et collaboration: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Dec 3, 2020 • 1h 2min

Épisode 5 - Un nouvel hiver en Intelligence artificielle? Retour sur l'entrevue de Darwin Brochero.

Retour sur l'entrevue de Darwin Brochero. JF, David et Fred discutent de l'entrevue et des thèmes abordés avec Darwin.1. «L'intelligence artificielle n'existe pas» (Luc Julia) . Vraiment? Pourquoi tant de malaise à se désigner comme «chercheur en IA» ? Pourquoi finance-t-on l'IA si personne n'en fait vraiment. Avant de nier l’existence d’une chose,  du moins avec une approche philosophique, il faut d’abord la définir.  2. Donner du sens au chaos .  Stochastique et probabilisme.. Contingence et nécessité.  «Hasard et la nécessité » (Jacques Monod). Les nouveaux modèles en IA permettent de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petit échelle, mais qui sont régis par des paterns lorsqu’on les observe à grand échelle.  Nos modèles scientifiques classiques nous ont permis de mieux comprendre, mieux prévoir et de mieux prédire. Et les nouveaux modèles en IA permettent d’accroître encore davantage, en précision et puissance, ce pouvoir prédictif.  3. De l'éducation. De quelle éducation avons-nous besoin pour saisir, dans leurs intégralités, les problèmes éthiques et sociétaux associés à l'intelligence artificielle? Les universités sont-elles conçues pour résoudre de tels problèmes? Quoi faire pour s'assurer, que bien en amont, les enjeux éthiques et moraux soient mieux pensés par ceux et celles qui conçoivent les applications AI de demain?4. Croissance et décroissance (un nouvel hiver en IA?) .  Le champs de l'intelligence artificielle n'est pas né de la «dernière pluie». On se rappellera d'une grande vague d’enthousiasme envers l’IA dans les années 70 (financé par le DARPA aux USA), et que cette vague s’est estompée dans les années 80. On avait nommé «hiver» cette période de stagnation des travaux et du financement en IA. Or, le financement en IA ne cesse de croître. Si «l'hiver s’en vient», pour reprendre cette maxime des peuples du Nord (Game of Thrones), nous avons encore quelques belles saisons. Support the show
undefined
Nov 20, 2020 • 53min

Épisode 4 - Darwin Brochero - Prédire le futur

Dans cet épisode, nous recevons Darwin Brochero. Darwin a fait son doctorat à l'université Laval en génie civil et sa maîtrise en ressources hydrauliques à Université Nationale de Colombie. Son expertise combine intelligence artificielle, data sciences, génie civil, apprentissage machine et hydro-informatique. Il est entrepreneur et consultant en AI. Il a aussi créé la compagnie Apox, une compagnie de service conseil en AI. Nous avons abordés avec lui plusieurs thèmes.Notons:Prédire le futur (hydraulique): Utilisation des AI et de l'apprentissage machine (machine learning) dans la modélisation des prédictions météorologiques et hydriques Le hasard et la nécessité. Stochastique et probabilisme (contingence et nécessité): Comment les nouveaux modèles en IA permettent-ils de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petite échelle et qui sont donc imprévisibles, mais qui deviennent prévisibles dès lors que des patterns peuvent être identifiés à grande échelle par des outils mobilisant de l'intelligence artificielle. Outils d'aide à la décision et imputabilité. Darwin explique le rôle des AI, et leurs limites, dans l'accompagnement de la prise de décision des décideurs.Bonne écoute! Et merci encore, Darwin!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Nov 5, 2020 • 50min

Épisode 3 - Debriefing (Philippe Després) - Nourrir la bête

Retour sur l'entrevue de Philippe Després.  JF, David et Fred discutent de l'entrevue et des thèmes abordés par Philippe Després. 1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner?  Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre. 2. Le consentement (à l’utilisation de données).  Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé».  Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne. 3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :o   Facile à (re) trouver :  identifiant unique et pérenne, indexé, langage commun o   Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles)o   Interopérables : ???o   Réutilisables : données qui peuvent être réutilisées Support the show

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app