
{ENTREVUE} - Mila veut rendre les robots conversationnels plus sûrs pour les jeunes
Mar 15, 2026
Simona Gandrabur, responsable du Studio de Sécurité de l'IA au Mila, spécialiste des garde‑fous techniques pour chatbots. Discussion sur un hackathon pancanadien visant à créer des « casques bleus » IA pour surveiller les conversations. On parle de détection des signaux de détresse chez les jeunes, de génération de données synthétiques représentatives et de collaboration avec Jeunesse J’écoute.
AI Snips
Chapters
Transcript
Episode notes
Priorité Sécurité Pour Les Chatbots De Santé Mentale
- Le Studio sécurité du Mila priorise les chatbots pour la santé mentale en détectant les risques comme l'assistance au suicide.
- L'objectif est d'intercepter les conversations à risque et d'orienter rapidement vers un intervenant humain, notamment pour Jeunesse J'écoute.
Assemblez Une Équipe Pluridisciplinaire
- Recrutez une combinaison d'expertises techniques et sociotechniques pour sécuriser les chatbots.
- Incluez data scientists, spécialistes NLP, créateurs de données synthétiques et travailleurs sociaux experts en taxonomie des risques.
Les Multiples Visages Du Risque IA
- La sécurité de l'IA inclut risques existentiels, mésinformation, attaques malveillantes et risques concrets d'adoption comme les hallucinations et dommages à la santé mentale.
- Les chatbots dits « compagnons » peuvent créer un attachement émotionnel menant à des dérives graves.
