
Le code a changé Comment les machines détectent nos émotions : Les dessous de l'informatique affective
14 snips
May 5, 2026 Alexandra Préjean, chercheuse québécoise en post‑doctorat spécialiste de la reconnaissance émotionnelle. Elle décrypte les limites théoriques et pratiques des systèmes qui prétendent lire nos émotions. Discussions sur la vidéosurveillance, la santé, le recrutement, le marketing et la transition vers des systèmes multimodaux. Questions éthiques sur biais, précision et manipulation.
AI Snips
Chapters
Books
Transcript
Episode notes
HireVue Et Burger King Illustrent La Surveillance Au Travail
- Xavier et Alexandra évoquent HireVue et l'exemple concret de Burger King qui utilise une IA pour écouter et compter formules de politesse des employés.
- HireVue analyse ton, mots et expressions pour présélectionner; Burger King déploie « Patty » pour coacher et surveiller le personnel.
Les Chatbots Font Déjà De La Reconnaissance Par Texte
- ChatGPT et autres LLMs effectuent déjà de la reconnaissance émotionnelle textuelle en décelant colère, tristesse ou confiance depuis le texte.
- Les modèles évoluent vers le multimodal en ajoutant audio et image, mais restent limités pour l'instant.
Multimodal Ne Veut Pas Dire Cohérent
- Les systèmes unimodaux prennent une source comme suffisante alors que les multimodaux combinent sources mais peinent à pondérer signaux discordants.
- Le résultat multimodal peut être dépareillé car on n'agrège pas encore finement voix, visage et texte.



