Le code a changé

Comment les machines détectent nos émotions : Les dessous de l'informatique affective

14 snips
May 5, 2026
Alexandra Préjean, chercheuse québécoise en post‑doctorat spécialiste de la reconnaissance émotionnelle. Elle décrypte les limites théoriques et pratiques des systèmes qui prétendent lire nos émotions. Discussions sur la vidéosurveillance, la santé, le recrutement, le marketing et la transition vers des systèmes multimodaux. Questions éthiques sur biais, précision et manipulation.
Ask episode
AI Snips
Chapters
Books
Transcript
Episode notes
ANECDOTE

HireVue Et Burger King Illustrent La Surveillance Au Travail

  • Xavier et Alexandra évoquent HireVue et l'exemple concret de Burger King qui utilise une IA pour écouter et compter formules de politesse des employés.
  • HireVue analyse ton, mots et expressions pour présélectionner; Burger King déploie « Patty » pour coacher et surveiller le personnel.
INSIGHT

Les Chatbots Font Déjà De La Reconnaissance Par Texte

  • ChatGPT et autres LLMs effectuent déjà de la reconnaissance émotionnelle textuelle en décelant colère, tristesse ou confiance depuis le texte.
  • Les modèles évoluent vers le multimodal en ajoutant audio et image, mais restent limités pour l'instant.
INSIGHT

Multimodal Ne Veut Pas Dire Cohérent

  • Les systèmes unimodaux prennent une source comme suffisante alors que les multimodaux combinent sources mais peinent à pondérer signaux discordants.
  • Le résultat multimodal peut être dépareillé car on n'agrège pas encore finement voix, visage et texte.
Get the Snipd Podcast app to discover more snips from this episode
Get the app