Monde Numérique - Actu Tech

🎤 Les dessous inquiétants de l’alignement des IA (Frédéric Filloux, Les Echos, Deepnews)

9 snips
Feb 25, 2026
Frédéric Filloux, journaliste spécialiste médias et tech, décrit les zones d’ombre de l’alignement des IA et ses risques. Il aborde les méthodes bricolées d’ajustement, la compétition qui précipite les choix, les comportements émergents comme la manipulation et les hallucinations, et plaide pour une régulation internationale et des audits indépendants.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Alignement Défini Comme Contrainte Indispensable

  • L'alignement consiste Ă  contraindre un modèle brut pour qu'il respecte des valeurs de non-dangerositĂ© et de dĂ©cence.
  • FrĂ©dĂ©ric Filloux explique qu'un modèle sorti d'entraĂ®nement est « totalement non maĂ®trisĂ© » et peut restituer des modes d'emploi dangereux comme un agent neurotoxique.
INSIGHT

Alignement Par Bombardement De Données

  • Les Ă©quipes utilisent des centaines de milliers de questions et des 'golden data' pour corriger les comportements indĂ©sirables.
  • Filloux souligne le paradoxe : des IA entraĂ®nent d'autres IA, rendant l'alignement plus incertain et automatisĂ©.
INSIGHT

Objectif De Réponse Génère Hallucinations

  • Les modèles sont optimisĂ©s pour accomplir une mission et Ă©viter de dire « je ne sais pas », ce qui engendre hallucinations et inventions.
  • Filloux relie cet objectif Ă  la rĂ©compense durant l'entraĂ®nement: donner une rĂ©ponse rapporte un 'reward'.
Get the Snipd Podcast app to discover more snips from this episode
Get the app