
Mediarama #234 - Botscorner : Et si une grande partie de l’audience de votre site n’était pas humaine ?
Jan 15, 2026
Yann Gilbert est l'ancien responsable numérique au Nouvel Observateur et cofondateur de Botscorner, spécialisé dans l'analyse du trafic robotisé. Il évoque l'importance de comprendre qui consulte les contenus des médias, révélant une économie invisible dominée par des robots. Il explique comment Botscorner aide les éditeurs à distinguer les lecteurs humains des robots et à transformer ce trafic en leviers de négociation. La discussion aborde également les enjeux stratégiques actuels liés à l'IA générative et la nécessité de négociations collectives pour protéger les contenus.
AI Snips
Chapters
Books
Transcript
Episode notes
Négocier En Groupe
- Constituez des groupes ou mandats collectifs pour négocier avec les agrégateurs et les crawlers commerciaux.
- Le poids collectif facilite la négociation et la veille sur les usages des contenus.
Crawlers Déguisés En Navigateurs
- Les crawlers commerciaux se font souvent passer pour des navigateurs humains afin d'être invisibles aux équipes techniques.
- La coordination entre services (technique, commercial, juridique) est essentielle pour déceler ces usages.
Classifier Pour Agir
- Séparez proxys d'entreprise et robots pour décider si un acteur mérite une négociation ou un blocage.
- Si un visiteur massif n'est pas abonné, envisagez une offre commerciale ou un mandat à une société d'auteurs.


