

Pourquoi donc ?
Choses à Savoir
Je réponds de façon claire et directe à toutes les questions essentielles, en une minute chrono !Si vous cherchez le podcast Petits Curieux, c'est par ici: https://chosesasavoir.com/podcast/petits-curieux-2/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Episodes
Mentioned books

Nov 14, 2025 • 3min
Pourquoi parle-t-on de “bouc-émissaire” ?
L’expression « bouc émissaire » a une origine à la fois biblique, religieuse et symbolique, remontant à plus de trois mille ans. Aujourd’hui, elle désigne une personne injustement accusée et punie à la place des véritables responsables — mais son sens premier était beaucoup plus concret et rituel.Tout commence dans l’Ancien Testament, dans le Livre du Lévitique (chapitre 16), texte fondamental de la tradition juive. À l’époque, les Hébreux célébraient chaque année le Yom Kippour, le grand jour de l’expiation. Ce jour-là, le grand prêtre d’Israël accomplissait un rituel destiné à purifier le peuple de ses fautes. Deux boucs étaient choisis : l’un était sacrifié à Dieu, l’autre devenait le bouc émissaire. Le prêtre posait symboliquement les mains sur sa tête et transférait sur lui les péchés de toute la communauté. Puis l’animal, chargé de ces fautes, était chassé dans le désert, vers un lieu inhabité appelé « Azazel ». Il emportait ainsi les péchés du peuple loin du camp.Ce rite très ancien visait à purifier la collectivité en rejetant symboliquement le mal hors d’elle. L’expression hébraïque originelle, ‘azazel, a longtemps prêté à confusion : on ne savait pas s’il s’agissait d’un lieu, d’un démon du désert ou du nom donné au bouc lui-même. Les premières traductions de la Bible en grec, puis en latin, ont choisi de rendre le terme par « bouc pour l’éloignement » (caper emissarius), d’où vient notre expression française « bouc émissaire ».Au fil des siècles, la dimension religieuse a disparu, mais l’image est restée puissante. Le bouc émissaire est devenu une métaphore sociale et psychologique. Dans toute société, lorsqu’un groupe traverse une crise — guerre, famine, épidémie, échec politique — il cherche souvent un responsable unique, un individu ou une minorité sur qui reporter la faute collective. C’est ce mécanisme que le philosophe et anthropologue René Girard a théorisé au XXe siècle : selon lui, les sociétés humaines maintiennent leur cohésion en désignant une victime expiatoire, qu’on exclut ou qu’on sacrifie pour apaiser les tensions internes.Ainsi, le « bouc émissaire » d’aujourd’hui — qu’il soit un collègue, un groupe social ou un peuple — n’est que l’héritier moderne du rituel antique : une manière de se débarrasser du mal ou du conflit en le projetant sur un autre. L’expression rappelle à quel point le besoin de désigner un coupable est ancré dans nos mécanismes les plus anciens de survie et de cohésion collective. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 13, 2025 • 2min
Pourquoi certaines personnes aiment les films d'horreur ?
Si certaines personnes adorent les films d’horreur tandis que d’autres les fuient, la raison se trouve en grande partie dans notre cerveau. Les neurosciences montrent que tout dépend de la manière dont chacun traite la peur, cette émotion universelle mais extrêmement variable d’un individu à l’autre.Lorsqu’on regarde une scène effrayante, l’amygdale, une petite structure située au cœur du cerveau, s’active. C’est elle qui déclenche la réponse de peur : accélération du rythme cardiaque, sécrétion d’adrénaline, contraction musculaire. En temps normal, cette réaction prépare à fuir ou à se défendre. Mais dans un cinéma ou sur un canapé, le cerveau sait qu’il n’y a aucun danger réel. Résultat : la peur devient une expérience contrôlée, une montée d’adrénaline sans risque, un peu comme les montagnes russes.Chez les amateurs de films d’horreur, cette activation de l’amygdale s’accompagne souvent d’une libération de dopamine, le neurotransmetteur du plaisir et de la récompense. Ils ressentent donc un mélange paradoxal de peur et d’excitation. C’est cette combinaison – la montée du stress suivie du soulagement – qui crée le frisson agréable. Des chercheurs de l’Université de Copenhague ont montré en 2020 que le cerveau des amateurs de films d’horreur alterne très vite entre état d’alerte et retour à la sécurité, un peu comme un entraînement émotionnel : ils apprennent à “jouer” avec leur peur.À l’inverse, certaines personnes ont une hyperactivité de l’amygdale ou une moindre régulation de cette zone par le cortex préfrontal, la région du raisonnement. Leur cerveau a plus de mal à distinguer la fiction du réel. Pour elles, les images d’horreur déclenchent un véritable état de stress, avec libération excessive de cortisol (l’hormone du stress), sueurs et anxiété prolongée. D’où le rejet total du genre.Enfin, le goût de la peur dépend aussi de la personnalité et du câblage neuronal. Les personnes curieuses, en quête de sensations fortes, ou dotées d’un système dopaminergique plus sensible (comme les amateurs de sports extrêmes) trouvent dans l’horreur une stimulation gratifiante. D’autres, plus anxieuses ou empathiques, activent plus intensément les circuits de la douleur et du dégoût.En résumé, aimer les films d’horreur, c’est une question de chimie cérébrale : pour certains cerveaux, la peur est un jeu excitant ; pour d’autres, c’est une alarme qu’il vaut mieux ne jamais déclencher. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 12, 2025 • 3min
Pourquoi la mer Caspienne n'est ni un lac ni une mer ?
La mer Caspienne est un cas unique au monde : immense étendue d’eau fermée, elle est qualifiée de mer par son nom, mais de lac par sa géographie. Pourtant, d’un point de vue juridique international, elle n’est ni tout à fait l’un ni l’autre.Située entre la Russie, le Kazakhstan, le Turkménistan, l’Azerbaïdjan et l’Iran, la mer Caspienne est un bassin endoréique : elle n’a aucune communication naturelle avec les océans. Selon la géographie physique, c’est donc un lac salé, le plus grand du monde, avec une superficie de 370 000 km². Mais sa salinité (autour de 12 g/l) et son immense taille ont longtemps nourri l’ambiguïté : historiquement, les peuples riverains l’ont appelée “mer”, et les cartes l’ont toujours représentée ainsi.La vraie question, toutefois, est politico-juridique. Car si la Caspienne est une mer, elle relève du droit maritime international, notamment de la Convention des Nations unies sur le droit de la mer (dite de Montego Bay, 1982). Dans ce cas, chaque pays riverain aurait une zone économique exclusive et un plateau continental, avec des droits d’exploitation sur le pétrole et le gaz situés dans sa partie. Si, en revanche, on la considère comme un lac, il faut la partager selon des règles spécifiques de droit interne entre États, par des accords bilatéraux ou multilatéraux.Pendant des décennies, cette ambiguïté a provoqué des tensions diplomatiques. L’effondrement de l’URSS en 1991 a tout compliqué : de deux États riverains (URSS et Iran), on est passé à cinq. Chacun voulait défendre sa part des immenses gisements d’hydrocarbures sous le fond caspien. L’enjeu était colossal.Après des années de négociations, un compromis a été trouvé en 2018 avec la Convention d’Aktau, signée par les cinq pays. Elle a établi un statut hybride :La mer Caspienne n’est ni un océan ni un lac au sens strict.Son eau de surface est partagée comme celle d’une mer, ouverte à la navigation commune.Mais son fond marin (où se trouvent les ressources) est divisé entre les États, comme pour un lac.Ainsi, la Caspienne bénéficie d’un régime juridique sui generis, c’est-à-dire unique en son genre. Ce statut permet à chacun des pays riverains d’exploiter ses ressources tout en maintenant une souveraineté partagée sur l’ensemble. En somme, la mer Caspienne est juridiquement… un peu des deux : une mer par son nom et ses usages, un lac par sa nature, et un compromis diplomatique par nécessité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 11, 2025 • 2min
Pourquoi le simple fait de sotcker du charbon peut être très dangereux ?
Le charbon, qu’il soit de bois ou de houille, a la particularité d’absorber l’oxygène de l’air et de s’oxyder lentement à sa surface. Cette réaction chimique, appelée oxydation exothermique, dégage de la chaleur. Si le tas de charbon est volumineux et mal ventilé, la chaleur ne peut pas se dissiper. Peu à peu, la température interne monte, jusqu’à atteindre le point où la matière s’enflamme d’elle-même — souvent autour de 150 à 200 °C. C’est ce qu’on appelle l’auto-inflammation.Ce risque augmente avec plusieurs facteurs :La granulométrie : les petits morceaux, voire la poussière de charbon, s’oxydent beaucoup plus vite que les blocs massifs.L’humidité : paradoxalement, un léger taux d’humidité favorise l’oxydation, car l’eau agit comme un catalyseur ; en revanche, un excès d’eau peut ralentir le processus.La compacité du tas : un amas dense limite la circulation d’air, ce qui empêche le refroidissement naturel.La chaleur ambiante : en été ou dans un local mal ventilé, le risque est multiplié.L’auto-échauffement se déroule souvent en plusieurs jours ou semaines, de manière insidieuse. Le charbon semble stable en surface, mais à l’intérieur, la température grimpe progressivement. Lorsque l’air atteint ces zones chaudes par des fissures ou des interstices, il alimente brusquement la combustion : le tas peut alors s’enflammer spontanément, sans aucune étincelle.Les conséquences peuvent être graves : incendies de dépôts, émissions de gaz toxiques (notamment du monoxyde de carbone), voire explosions dans les espaces clos. C’est pourquoi les charbonnages et centrales thermiques ont mis en place des protocoles stricts : stockage en couches minces, contrôle de la température interne, aération permanente, voire inertage à l’azote dans certains cas.Pour les particuliers, la prudence s’impose : il ne faut jamais entasser le charbon en gros tas dans un local fermé. Il est conseillé de le stocker en petites quantités, à l’abri de l’humidité mais dans un espace bien ventilé, et de remuer régulièrement le tas pour éviter l’accumulation de chaleur.En résumé, le charbon, même éteint, n’est pas une matière inerte : son contact prolongé avec l’air suffit, dans certaines conditions, à allumer un feu sans flamme ni étincelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 10, 2025 • 2min
Qu'est-ce que le test de la chaise bancale lors de l'entretien d'embauche ?
Le « test de la chaise bancale » est une épreuve informelle mais redoutée utilisée dans certains entretiens d’embauche pour évaluer la réaction d’un candidat dans une situation d’inconfort. Comme son nom l’indique, il s’agit littéralement d’une chaise instable, dont un pied est légèrement plus court que les autres, ou d’un siège volontairement inconfortable. Le but n’est pas de juger la posture du candidat, mais sa manière de réagir à un désagrément inattendu.Ce test appartient à la catégorie des épreuves de résistance psychologique. Il ne repose pas sur des critères objectifs, mais sur l’observation du comportement. L’employeur ou le recruteur cherche à voir si le candidat garde son calme, s’il tente de réparer la situation, s’il manifeste de la gêne, de l’agacement, ou au contraire de l’humour. En somme, ce n’est pas le confort qui est testé, mais la résilience émotionnelle et la gestion du stress.L’idée est de recréer une mini-crise, un moment de perte de contrôle, dans un contexte où le candidat ne s’y attend pas. Face à cette situation, plusieurs attitudes peuvent apparaître : certains s’enfoncent dans la chaise en serrant les dents, d’autres la réajustent naturellement, d’autres encore signalent poliment le problème. Le recruteur observe alors la spontanéité, la capacité à s’adapter, et surtout la manière dont la personne exprime une gêne. Dans les métiers de relation client, de management ou de vente, cette réaction en dit parfois plus qu’un CV.Ce type de test s’inscrit dans une mouvance plus large d’entretiens “non conventionnels”, popularisés dans les années 2000 par certaines entreprises américaines, comme Google ou Zappos, qui posaient des questions déstabilisantes du type : « Combien de balles de golf peut-on mettre dans un avion ? ». L’objectif est le même : sonder la personnalité, la créativité, et la réaction à l’imprévu.Toutefois, le test de la chaise bancale est controversé. Certains psychologues du travail estiment qu’il ne mesure rien de fiable et peut être perçu comme une forme de manipulation, voire d’humiliation. D’autres rappellent qu’un bon entretien doit mettre le candidat en confiance, non en déséquilibre. Dans les faits, ce genre de test tend à disparaître dans les grands groupes, mais il subsiste parfois dans les petites structures ou les secteurs où la personnalité compte autant que les compétences.En définitive, la « chaise bancale » est moins un test qu’un symbole : celui d’un monde du travail qui, au-delà des diplômes, cherche à jauger l’attitude, la souplesse et la capacité à rester digne, même quand tout vacille — littéralement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 7, 2025 • 3min
Quel auteur a inventé plus de 800 mots ?
Au XVIᵉ siècle, la langue française connaît une véritable explosion de créativité. Et l’un de ses plus grands architectes s’appelle François Rabelais. Médecin, humaniste, moine défroqué et écrivain, Rabelais est l’auteur des célèbres Gargantua et Pantagruel, œuvres truculentes où se mêlent satire, érudition et fantaisie. Mais il est aussi un inventeur de mots hors pair : on estime qu’il aurait créé ou popularisé plus de 800 mots français, dont certains sont encore en usage aujourd’hui.Rabelais faisait partie de cette génération d’humanistes qui, à la Renaissance, voulaient enrichir la langue française pour la hisser au niveau du latin et du grec. Son imagination linguistique servait autant la science que la comédie. Il puisait dans le latin (frugalité, hilarité), le grec (utopie, antiques), mais aussi dans des jeux de mots et inventions pures. Ainsi, il est à l’origine ou à l’origine probable de termes comme “pantagruélique” (démesuré, joyeusement excessif), “gargantuesque” (gigantesque, généreux), “dyspepsie”, “épithète”, ou encore “progression”.Ses créations ne relevaient pas du simple caprice : elles accompagnaient une vision du monde où la langue devait refléter l’abondance du savoir et de la vie. Son style foisonnant, parfois scatologique, associait un vocabulaire érudit à un humour populaire. En mélangeant les registres, Rabelais a donné au français une souplesse et une inventivité nouvelles, ouvrant la voie à des auteurs comme Molière ou Voltaire.Mais la richesse du français ne vient pas seulement de ses mots : elle réside aussi dans ses formes littéraires. Le mot “roman”, par exemple, est lui-même un héritage médiéval fascinant. À l’origine, vers le XIᵉ siècle, romanz désignait simplement la langue romane, c’est-à-dire le vieux français parlé par le peuple, par opposition au latin, réservé à l’Église et aux érudits.Les premiers “romanz” étaient donc des textes écrits en français pour être compris de tous : récits de chevaliers, contes et chansons de geste. Peu à peu, le terme a glissé du langage au genre : un “roman” n’était plus seulement une œuvre en langue vulgaire, mais une fiction narrative en prose.Ainsi, du romanz médiéval au roman moderne, et de Rabelais à nos écrivains contemporains, la langue française s’est construite par invention, audace et plaisir du mot. Entre néologismes savants et détournements populaires, elle reste, comme chez Rabelais, une fête de l’esprit et de la liberté. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 6, 2025 • 2min
Pourquoi Apple a déjà recommandé de faire tomber ses ordinateurs ?
Cela peut sembler absurde, mais c’est vrai : Apple a un jour recommandé de laisser tomber son ordinateur pour résoudre un problème technique. L’histoire remonte au début des années 1980, à l’époque de l’Apple III, l’un des plus grands échecs commerciaux de la marque — et un épisode fascinant de l’histoire de l’informatique.En 1980, Apple vient de connaître un immense succès avec l’Apple II. L’entreprise veut donc frapper encore plus fort avec une machine professionnelle, plus puissante et plus élégante. Le résultat : l’Apple III, présenté comme un ordinateur haut de gamme, conçu sans ventilateur (jugé trop bruyant) et sans ouvertures visibles, pour un design sobre et silencieux. Sauf que ce choix esthétique allait causer la perte de la machine.Rapidement après son lancement, les utilisateurs se plaignent de pannes étranges : l’ordinateur se fige, le texte à l’écran devient illisible, ou la machine refuse tout simplement de démarrer. Après enquête, les ingénieurs découvrent la cause : sans ventilation, la chaleur interne fait se dilater les composants. Or, les puces électroniques de la carte mère n’étaient pas soudées, mais simplement enfichées dans leurs supports. En chauffant, elles se soulevaient légèrement et perdaient le contact électrique.La solution officielle, consignée dans certains documents techniques d’Apple, a de quoi surprendre : pour rétablir la connexion, il suffisait de soulever l’ordinateur d’une dizaine de centimètres et de le laisser retomber sur une surface plane. Ce choc léger permettait de replacer les puces dans leur logement… jusqu’à la prochaine surchauffe.Cette “réparation par gravité” est devenue légendaire dans l’histoire de la marque. Elle symbolise à la fois l’audace et les excès d’Apple à ses débuts : vouloir un produit parfait sur le plan esthétique, quitte à en négliger la fiabilité technique.Malgré plusieurs révisions matérielles, l’Apple III resta un fiasco. Apple le retira discrètement du marché en 1984, après avoir vendu à peine 120 000 unités — bien loin du succès de son prédécesseur.Aujourd’hui encore, l’épisode de l’Apple III est cité dans les écoles d’ingénierie comme un cas d’école du compromis entre design et fonctionnalité. Et il rappelle qu’avant de devenir le géant du design technologique, Apple a aussi connu des débuts où la solution la plus “innovante” pouvait littéralement… tomber du ciel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 5, 2025 • 23min
D'où viennent exactement les noms de famille ?
Les noms de famille n’ont pas toujours existé. Pendant des siècles, dans la plupart des sociétés, on se contentait d’un seul prénom. Mais quand les populations ont commencé à croître, il est devenu difficile de distinguer tous les “Jean” ou “Pierre” d’un même village. C’est alors qu’ont commencé à apparaître, dès le Moyen Âge, les noms de famille, d’abord en Europe, pour préciser l’identité d’une personne. Et la plupart de ces noms viennent de quatre grandes origines : le métier, le lieu, la filiation et une caractéristique physique ou morale.1. Les noms issus du métierC’est l’une des sources les plus courantes. On désignait les gens par ce qu’ils faisaient : Jean le Boulanger, Pierre le Charpentier, Jacques le Berger. Avec le temps, ces surnoms sont devenus des noms de famille transmis à leurs enfants. En France, on retrouve par exemple Boulanger, Marchand, Charpentier, ou Berger. En anglais, cela a donné Smith (forgeron), Baker (boulanger) ou Taylor (tailleur).2. Les noms liés à un lieuD’autres personnes étaient identifiées par leur origine géographique. On disait Marie de Lyon ou Guillaume du Bois. Ces mentions sont devenues des noms de famille : Delacroix, Dupont, Dubois, Deschamps. En Italie, on trouve Da Vinci (“de Vinci”, le village natal de Léonard). Ces noms reflètent souvent l’endroit où vivait l’ancêtre — un pont, un champ, une rivière — et servent encore aujourd’hui de témoins de l’histoire locale.3. Les noms patronymiquesCertains noms viennent directement du prénom du père. En France, cela a donné Martin, Henry, ou Laurent. Mais dans d’autres langues, on l’exprime plus clairement : en anglais, Johnson signifie “fils de John”, Anderson “fils d’Andrew”. En Russie, Ivanov veut dire “fils d’Ivan”, et en Islande, ce système est encore vivant : le fils d’un homme nommé Olaf s’appellera Olafsson, et sa fille Olafsdóttir.4. Les noms descriptifs ou surnomsEnfin, beaucoup de noms de famille venaient d’un trait physique ou de caractère. Petit, Legrand, Lenoir, Leblanc, Fort, ou Lemoine décrivaient une particularité, parfois flatteuse, parfois moqueuse. En Allemagne, Klein signifie “petit”, et en Espagne, Delgado veut dire “mince”.Peu à peu, ces surnoms se sont transmis d’une génération à l’autre, devenant héréditaires à partir du XIVᵉ siècle environ. Ainsi, les noms de famille sont de véritables fossiles linguistiques : ils racontent l’origine, le métier ou le caractère de nos ancêtres, et forment une mémoire vivante de notre histoire collective. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 4, 2025 • 3min
Les gauchers sont-ils vraiment plus créatifs ?
L’idée que les gauchers seraient plus créatifs que les droitiers est ancienne, séduisante… mais scientifiquement controversée. Elle repose sur une intuition simpliste : si le cerveau gauche contrôle la main droite et le cerveau droit contrôle la main gauche — et que le cerveau droit serait “le siège de la créativité” — alors les gauchers, plus “droit cérébral”, devraient être plus imaginatifs. Mais la réalité, révélée par plusieurs études, est bien plus nuancée.Une étude publiée en 2009 par Shobe et al. dans la revue Brain and Cognition a testé cette hypothèse sur des étudiants américains. Les chercheurs ont mesuré leur “pensée divergente” — la capacité à produire des idées originales — et ont comparé droitiers, gauchers et “inconsistants” (ceux qui utilisent les deux mains selon la tâche). Résultat : les gauchers n’étaient pas systématiquement plus créatifs. En revanche, les personnes au faible degré de latéralisation (ni totalement droitières, ni totalement gauchères) obtenaient de meilleurs scores de créativité. Leur cerveau semblait mieux équilibré entre les deux hémisphères, favorisant des connexions inhabituelles entre des idées éloignées.Cette découverte a inspiré une hypothèse neurolinguistique : la communication interhémisphérique — facilitée par un corps calleux plus actif — pourrait être un atout pour la pensée créative. Autrement dit, ce n’est pas la main utilisée qui compte, mais la souplesse du cerveau à mobiliser ses deux côtés.Des recherches plus récentes, notamment une méta-analyse publiée en 2019, confirment ces nuances : il n’existe aucune corrélation stable entre la main dominante et les performances créatives. Les différences observées sont faibles, variables selon les tests, et largement influencées par d’autres facteurs : culture, environnement familial, éducation artistique, exposition à la nouveauté.Enfin, le cliché du “génie gaucher” vient aussi de l’histoire : Léonard de Vinci, Picasso, Mozart, ou Jimi Hendrix étaient gauchers, ce qui a renforcé l’idée d’un lien mystérieux entre gaucherie et talent. Mais statistiquement, la majorité des créateurs reconnus sont droitiers — simplement parce qu’ils sont plus nombreux.En somme, les gauchers ne sont pas plus créatifs par nature, mais leur cerveau légèrement différent peut favoriser une pensée moins conventionnelle chez certains individus. La créativité, elle, reste surtout une compétence entraînée, nourrie par la curiosité, l’ouverture et la diversité des expériences — bien plus que par la main que l’on utilise pour écrire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 3, 2025 • 3min
Pourquoi des pigeons ont failli changer le cours de la Seconde Guerre mondiale ?
Le « Projet Pigeon ». C'est l'une des idées les plus insolites de la Seconde Guerre mondiale — une à mi-chemin entre le génie et la folie. Il s’agit d’un programme américain secret lancé en 1940 par le célèbre psychologue comportementaliste B. F. Skinner, qui visait à utiliser des pigeons pour guider des bombes. Oui, littéralement.À l’époque, les systèmes de guidage électronique étaient encore rudimentaires. Skinner, spécialiste du conditionnement opérant, pensait qu’un animal entraîné pouvait accomplir des tâches de précision mieux que les machines disponibles. Son idée : dresser des pigeons à reconnaître visuellement une cible (comme un navire ennemi) et à corriger la trajectoire d’une bombe en vol.Le fonctionnement était ingénieux. Dans le nez de la bombe, Skinner installa un petit compartiment équipé d’un système optique projetant l’image de la cible sur un écran. Le pigeon, placé à l’intérieur, était entraîné à picorer l’image du bateau au centre de l’écran. Si la bombe déviait, l’image se déplaçait ; le pigeon, en corrigeant sa position de piquage, envoyait des signaux électriques qui ajustaient les ailerons de direction. En théorie, l’oiseau guidait la bombe jusqu’à la cible.Skinner dressa plusieurs pigeons avec succès, à l’aide de récompenses alimentaires. Les tests en laboratoire furent étonnamment concluants : les oiseaux parvenaient à maintenir la cible dans le viseur avec une grande précision, même face à des images changeantes. Le projet fut financé par le National Defense Research Committee, et baptisé officiellement Project Pigeon.Mais le Pentagone n’y crut jamais vraiment. Malgré les bons résultats expérimentaux, les militaires jugèrent le concept trop farfelu et imprévisible pour une guerre moderne. En 1944, le projet fut abandonné, remplacé par des programmes électroniques plus prometteurs. Skinner, frustré, déclara plus tard : « Les militaires ne prenaient pas les pigeons au sérieux. Ils avaient tort. »Ironie du sort, l’idée ne mourut pas complètement. En 1948, la Navy relança brièvement le concept sous le nom de Project ORCON (Organic Control), avant de l’abandonner définitivement en 1953.Aujourd’hui, le Project Pigeon reste un épisode fascinant de l’histoire des sciences : une tentative sincère d’appliquer la psychologie animale à la technologie militaire. Et une preuve que, dans la guerre comme dans la recherche, l’imagination humaine n’a parfois aucune limite. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.


