Choses à Savoir SCIENCES

Follow Choses à Savoir SCIENCES
Share on
Copy link to clipboard

Développez facilement votre culture scientifique, technologique et internet avec un podcast par jour !

Choses à Savoir


    • Feb 16, 2026 LATEST EPISODE
    • weekdays NEW EPISODES
    • 2m AVG DURATION
    • 2,992 EPISODES


    More podcasts from Choses à Savoir

    Search for episodes from Choses à Savoir SCIENCES with a specific topic:

    Latest episodes from Choses à Savoir SCIENCES

    Pourquoi les cellules se divisent-elles ?

    Play Episode Listen Later Feb 16, 2026 2:13


    À l'âge adulte, le corps humain compte environ 37 trillions de cellules. Pour comprendre pourquoi elles se divisent (certaines tout au long de leur vie comme les cellules de la peau, ou de l'intestin, il faut revenir à la fonction la plus fondamentale du vivant : se maintenir, se réparer et se transmettre. La division cellulaire n'est pas un détail technique de la biologie, c'est le mécanisme central qui rend la vie possible à toutes les échelles.La première raison est la croissance. Un organisme pluricellulaire, comme un humain, commence par une seule cellule : l'œuf fécondé. Pour devenir un corps composé de dizaines de milliers de milliards de cellules, il n'existe qu'une solution : se diviser encore et encore. Chaque division double le nombre de cellules, permettant la construction progressive des tissus, des organes, puis de l'organisme entier. Sans division cellulaire, aucun être complexe ne pourrait exister.La deuxième raison est le renouvellement. Les cellules ne sont pas immortelles. Elles s'usent, accumulent des dommages, ou sont simplement programmées pour mourir. Dans le corps humain, certaines cellules vivent très longtemps, mais d'autres sont renouvelées en permanence. Les cellules de la peau, par exemple, sont remplacées en quelques semaines. Les globules rouges vivent environ 120 jours. La division cellulaire permet donc de maintenir l'intégrité des tissus, en remplaçant continuellement ce qui disparaît.Troisième raison : la réparation. Lorsqu'un tissu est endommagé — une coupure, une brûlure, une fracture — ce sont les divisions cellulaires qui rendent la cicatrisation possible. Les cellules voisines se multiplient pour combler la perte, reconstruire la structure et restaurer la fonction. Sans cette capacité à se diviser, la moindre blessure serait irréversible.Mais il existe une raison encore plus fondamentale : la transmission de l'information génétique. Avant de se diviser, une cellule copie son ADN avec une extrême précision. La division permet ainsi de transmettre à chaque cellule fille une copie complète du programme biologique. C'est ce mécanisme qui assure la stabilité des espèces au fil des générations, mais aussi la reproduction chez les organismes unicellulaires, pour lesquels se diviser, c'est littéralement se reproduire.Enfin, la division cellulaire est strictement contrôlée. Une cellule ne se divise pas “par envie”, mais parce qu'elle reçoit des signaux précis : besoins de l'organisme, disponibilité des nutriments, absence de dommages génétiques. Lorsque ce contrôle échoue, les divisions deviennent anarchiques. C'est exactement ce qui se produit dans le cancer : des cellules se divisent sans raison fonctionnelle, au détriment de l'organisme.En résumé, les cellules se divisent pour grandir, durer, réparer et transmettre la vie. La division cellulaire n'est pas un accident de l'évolution : c'est l'un des piliers invisibles sur lesquels repose toute la biologie du vivant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi le chemin le plus court n'est pas le plus rapide ?

    Play Episode Listen Later Feb 15, 2026 2:35


    En 1696, un défi mathématique bouleverse l'Europe savante. Une question simple, presque enfantine, est posée publiquement : par quel chemin un objet tombe-t-il le plus vite d'un point à un autre, sous l'effet de la gravité, sans frottement ? Ce problème prend un nom étrange, venu du grec : brachistochrone, littéralement « le temps le plus court ».À première vue, la réponse semble évidente. Le chemin le plus rapide devrait être la ligne droite, puisqu'il est le plus court. Pourtant, cette intuition est fausse. Et c'est précisément ce paradoxe qui rend le défi si célèbre.Le problème est formulé par Johann Bernoulli, l'un des plus brillants mathématiciens de son époque. Il lance un appel à tous les savants d'Europe. Parmi ceux qui relèvent le défi figurent Isaac Newton, Gottfried Wilhelm Leibniz et Jacob Bernoulli. Newton, raconte-t-on, reçoit l'énoncé en fin de journée et envoie sa solution… le lendemain matin.La solution est contre-intuitive : le chemin le plus rapide n'est ni une droite, ni un arc de cercle, mais une cycloïde. Il s'agit de la courbe décrite par un point situé sur une roue qui roule sans glisser. Cette trajectoire plonge d'abord très rapidement vers le bas, afin que l'objet acquière vite une grande vitesse, avant de s'adoucir progressivement à l'approche du point final.Pourquoi cela fonctionne-t-il ? Parce que le temps de parcours dépend non seulement de la distance, mais surtout de la vitesse acquise. En descendant plus brutalement au départ, l'objet gagne rapidement de l'énergie cinétique, ce qui lui permet de parcourir la suite du trajet beaucoup plus vite, même si le chemin est plus long que la ligne droite.Ce résultat marque un tournant majeur dans l'histoire des sciences. Le défi de la brachistochrone contribue à la naissance du calcul des variations, une branche des mathématiques qui cherche à optimiser des quantités comme le temps, l'énergie ou la distance. Ces outils seront ensuite essentiels en mécanique, en optique, en ingénierie… et même dans l'économie moderne.La brachistochrone a aussi une portée pédagogique remarquable. Elle montre que la nature n'obéit pas toujours à notre intuition, et que l'optimal n'est pas forcément le plus simple. On retrouve ce principe dans des domaines aussi variés que la conception des montagnes russes, la trajectoire des satellites ou l'optimisation des réseaux.Plus de trois siècles plus tard, ce défi reste un chef-d'œuvre intellectuel : une question apparemment anodine, capable de révéler toute la profondeur des lois du mouvement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les pharaons ont-ils simplement rénové la Grande Pyramide ?

    Play Episode Listen Later Feb 12, 2026 2:30


    La Grande Pyramide de Gizeh est traditionnellement attribuée au pharaon Khéops, vers 2600 avant notre ère. Ce consensus archéologique repose sur des inscriptions, des datations indirectes et le contexte historique de l'Ancien Empire égyptien. Pourtant, une hypothèse récente vient bousculer cette chronologie bien établie : et si les pharaons n'avaient pas construit la pyramide, mais simplement restauré un monument beaucoup plus ancien ?Cette idée est défendue par Alberto Donini, ingénieur à l'University of Bologna. Dans une étude encore préliminaire et non validée par les pairs, il suggère que la Grande Pyramide pourrait remonter à une période antérieure à l'émergence de la civilisation égyptienne classique.Son raisonnement s'appuie sur plusieurs observations. D'abord, certaines parties internes du monument présentent des traces d'érosion et d'altération qui, selon lui, seraient difficiles à expliquer par seulement 4 600 ans d'exposition. Il évoque notamment des formes d'usure qui pourraient indiquer un contact prolongé avec de grandes quantités d'eau, dans un contexte climatique beaucoup plus humide que celui de l'Égypte pharaonique connue.Autre argument : l'extraordinaire précision géométrique de la pyramide. L'alignement quasi parfait sur les points cardinaux et les proportions mathématiques remarquables suscitent depuis longtemps l'admiration. Pour Donini, ce niveau de maîtrise pourrait provenir d'un héritage technologique antérieur, transmis ou redécouvert par les bâtisseurs égyptiens, plutôt que d'une invention purement locale et soudaine.Dans ce scénario, les pharaons auraient trouvé une structure déjà existante, partiellement endommagée, qu'ils auraient consolidée, habillée de nouveaux blocs et intégrée à leur propre tradition religieuse, en la transformant en tombe royale. Autrement dit, Khéops n'aurait pas été le constructeur originel, mais le grand rénovateur d'un édifice hérité.Cependant, cette hypothèse reste hautement controversée. Les égyptologues soulignent que les carrières identifiées, les outils retrouvés, les graffitis de chantiers et l'organisation logistique connue de l'Ancien Empire concordent fortement avec une construction sous le règne de Khéops. De plus, aucune preuve matérielle indiscutable ne démontre l'existence d'une civilisation antérieure capable d'ériger un tel monument sur le plateau de Gizeh.Ce débat illustre un aspect essentiel de la science : la remise en question permanente. Proposer une idée audacieuse ne suffit pas ; elle doit être testée, vérifiée et confrontée aux données existantes. Pour l'instant, l'hypothèse d'une pyramide pré-pharaonique demeure spéculative.Mais elle a le mérite de rappeler à quel point la Grande Pyramide reste un objet de fascination et de mystère. Même après des siècles d'études, ce monument continue de nourrir des questions fondamentales sur les capacités techniques, l'organisation sociale et l'histoire profonde de l'humanité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Quelle pratique affame les tumeurs cancéreuses ?

    Play Episode Listen Later Feb 11, 2026 2:20


    Pendant des décennies, la science a accumulé des preuves solides montrant que l'activité physique régulière réduit le risque de développer plusieurs types de cancers. Pourtant, une question demeurait : comment, concrètement, le mouvement protège-t-il nos cellules ? Une équipe de chercheurs de l'Yale University a récemment mis en lumière un mécanisme fascinant : l'exercice physique affame littéralement les tumeurs.Pour comprendre cette découverte, il faut s'intéresser au carburant principal des cellules : le glucose, un sucre issu de notre alimentation. Les cellules cancéreuses en sont particulièrement friandes. Elles consomment d'énormes quantités d'énergie afin de soutenir leur croissance rapide. C'est d'ailleurs cette voracité qui est exploitée dans certains examens d'imagerie médicale, où l'on injecte du glucose marqué pour repérer les zones anormalement actives.Lorsque nous faisons du sport, un phénomène majeur se produit : les muscles deviennent extrêmement gourmands en énergie. Pour se contracter, ils puisent massivement dans le glucose circulant dans le sang. Cette captation est si importante qu'elle provoque une véritable compétition entre les muscles et les autres tissus de l'organisme.Or, les chercheurs ont observé que, durant l'effort, les muscles gagnent cette compétition. Ils captent une grande partie du glucose disponible, ce qui laisse moins de carburant accessible aux cellules cancéreuses. Résultat : privées d'une ressource essentielle, ces cellules voient leur croissance ralentir, et certaines finissent même par mourir.Ce mécanisme va au-delà d'un simple « manque d'énergie ». Les scientifiques ont constaté que l'environnement métabolique créé par l'exercice modifie profondément le comportement des tumeurs. Les voies biologiques qui favorisent leur prolifération deviennent moins actives, tandis que des signaux associés au stress cellulaire augmentent. En clair, l'effort physique transforme l'organisme en un terrain beaucoup moins favorable au développement du cancer.Autre point important : cet effet n'est pas réservé aux sportifs de haut niveau. Des activités modérées, comme la marche rapide, le vélo ou la natation, suffisent à déclencher cette redistribution de l'énergie. Ce qui compte avant tout, c'est la régularité.Cette découverte ouvre des perspectives majeures. Elle renforce l'idée que l'activité physique n'est pas seulement un outil de prévention, mais pourrait aussi devenir un complément thérapeutique aux traitements existants. En association avec la chimiothérapie, l'immunothérapie ou la radiothérapie, le sport pourrait contribuer à fragiliser les tumeurs en réduisant leur accès aux ressources énergétiques.En résumé, bouger ne se contente pas de renforcer le cœur ou les muscles : cela modifie profondément la façon dont l'énergie circule dans le corps. Et dans ce nouvel équilibre, ce sont les cellules cancéreuses qui se retrouvent perdantes. Une raison supplémentaire de considérer l'activité physique comme un véritable acte de santé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi faut-il encourager les enfants à compter sur leurs doigts ?

    Play Episode Listen Later Feb 10, 2026 2:37


    Compter sur ses doigts est souvent perçu comme une habitude enfantine dont il faudrait se défaire rapidement. Pourtant, cette stratégie intuitive joue un rôle fondamental dans l'apprentissage des mathématiques. Une étude récente menée par Jennifer Way et Katherine Cartwright, chercheuses à l'University of Sydney, montre que l'usage des doigts constitue un véritable atout pour le développement du sens du nombre, en particulier chez les enfants de moins de sept ans.Dès les premières années de vie, les enfants apprennent à associer des quantités à des symboles. Or, les chiffres sont abstraits : le « 5 » écrit ne ressemble en rien à cinq objets réels. Les doigts, eux, offrent une représentation concrète et immédiatement disponible. Lorsque l'enfant lève trois doigts, il ne voit pas seulement un symbole, il perçoit physiquement la quantité. Cette correspondance directe aide à construire des bases solides pour comprendre ce que représentent réellement les nombres.L'étude montre que les enfants qui utilisent régulièrement leurs doigts développent souvent une meilleure précision dans les petites additions et soustractions. Les doigts servent alors de support temporaire, une sorte de « mémoire externe » qui allège la charge cognitive. Au lieu de tout garder en tête, l'enfant peut s'appuyer sur ses mains pour visualiser les opérations, ce qui libère des ressources mentales pour réfléchir au raisonnement.Un autre avantage important est le lien entre mouvement et cognition. Le cerveau humain est fortement influencé par les actions du corps. Bouger ses doigts pendant qu'on compte active simultanément des zones impliquées dans la motricité et dans le traitement des nombres. Cette double activation renforce les connexions neuronales associées au calcul et favorise une compréhension plus profonde.Contrairement à une idée répandue, compter sur ses doigts ne retarde pas l'accès au calcul mental. Au contraire, il constitue une étape naturelle vers l'abstraction. Avec le temps et l'entraînement, l'enfant n'a plus besoin de lever physiquement les doigts, mais il conserve une représentation mentale interne des quantités, héritée de cette expérience concrète.Les chercheuses soulignent cependant que cette méthode est surtout bénéfique avant l'âge de sept ans. Passé ce stade, l'objectif n'est pas d'interdire les doigts, mais d'accompagner progressivement l'enfant vers des stratégies plus mentales, en respectant son rythme.Encourager un enfant à compter sur ses doigts, ce n'est donc pas encourager une « facilité », mais soutenir un mécanisme naturel d'apprentissage. Les doigts sont les premiers outils mathématiques de l'être humain. Les accepter comme tels, c'est offrir aux enfants une base solide pour construire, plus tard, des compétences numériques durables et confiantes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi les étoiles paraissent-elles plus brillantes en hiver ?

    Play Episode Listen Later Feb 9, 2026 1:55


    Lorsque l'hiver arrive dans l'hémisphère nord, beaucoup de personnes ont la même impression : le ciel nocturne semble plus spectaculaire. Les étoiles paraissent plus nombreuses, plus nettes, parfois même plus scintillantes. Pourtant, leur luminosité intrinsèque ne change pas au fil des saisons. Ce sont surtout les conditions d'observation depuis la Terre qui évoluent, et elles deviennent particulièrement favorables en hiver.En hiver, l'air est généralement plus froid et plus sec. Or, la vapeur d'eau contenue dans l'atmosphère agit comme un filtre : elle diffuse et absorbe une partie de la lumière provenant des étoiles. Quand l'air contient moins d'humidité, il devient plus transparent, ce qui permet à davantage de lumière stellaire d'atteindre nos yeux.De plus, les basses températures réduisent les mouvements turbulents de l'air. Ces turbulences, fréquentes en été lorsque les masses d'air chaud et froid se mélangent, déforment légèrement les rayons lumineux et donnent l'impression que les étoiles « tremblent » ou perdent en netteté. En hiver, l'atmosphère est souvent plus stable, ce qui améliore la précision et la luminosité apparente des étoiles.Les beaux jours favorisent la présence de pollen, de poussières et de polluants en suspension dans l'air. Ces particules diffusent la lumière artificielle et naturelle, créant une sorte de voile lumineux qui affaiblit le contraste du ciel nocturne. En hiver, l'air est souvent plus « propre », notamment après le passage de systèmes météorologiques qui chassent les particules vers le sol. Résultat : un fond de ciel plus sombre et des étoiles qui ressortent davantage.Un autre facteur évident joue en faveur de l'hiver : la durée de la nuit. Les nuits plus longues permettent d'observer le ciel dans des conditions de noirceur plus marquées, loin des lueurs du crépuscule. Plus le ciel est sombre, plus l'œil humain est capable de percevoir des étoiles faibles, ce qui renforce l'impression de richesse et de brillance du ciel.L'hiver correspond aussi à l'apparition de certaines constellations parmi les plus spectaculaires. Orion, par exemple, abrite plusieurs étoiles très brillantes. Sirius, l'étoile la plus lumineuse du ciel nocturne, est également une vedette des nuits hivernales. La présence de ces astres remarquables contribue fortement à l'impression globale d'un ciel plus éclatant.En résumé, les étoiles ne produisent pas plus de lumière en hiver. Elles paraissent plus brillantes parce que l'atmosphère laisse mieux passer leur lumière, que le ciel est plus sombre, et que des étoiles intrinsèquement très lumineuses dominent la voûte céleste. L'hiver agit ainsi comme un « nettoyeur » naturel du ciel, offrant aux observateurs un spectacle cosmique particulièrement saisissant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Qu'est-ce que la “propulsion autophage” ?

    Play Episode Listen Later Feb 8, 2026 3:11


    La propulsion autophage est un concept expérimental en ingénierie spatiale qui désigne un type de moteur-fusée capable de consommer une partie de sa propre structure pour produire de la poussée. Autrement dit, le moteur utilise certains de ses composants solides à la fois comme éléments de structure et comme carburant.Dans une fusée classique, le carburant et le comburant sont stockés dans des réservoirs distincts, puis acheminés vers une chambre de combustion à l'aide de pompes ou de systèmes sous pression. Ces réservoirs, canalisations et structures représentent une masse importante qui ne participe pas directement à la propulsion. La propulsion autophage cherche à réduire cette masse « inutile » en fusionnant plusieurs fonctions en une seule.Le principe repose sur l'utilisation d'un matériau solide, souvent un polymère spécifique, qui constitue la paroi du moteur. Sous l'effet de la chaleur interne, ce matériau est progressivement fondu ou décomposé chimiquement. La matière obtenue est ensuite dirigée vers la chambre de combustion, où elle est mélangée à un oxydant, généralement stocké dans un réservoir séparé. Le mélange brûle, produisant des gaz chauds expulsés par la tuyère, ce qui génère la poussée. À mesure que le moteur fonctionne, ses parois sont donc lentement consommées.Ce fonctionnement explique l'appellation « autophage », qui signifie littéralement « qui se mange soi-même ».Ce concept présente plusieurs avantages théoriques. D'abord, il permet une réduction importante de la masse totale du lanceur, car une partie de la structure devient utile à la propulsion. Ensuite, il simplifie l'architecture du moteur, en diminuant le nombre de réservoirs, de conduites et de composants complexes. Enfin, cette approche pourrait améliorer le rapport entre la masse de carburant et la masse totale, ce qui est un facteur clé pour augmenter les performances des fusées.La propulsion autophage se rapproche des moteurs hybrides, qui combinent un carburant solide et un oxydant liquide, mais avec une différence majeure : dans un moteur hybride classique, le carburant solide est un bloc distinct, alors que dans un moteur autophage, la structure elle-même joue ce rôle.On peut citer le cas de la start-up française Alpha Impulsion, qui se distingue par le développement d'une technologie de propulsion autophage appliquée aux lanceurs spatiaux. L'entreprise mise sur des matériaux et des procédés permettant au moteur de consommer sa propre structure de manière contrôlée, avec l'objectif de réduire la masse des systèmes, de limiter les déchets et d'abaisser l'empreinte environnementale des lancements. Selon Alpha Impulsion, cette approche pourrait contribuer à rendre l'accès à l'espace à la fois plus économique et plus durable, en simplifiant la conception des fusées tout en améliorant leur efficacité globale. Malgré son potentiel, cette technologie reste au stade de la recherche. Plusieurs défis techniques subsistent, notamment le contrôle précis de la vitesse de consommation du matériau, la stabilité de la combustion et la garantie de la solidité mécanique du moteur pendant que sa structure s'amincit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi ressent-on une sensation de chute après le décollage ?

    Play Episode Listen Later Feb 5, 2026 2:11


    Juste après le décollage, beaucoup de passagers ressentent une sensation déroutante : l'impression que l'avion, après avoir grimpé, se met soudainement à redescendre. Certains parlent même d'une « chute » quelques dizaines de secondes après avoir quitté le sol. Pourtant, du point de vue de la physique, l'avion continue bel et bien de monter. Cette impression est une illusion sensorielle, née d'un décalage entre ce que font réellement l'appareil et ce que perçoit notre corps.Commençons par le déroulement d'un décollage. Lorsqu'un avion quitte la piste, les moteurs délivrent une poussée maximale pour atteindre la vitesse nécessaire à l'envol. L'appareil adopte ensuite un angle de montée relativement prononcé afin de gagner rapidement de l'altitude. Cette phase initiale est énergivore, mais indispensable pour s'éloigner du sol et des obstacles.Environ 20 à 40 secondes après le décollage, les pilotes réduisent volontairement la puissance des moteurs. Cette étape, parfaitement normale, s'appelle la réduction de poussée ou « thrust reduction ». Elle vise à préserver les moteurs, diminuer le bruit et optimiser la consommation de carburant. L'avion continue de grimper, mais avec une accélération moindre.C'est précisément ce changement qui trompe notre cerveau. Pendant la forte accélération initiale, notre corps est plaqué contre le siège. Lorsque la poussée diminue, cette pression se relâche légèrement. Le cerveau interprète alors ce relâchement comme une perte d'altitude, alors qu'il s'agit simplement d'une variation d'accélération.À cela s'ajoute le rôle central de l'oreille interne, et plus précisément du système vestibulaire. Ce système est chargé de détecter les mouvements et les accélérations de la tête. Il fonctionne très bien pour les mouvements courants, mais il est facilement trompé dans des environnements inhabituels comme un avion. Lorsqu'une accélération change brusquement, l'oreille interne peut envoyer au cerveau un signal erroné suggérant une descente.La vision joue également un rôle. Dans un avion, surtout de nuit ou par temps couvert, il n'y a souvent aucun repère visuel extérieur permettant de confirmer la montée. Privé d'indices visuels, le cerveau se fie davantage aux sensations internes, plus sujettes à l'erreur.Il existe même un nom pour ce type d'illusion : l'illusion somatogravique. Elle correspond à une mauvaise interprétation des accélérations linéaires comme des variations d'orientation ou d'altitude.En résumé, l'avion ne tombe pas après le décollage. Il poursuit son ascension, mais avec une puissance moteur réduite. La sensation de chute est une construction de notre cerveau, prise au piège par ses propres capteurs biologiques. Une preuve de plus que, face à la physique du vol, nos sens ne sont pas toujours des instruments fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Par où fond l'Antarctique ?

    Play Episode Listen Later Feb 4, 2026 2:23


    Quand on imagine la fonte de l'Antarctique, on pense spontanément à une glace qui disparaît par le dessus, sous l'effet de l'air plus chaud. Pourtant, la réalité est plus complexe : l'Antarctique fond en grande partie par le dessous. Et ce processus discret, invisible depuis la surface, joue un rôle majeur dans l'accélération de la perte de glace.La calotte glaciaire antarctique repose sur un socle rocheux irrégulier. Dans de nombreuses régions, ce socle se situe même sous le niveau de la mer. Entre la roche et la glace circule de l'eau liquide, formant un immense réseau de rivières et de lacs sous-glaciaires. Cette eau provient principalement de deux sources : la chaleur géothermique émise par la Terre et la pression énorme exercée par la glace elle-même, qui abaisse le point de fusion.Cette fine couche d'eau agit comme un lubrifiant. Elle réduit la friction entre la glace et le sol, permettant aux glaciers de glisser plus facilement vers l'océan. Plus l'eau est abondante, plus la glace se déplace rapidement. Et lorsque ces glaciers atteignent la mer, ils contribuent directement à l'élévation du niveau des océans.À cela s'ajoute un autre mécanisme clé : l'intrusion d'eaux océaniques relativement chaudes sous les plateformes de glace flottantes. Autour de l'Antarctique, certaines masses d'eau profondes sont quelques degrés plus chaudes que l'eau de surface. Elles s'infiltrent sous les plateformes glaciaires et provoquent une fonte basale, c'est-à-dire par le dessous. Ce phénomène amincit la glace, la fragilise et facilite le détachement d'icebergs.Longtemps, ces processus ont été difficiles à quantifier, car ils se déroulent sous plusieurs kilomètres de glace. Mais des chercheurs ont récemment développé un modèle informatique de nouvelle génération capable de simuler, à l'échelle du continent entier, la circulation de l'eau sous-glaciaire et son interaction avec le mouvement de la glace. Ce modèle combine données satellitaires, topographie du socle, température, pression et dynamique des glaciers.Les résultats montrent que l'eau sous-glaciaire ne s'écoule pas au hasard. Elle suit des chemins organisés, influencés par les pentes du terrain et l'épaisseur de la glace. Ces flux contrôlent directement la vitesse des glaciers. Dans certaines régions, un léger changement dans la distribution de l'eau peut suffire à accélérer fortement l'écoulement vers la mer.En résumé, l'Antarctique ne fond pas seulement en surface : il fond par en dessous, sous l'effet conjoint de la chaleur interne de la Terre et des eaux océaniques plus chaudes. Comprendre ces mécanismes est essentiel, car ils conditionnent la stabilité future de la calotte glaciaire et donc l'ampleur de la montée des océans dans les décennies à venir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi les objets se brisent-ils de la même façon ?

    Play Episode Listen Later Feb 3, 2026 2:42


    Lorsqu'un objet se brise, notre impression immédiate est celle du chaos : des morceaux de tailles variées, projetés dans toutes les directions, sans logique apparente. Pourtant, qu'il s'agisse d'un verre qui éclate, d'un sucre que l'on écrase ou d'une bulle de savon qui disparaît, ces phénomènes obéissent à des règles étonnamment similaires. C'est ce que révèle une avancée récente en physique : la fragmentation suit une loi universelle.Pour comprendre cela, il faut d'abord s'intéresser à la notion de contraintes internes. Tous les matériaux, même les plus solides, contiennent des défauts microscopiques : fissures invisibles, zones plus fragiles, irrégularités dans leur structure. Lorsqu'une force est appliquée — choc, pression, tension — l'énergie se propage dans l'objet sous forme d'ondes mécaniques. Ces ondes se concentrent naturellement autour des défauts, où la rupture commence.Ce qui est remarquable, c'est que la façon dont l'énergie se répartit dans le matériau détermine directement la taille et le nombre des fragments produits. Un physicien français a récemment proposé une équation capable de décrire cette répartition, quel que soit l'objet étudié. Verre, céramique, sucre, métal mince ou même bulles de liquide : tous suivent la même courbe statistique.Cette courbe montre que les petits fragments sont toujours très nombreux, tandis que les gros morceaux sont beaucoup plus rares. Autrement dit, il existe une relation mathématique stable entre la taille d'un fragment et sa probabilité d'apparition. Ce type de relation est appelé une loi d'échelle : on retrouve la même forme de distribution, que l'on casse un grain de sucre ou un bloc de roche.Pourquoi une telle universalité ? Parce que, au moment de la rupture, le matériau n'« hésite » pas. Dès que la contrainte dépasse un seuil critique, un réseau de fissures se propage à grande vitesse, se ramifie et se croise. Ce processus de propagation est gouverné par des équations fondamentales de la mécanique et de la physique des matériaux, indépendantes de la nature précise de l'objet.Même une bulle de savon suit cette logique. Lorsqu'elle éclate, la fine membrane liquide se déchire en multiples filaments, qui se fragmentent à leur tour en microgouttelettes. Là encore, la distribution des tailles des gouttes correspond à la même loi que celle observée pour des solides.Cette découverte a des implications concrètes. Elle permet d'améliorer la conception de matériaux résistants aux chocs, de mieux comprendre l'érosion des roches, ou encore d'optimiser des procédés industriels comme le broyage et le concassage.En résumé, si un objet semble se briser « toujours de la même façon », ce n'est pas par hasard. Derrière le désordre visible se cache un ordre mathématique profond : une loi universelle de la fragmentation, qui révèle que le chaos, en physique, est souvent bien plus organisé qu'il n'y paraît. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Où Dieu se trouve-t-il dans l'Univers ?

    Play Episode Listen Later Feb 2, 2026 2:09


    La question « Où se trouve Dieu dans l'Univers ? » traverse l'histoire humaine depuis des millénaires. Religieuse, philosophique, mais aussi scientifique, elle touche à notre besoin profond de situer l'infini dans un cadre compréhensible. Récemment, un ancien physicien de Harvard, le Dr Michael Guillén, a relancé le débat en avançant une idée spectaculaire : Dieu pourrait avoir une localisation précise dans l'espace.Selon lui, des calculs issus de modèles cosmologiques conduiraient à situer Dieu à environ 439 milliards de milliards de kilomètres de la Terre, une distance vertigineuse qui dépasse largement notre capacité d'imagination. L'argument repose sur une réflexion autour des limites observables de l'Univers et de l'idée qu'au-delà de ce que nous pouvons mesurer, il existerait une frontière ultime, assimilée à un point d'origine ou de transcendance.Cette proposition intrigue, car elle semble donner une « adresse » à une entité traditionnellement décrite comme immatérielle, éternelle et omniprésente. Or, c'est précisément là que le problème apparaît.Du point de vue de la physique moderne, l'Univers n'est pas une structure fixe avec un centre clairement défini. Depuis les travaux d'Edwin Hubble au XXᵉ siècle, nous savons que l'Univers est en expansion : toutes les galaxies s'éloignent les unes des autres. Mais cette expansion ne part pas d'un point central comme une explosion classique. Chaque région de l'espace s'étire, ce qui signifie qu'il n'existe pas de « milieu » absolu de l'Univers.Autrement dit, parler d'un endroit précis où se situerait Dieu pose une difficulté majeure : l'espace lui-même est en mouvement, et ses dimensions évoluent constamment. Une distance calculée aujourd'hui n'aurait donc pas de valeur fixe dans le temps cosmique.De plus, la science ne peut étudier que ce qui est mesurable. Les instruments observent des particules, des champs, de l'énergie. Dieu, par définition théologique, échappe à ces catégories. Le placer quelque part dans l'espace revient à le transformer en objet physique, ce qui contredit la conception dominante des grandes religions, pour lesquelles Dieu est hors de l'espace et du temps.L'hypothèse de Michael Guillén peut alors être comprise moins comme une affirmation scientifique stricte que comme une métaphore : une tentative de traduire en langage mathématique une idée spirituelle, celle d'un principe premier situé au-delà du monde observable.Finalement, la science répond surtout à une chose : elle ne sait pas localiser Dieu. Elle peut décrire l'âge de l'Univers, sa taille approximative, ses lois fondamentales, mais elle s'arrête aux portes du sens ultime.La question « Où est Dieu ? » demeure donc, pour l'instant, du domaine de la foi et de la philosophie. Peut-être que, plutôt que d'être quelque part dans l'Univers, Dieu serait — pour ceux qui y croient — ce qui rend l'Univers possible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi les neurones pourraient servir de carte d'identité ?

    Play Episode Listen Later Feb 1, 2026 2:47


    Et si, demain, votre mot de passe le plus sûr n'était plus votre visage, votre doigt… mais votre cerveau ? Cette idée, qui relevait encore récemment de la science-fiction, est en train de devenir une réalité grâce à un nouveau champ de recherche : l'identification neuronale.L'identification neuronale repose sur un principe simple en apparence : chaque cerveau produit une activité électrique unique. Lorsque nous pensons, regardons une image ou réagissons à un stimulus, des milliards de neurones s'activent selon des schémas spécifiques. Or, ces schémas varient d'un individu à l'autre, un peu comme une signature invisible. L'objectif est donc de transformer cette activité cérébrale en identifiant biométrique.Concrètement, cette technologie utilise des capteurs capables d'enregistrer des signaux cérébraux, souvent via des électroencéphalogrammes, ou EEG. L'utilisateur porte un casque ou un dispositif léger qui capte les ondes émises par son cerveau pendant qu'il effectue une tâche simple : regarder une forme, écouter un son, ou se concentrer sur une image. Ces données sont ensuite analysées par des algorithmes d'intelligence artificielle, qui extraient des caractéristiques stables propres à chaque personne.C'est précisément l'approche développée par la start-up française Yneuro avec son système Neuro ID, présenté comme la première solution d'authentification biométrique fondée sur l'activité cérébrale. L'ambition est claire : proposer une alternative aux méthodes actuelles comme les empreintes digitales, la reconnaissance faciale ou l'iris.Pourquoi chercher à dépasser ces technologies déjà très répandues ? Parce qu'elles ont des failles. Un visage peut être copié à partir d'une photo, une empreinte digitale peut être reproduite, et les bases de données biométriques peuvent être piratées. Le cerveau, lui, est beaucoup plus difficile à imiter. Les signaux neuronaux sont dynamiques, complexes, et quasiment impossibles à deviner sans être physiquement la personne concernée.Autre avantage majeur : l'identification neuronale pourrait permettre une authentification dite « vivante ». Autrement dit, le système ne vérifie pas seulement une caractéristique statique, mais une activité cérébrale en temps réel, ce qui réduit fortement les risques d'usurpation.Pour autant, cette technologie ne rendra pas immédiatement obsolètes les méthodes actuelles. Les capteurs doivent encore être miniaturisés, rendus confortables et peu coûteux. Des questions éthiques majeures se posent aussi : que devient la confidentialité des données cérébrales ? Qui les stocke ? Et dans quel but ?L'identification neuronale ouvre donc une nouvelle ère de la biométrie. Une ère fascinante, prometteuse… mais qui exigera des garde-fous solides. Car pour la première fois, ce n'est plus notre corps que l'on utilise comme clé d'accès, mais l'intimité même de notre activité mentale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Quel est le premier médicament conçu par l'IA ?

    Play Episode Listen Later Jan 29, 2026 2:14


    Depuis quelques années, on nous promet que l'intelligence artificielle va révolutionner la médecine. Mais jusqu'ici, l'IA restait surtout un outil : pour analyser des images médicales, repérer des cancers, lire des dossiers… Aujourd'hui, un cap est en train d'être franchi : un médicament conçu grâce à de l'IA pourrait devenir le premier traitement commercialisé issu d'un processus de découverte “end-to-end” par IA.Son nom : rentosertib.Rentosertib, auparavant connu sous le code ISM001-055, est développé par la société de biotechnologie Insilico Medicine. Il cible une maladie grave et encore largement incurable : la fibrose pulmonaire idiopathique, ou IPF. C'est une pathologie où le tissu des poumons se transforme progressivement en “cicatrice”, ce qui réduit l'oxygénation et conduit souvent à une insuffisance respiratoire. Les traitements actuels ne guérissent pas : ils ralentissent simplement la progression.Ce qui rend rentosertib unique, c'est son histoire. D'après les informations publiées ces dernières années, l'IA n'a pas servi uniquement à “accélérer” des étapes. Elle aurait été utilisée pour identifier une cible biologique prometteuse (une protéine impliquée dans la maladie), puis pour concevoir chimiquement une molécule capable de l'inhiber. Ici, la cible est une enzyme appelée TNIK. L'algorithme a analysé des masses de données scientifiques, repéré un signal biologique cohérent, puis généré et optimisé des structures moléculaires jusqu'à obtenir un candidat médicament.Rentosertib a déjà franchi des étapes cruciales : des essais initiaux chez l'humain ont montré un profil de sécurité acceptable, puis une étude de phase 2a a donné des signaux encourageants sur l'amélioration ou la stabilisation de certains indicateurs respiratoires après quelques semaines de traitement.Et maintenant, l'enjeu est énorme : la phase 3. C'est la dernière marche avant une éventuelle autorisation de mise sur le marché : un essai long, sur beaucoup de patients, comparant le médicament à un placebo ou au traitement standard. C'est aussi l'étape où la majorité des molécules échouent.Si rentosertib réussit cette phase, il pourrait être le premier médicament réellement “conçu par IA” à arriver en pharmacie — potentiellement avant 2030. Ce ne serait pas seulement une victoire médicale : ce serait la preuve que l'IA peut, concrètement, inventer des traitements plus vite… et peut-être mieux, contre des maladies aujourd'hui sans vraie solution. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Qu'est-ce que l'épigénétique ?

    Play Episode Listen Later Jan 28, 2026 2:20


    L'épigénétique désigne l'ensemble des mécanismes biologiques qui modifient l'activité de nos gènes… sans changer la séquence de notre ADN. Dit autrement : ton ADN est comme un texte. L'épigénétique, c'est tout ce qui agit comme des post-it, des surlignages ou des interrupteurs pour dire : “ce gène-là, on l'allume”, “celui-là, on le met en veille”.C'est une révolution dans la façon de comprendre le vivant, parce qu'elle montre que gènes et environnement dialoguent en permanence. Nos gènes ne sont pas un destin figé : ils peuvent être exprimés différemment selon notre alimentation, notre stress, notre sommeil, nos toxines, notre activité physique… et même parfois selon ce qu'ont vécu nos parents.Les mécanismes principaux sont au nombre de trois.D'abord, la méthylation de l'ADN : de petits groupes chimiques, appelés “méthyles”, viennent se fixer sur l'ADN et empêchent certains gènes de s'exprimer. C'est comme coller un scotch sur un paragraphe : il est toujours là, mais on ne le lit plus.Ensuite, les modifications des histones. L'ADN n'est pas déroulé en ligne droite : il est enroulé autour de protéines, les histones. Selon la façon dont ces histones sont modifiées, l'ADN devient plus ou moins “accessible”. Si l'ADN est serré, les gènes sont silencieux. Si l'ADN est plus relâché, ils sont actifs.Enfin, il existe des ARN non codants, de petites molécules qui ne fabriquent pas de protéines mais servent à réguler l'expression des gènes, comme des chefs d'orchestre invisibles.Un exemple spectaculaire : les abeilles. Toutes les larves ont le même ADN, mais si une larve est nourrie avec de la gelée royale, elle devient une reine. Sinon, elle devient une ouvrière. Ce n'est pas génétique : c'est épigénétique.Autre exemple célèbre : l'étude de la famine hollandaise (1944-45). Les enfants exposés in utero à cette période de sous-nutrition ont montré, des décennies plus tard, un risque accru de troubles métaboliques. On a observé chez eux des différences épigénétiques sur des gènes liés à la croissance et au métabolisme.C'est tout l'enjeu : l'épigénétique explique pourquoi des jumeaux identiques peuvent vieillir différemment ou développer des maladies différentes. Elle joue aussi un rôle clé dans le cancer, où certains gènes protecteurs sont “éteints” à tort.Conclusion : l'épigénétique, c'est la science qui montre comment l'environnement écrit, au-dessus de nos gènes, une seconde couche d'information. Une couche réversible… mais parfois durable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Comment répondre aux gens qui inventent n'importe quoi ?

    Play Episode Listen Later Jan 27, 2026 2:21


    Le rasoir de Hitchens est une règle de pensée simple, tranchante… et terriblement efficace. Elle tient en une phrase :« Ce qui est affirmé sans preuve peut être rejeté sans preuve. »Cette maxime est attribuée à Christopher Hitchens, essayiste et polémiste anglo-américain connu pour son style incisif, son goût du débat et son exigence intellectuelle. On parle de “rasoir” par analogie avec d'autres outils logiques comme le rasoir d'Occam : une règle qui “rase” les explications inutiles pour ne garder que l'essentiel. Ici, Hitchens ne rase pas les hypothèses trop compliquées : il rase les affirmations gratuites.Une arme contre les croyances infalsifiablesLe rasoir de Hitchens repose sur une idée fondamentale en rationalité : la charge de la preuve appartient à celui qui affirme. Si quelqu'un prétend quelque chose, c'est à lui de fournir des éléments solides pour le soutenir. Ce n'est pas à l'interlocuteur de démontrer que c'est faux.Et ça change tout. Car dans beaucoup de discussions, surtout sur Internet, la logique est inversée : une personne lance une théorie invérifiable — par exemple “les élites contrôlent tout”, “on nous ment”, “on a caché des preuves” — puis exige que les autres prouvent que c'est faux. Mais si l'affirmation ne repose sur rien de sérieux, on n'a pas à perdre son temps à la réfuter point par point : on peut la rejeter immédiatement.Exemple concretImagine quelqu'un qui dit :“Un esprit invisible hante mon appartement.”S'il n'y a aucune preuve, aucun indice, aucune observation vérifiable, le rasoir de Hitchens permet de répondre :“OK, mais je n'ai aucune raison d'y croire.”Pas besoin d'enquêter pendant trois semaines pour “prouver” qu'il n'y a pas de fantôme.Attention : ce n'est pas du cynismeLe rasoir de Hitchens ne dit pas : “tout est faux jusqu'à preuve du contraire”. Il dit : “je n'accepte pas une affirmation sans base”. C'est une posture intellectuelle saine, qui protège contre les rumeurs, les pseudo-sciences, les théories complotistes… mais aussi contre certaines manipulations politiques ou marketing.En résumé : le rasoir de Hitchens est une règle de bon sens déguisée en principe philosophique. Une règle qui rappelle ceci : si tu veux convaincre, apporte des preuves. Sinon, ton affirmation peut être balayée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Quelle base secrète l'explorateur Jean Malaurie a-t-il découvert ?

    Play Episode Listen Later Jan 26, 2026 2:38


    Pour écouter les deux épisodes recommandés:1/ Pourquoi votre opinion change-t-elle sans que vous ne vous en rendiez compte ?Apple Podcast:https://podcasts.apple.com/us/podcast/pourquoi-votre-opinion-change-t-elle-sans-que-vous/id1048372492?i=1000746638428Spotify:https://open.spotify.com/episode/0dzW7snN390LBqxeDluaoW?si=kTTF4LlVSMGVOQ9S_5XAEA2/ Dans quel pays est-il interdit de chanter en playback ?Apple Podcast:https://podcasts.apple.com/us/podcast/dans-quel-pays-est-il-interdit-de-chanter-en-playback/id1048372492?i=1000746550059Spotify:https://open.spotify.com/episode/3Ocem5LLM6sPtRnuyrll6W?si=MEBGO8qeSFGMVpiqLh9_3A--------------------------En 1951, l'explorateur et ethnologue français Jean Malaurie fait une découverte qui va le bouleverser et, surtout, donner une dimension politique à toute sa vie : au Groenland, dans l'extrême Nord, il tombe sur l'existence d'une immense base militaire américaine en cours de construction, que l'on n'avait pas annoncée publiquement. Une base stratégique, secrète, surgie dans un territoire que l'on imagine alors encore largement préservé.À cette époque, Jean Malaurie n'est pas encore l'auteur célèbre qu'il deviendra plus tard avec Les Derniers Rois de Thulé. Il est d'abord un homme de terrain, fasciné par le monde polaire, la géologie, la cartographie, et la vie des Inuits. Il explore le Nord du Groenland, dans la région de Thulé, une zone isolée, rude, mais habitée depuis des siècles. Son projet, au départ, n'a rien de militaire : il observe, il mesure, il marche, il partage le quotidien des habitants.Et puis, au détour de son expédition, il découvre ce qui ressemble à une apparition : une gigantesque infrastructure américaine en train de naître dans la toundra. Ce n'est pas une cabane, ni un petit poste avancé. C'est une véritable ville militaire, avec des engins, des pistes, des bâtiments, un dispositif logistique colossal. Cette base, c'est Thulé : un futur verrou arctique dans la stratégie américaine.Pourquoi l'Arctique ? Parce que nous sommes au début de la Guerre froide. Les États-Unis cherchent alors à sécuriser une position avancée qui permette de surveiller l'Union soviétique, de détecter des attaques, et d'installer des systèmes de défense ou de dissuasion. L'Arctique devient un espace clé : c'est le chemin le plus court entre l'Amérique du Nord et la Russie. Autrement dit : le Groenland, ce n'est plus seulement de la glace et des fjords, c'est un point géopolitique majeur.Mais ce qui frappe Malaurie, c'est surtout le coût humain. L'installation de cette base implique des bouleversements énormes pour les populations inuites locales. Dans ces territoires où tout repose sur l'équilibre fragile entre l'homme et la nature, l'arrivée d'un chantier militaire transforme brutalement l'environnement, le rythme, les déplacements, les ressources. Et surtout, elle annonce un basculement : désormais, les habitants ne sont plus seuls maîtres chez eux.Cette découverte agit comme un réveil. Malaurie comprend que l'exploration n'est pas neutre : elle est traversée par des intérêts de puissance. Dès lors, il ne sera plus seulement un scientifique ou un aventurier. Il deviendra aussi un témoin et un défenseur des peuples arctiques.En résumé : en 1951, Jean Malaurie découvre la base américaine secrète de Thulé au Groenland — un symbole de la Guerre froide — et cette découverte changera le sens de son œuvre, en le plaçant face aux conséquences concrètes de la géopolitique sur les Inuits. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi le feu devient-il une sphère dans l'espace ?

    Play Episode Listen Later Jan 25, 2026 2:34


    Dans l'espace, une flamme ne ressemble pas du tout à celle qu'on connaît sur Terre. Ici-bas, quand on allume une bougie, le feu forme naturellement une “goutte” étirée vers le haut. Mais en microgravité, le feu devient une boule : une flamme presque parfaitement sphérique. C'est spectaculaire… et c'est surtout une conséquence directe des lois de la physique.Sur Terre, la flamme monte parce que l'air chaud monte. Lors de la combustion, le combustible réagit avec l'oxygène et libère de la chaleur. L'air autour de la flamme est donc chauffé, ce qui le rend moins dense. Résultat : cet air chaud s'élève sous l'effet de la gravité. C'est ce qu'on appelle la convection, liée à la poussée d'Archimède. En montant, l'air chaud emporte les gaz brûlés et “aspire” en bas de la flamme de l'air frais riche en oxygène. Ce flux permanent alimente le feu et étire la flamme verticalement. Le feu n'est donc pas naturellement pointu : il est “tiré” vers le haut par le mouvement de l'air.Mais dans l'espace, ce mécanisme s'effondre. En microgravité, il n'y a pratiquement plus de convection : l'air chaud ne monte pas, car il n'y a plus de force dominante pour séparer “air chaud” et “air froid”. Les gaz brûlés restent autour de la zone de combustion au lieu de s'évacuer vers le haut. Du coup, l'oxygène n'arrive plus par le bas comme sur Terre : il arrive lentement depuis toutes les directions, uniquement par diffusion, c'est-à-dire par le mouvement aléatoire des molécules. Cette alimentation en oxygène étant symétrique, la flamme l'est aussi : elle devient sphérique.Autre effet surprenant : comme l'oxygène arrive plus lentement, la combustion est souvent plus douce. La flamme est généralement plus froide, plus lente et plus “propre”, avec moins de suie. C'est pour cela qu'en microgravité, la flamme paraît parfois bleutée et moins lumineuse.Mais attention : cette beauté est dangereuse. Dans un vaisseau spatial, tout est confiné. Il y a des câbles, des plastiques, des textiles techniques, des mousses isolantes… un environnement très inflammable si une étincelle se produit. Et une flamme sphérique est difficile à gérer : elle peut flotter, se déplacer avec les courants d'air produits par la ventilation ou par les mouvements des astronautes. Sur Terre, le feu “monte”, donc on sait où il va. Dans l'espace, il peut aller partout.Le risque est encore plus critique si l'atmosphère du vaisseau contient davantage d'oxygène. Pour réduire la pression totale et alléger les contraintes sur la coque, certaines configurations de mission envisagent un air enrichi en oxygène. Mais plus l'air est riche en oxygène, plus les matériaux s'enflamment facilement et plus un départ de feu peut devenir violent.C'est pour cela que la maîtrise du feu en microgravité est un enjeu essentiel : comprendre comment une flamme naît, se propage et comment l'éteindre rapidement, c'est littéralement une question de survie pour les missions spatiales longues. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi perd-on du poids par l'expiration ?

    Play Episode Listen Later Jan 22, 2026 2:31


    Lorsque l'on parle de « brûler » des graisses, l'image qui nous vient souvent en tête est celle d'un glaçon qui fond. En réalité, la biologie raconte une histoire bien plus surprenante : lorsque nous perdons de la graisse après un effort physique, la majorité de cette graisse quitte notre corps… par la respiration.Tout commence dans nos cellules. Lorsqu'elles ont besoin d'énergie — pendant une séance de sport, une marche rapide ou même une simple montée d'escaliers — elles vont puiser dans leurs réserves : les triglycérides. Ces molécules sont stockées dans les adipocytes, nos cellules graisseuses. Leur rôle est d'emmagasiner de l'énergie sous une forme compacte et stable, en attendant un moment de besoin. Quand l'organisme réclame du carburant, ces triglycérides sont démontés en acides gras et en glycérol.C'est dans les mitochondries que la véritable « combustion » a lieu. Grâce à l'oxygène que nous respirons, ces acides gras sont métabolisés. Et c'est là que survient la révélation : la graisse ne disparaît pas, elle se transforme. Son produit final n'est pas de la chaleur ni de la sueur, mais principalement du dioxyde de carbone (CO₂) et de l'eau.Pour donner une idée concrète : si vous perdez 100 g de graisse, environ 84 g seront transformés en CO₂. À un rythme respiratoire normal, cela représente plusieurs dizaines de litres de CO₂ expirés au fil des heures. La dépense énergétique d'une séance de sport d'intensité modérée peut mobiliser 50 à 150 g de graisse, ce qui signifie que l'on expire littéralement des dizaines de grammes de graisse sous forme de CO₂ après un seul entraînement.Les 16 % restants de la masse initiale sont transformés en eau, éliminée par la sueur, l'urine et même la vapeur d'eau expirée. Contrairement aux idées reçues, la transpiration n'est pas la preuve que nous « brûlons » de la graisse : elle sert surtout à refroidir le corps.Cette découverte — popularisée après une étude publiée en 2014 dans BMJ — a renversé nombre d'idées que l'on croyait acquises : maigrir est avant tout un processus respiratoire. Chaque mouvement accélère la transformation des triglycérides en CO₂, et c'est en expirant que nous perdons réellement du poids.En résumé : pour perdre de la graisse, il faut bouger… et respirer. L'oxygène que nous inspirons, et surtout le CO₂ que nous expirons, portent la signature chimique de notre perte de poids. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi observe-t-on davantage d'accouchements la nuit que le jour ?

    Play Episode Listen Later Jan 21, 2026 2:03


    Ce phénomène est bien documenté et concerne surtout les accouchements spontanés, c'est-à-dire non déclenchés médicalement. La raison principale est biologique : le corps féminin est naturellement programmé pour accoucher plus facilement pendant la nuit.Le premier élément clé est le rythme circadien, notre horloge biologique interne. Cette horloge régule de nombreuses fonctions physiologiques sur un cycle de vingt-quatre heures, notamment la sécrétion hormonale. Or, plusieurs hormones essentielles au travail de l'accouchement atteignent leur pic durant la nuit.L'hormone la plus importante dans ce processus est l'ocytocine. Elle est responsable des contractions utérines qui permettent la dilatation du col et la naissance du bébé. La production d'ocytocine augmente naturellement la nuit, car elle est inhibée par le stress, la lumière et certaines hormones de l'éveil, comme le cortisol. La nuit, l'environnement est plus calme, plus sombre, et l'organisme est moins stimulé. Les freins hormonaux diminuent, ce qui rend les contractions plus efficaces et plus régulières.Une autre hormone joue un rôle crucial : la mélatonine, souvent appelée hormone du sommeil. Elle est sécrétée en grande quantité dans l'obscurité. Des études ont montré que la mélatonine agit en synergie avec l'ocytocine, en renforçant l'intensité et la coordination des contractions utérines. Autrement dit, la mélatonine ne favorise pas seulement le sommeil, elle participe aussi activement au bon déroulement de l'accouchement.Ce phénomène s'explique également par l'évolution. Pendant la majeure partie de l'histoire humaine, accoucher la nuit offrait un avantage en termes de survie. L'obscurité réduisait l'exposition aux prédateurs, l'activité du groupe était moindre et les conditions étaient plus propices au calme et à la concentration. Le corps humain a conservé cette programmation biologique ancestrale.Enfin, il est important de préciser que cette tendance est aujourd'hui atténuée par la médicalisation des naissances. Les déclenchements programmés et les césariennes planifiées ont déplacé une partie des accouchements vers la journée. Mais lorsque le travail débute spontanément, sans intervention médicale, la physiologie naturelle continue de privilégier la nuit.En résumé, si les femmes accouchent plus souvent la nuit, c'est parce que leur horloge biologique, leurs hormones et leur héritage évolutif s'alignent pour faire de la nuit le moment le plus favorable à la naissance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Que se passerait-il si la Terre cessait soudainement de tourner ?

    Play Episode Listen Later Jan 20, 2026 2:06


    D'abord, rappelons un chiffre : à l'équateur, la surface de la Terre se déplace à environ 465 m/s, soit 1 670 km/h. À Paris, c'est encore autour de 1 100 km/h. Cette vitesse n'est pas “une sensation” : c'est une énergie cinétique réelle, emmagasinée par tout ce qui est posé sur le sol — atmosphère, océans, bâtiments… et nous.1) La catastrophe immédiate : l'inertieSi la Terre s'arrêtait net, tout ce qui n'est pas solidement attaché au socle rocheux continuerait à avancer à sa vitesse actuelle, par inertie. Résultat :des vents supersoniques : l'atmosphère garderait sa vitesse, déclenchant des rafales capables de raser des continents ;les océans se déplaceraient aussi : des mégatsunamis balaieraient les côtes et progresseraient profondément dans les terres ;les objets, les véhicules et les humains seraient littéralement projetés vers l'est.Cette phase serait la plus meurtrière : une conversion brutale d'énergie de rotation en destruction mécanique.2) Le chaos géophysique : réorganisation de la planèteEnsuite, la Terre chercherait un nouvel équilibre. Aujourd'hui, la rotation crée un renflement équatorial : la Terre est plus large d'environ 21 km à l'équateur qu'entre les pôles. Sans rotation, ce renflement n'aurait plus de raison d'être. Le manteau et la croûte se réajusteraient lentement, mais cela impliquerait une forte activité tectonique :séismes massifs,volcanisme accru,redistribution des contraintes dans la lithosphère.3) L'eau migrerait vers les pôlesUn effet contre-intuitif : sans force centrifuge, les océans ne resteraient pas répartis comme aujourd'hui. Ils se dirigeraient davantage vers les pôles, formant deux énormes calottes océaniques, et laissant émerger de vastes zones près de l'équateur.4) Un jour durerait un an… ou presqueSans rotation, la “journée” n'existerait plus au sens habituel. Un point de la surface ferait face au Soleil pendant environ 6 mois, puis serait plongé dans la nuit pendant 6 mois. Les écarts de température deviendraient extrêmes :sur la face éclairée : échauffement intense,sur la face sombre : refroidissement massif, gel généralisé.5) Le champ magnétique se dérègleEnfin, le champ magnétique terrestre dépend en partie de la dynamique interne du noyau (effet dynamo). La rotation joue un rôle crucial dans l'organisation des mouvements conducteurs. Un arrêt brutal pourrait affaiblir fortement le champ magnétique, exposant davantage la surface aux particules solaires.Conclusion : arrêter la Terre, ce n'est pas seulement “supprimer l'alternance jour-nuit”. C'est libérer une énergie colossale, déchaîner l'atmosphère et les océans, et transformer durablement la géographie et le climat. Un arrêt… et le monde tel qu'on le connaît disparaît. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Comment les chiens apprennent-ils de nouveaux mots ?

    Play Episode Listen Later Jan 19, 2026 2:20


    Imaginez la scène : vous êtes dans votre salon, vous discutez avec quelqu'un, vous parlez d'un nouvel objet… et votre chien, tranquillement dans son panier, “enregistre” le mot. Quelques minutes plus tard, vous lui demandez d'aller chercher ce même objet… et il le trouve.Ça ressemble à de la magie. En réalité, c'est de la scienceUne étude publiée le 8 janvier 2026 dans la revue Science montre que certains chiens, très rares, sont capables d'apprendre de nouveaux mots sans être entraînés directement : simplement en observant et en écoutant les interactions humaines. Les chercheurs parlent d'un petit groupe particulier : les “Gifted Word Learners” — littéralement, des chiens “doués” pour l'apprentissage des mots. Ces chiens connaissent déjà beaucoup de noms d'objets, souvent des jouets. Certains en reconnaissent plus de 100 et, dans certains cas, plusieurs centaines. Le point clé : ils ne se contentent pas d'obéir à des ordres (“assis”, “au pied”). Ils comprennent des étiquettes verbales associées à des objets précis : “la balle bleue”, “le kangourou”, “la pizza”, etc.Comment apprennent-ils ?Dans l'expérience, les chercheurs ont testé 10 chiens GWL. Les propriétaires introduisaient deux jouets inconnus, mais selon deux méthodes :1. Apprentissage direct : le maître montre le jouet, répète son nom, joue.2. Écoute passive : le chien n'est pas sollicité. Deux humains discutent, manipulent le jouet, prononcent son nom… mais sans s'adresser au chien.Et là, résultat spectaculaire : après simple écoute, 7 chiens sur 10 ont retrouvé correctement les jouets lors du test. Leur performance atteignait environ 80–83%, très proche de l'apprentissage direct, mesuré autour de 90–92%.Pour réussir, le chien doit faire plusieurs opérations mentales complexes :prêter attention à une conversation humaine,repérer qu'un mot est le nom d'un objet,associer ce mot à un objet précis,mémoriser l'information,et la ressortir plus tard dans un autre contexte.C'est exactement un mécanisme que l'on observe aussi chez l'enfant : vers 18 mois, certains bébés apprennent des mots en “espionnant” les échanges des adultes. Pourquoi c'est important ?Cette découverte suggère que l'apprentissage des mots ne repose pas uniquement sur le langage humain, mais sur des compétences plus générales : attention sociale, mémoire, lecture des intentions.Et elle pose une question fascinante : après des millénaires aux côtés de l'homme, certains chiens auraient-ils développé une forme rare, mais réelle, de “pré-langage” social ?En bref : ces chiens ne parlent pas. Mais certains savent écouter… vraiment. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Qu'est-ce que le rasoir d'Alder ?

    Play Episode Listen Later Jan 18, 2026 1:52


    Le rasoir d'Alder est une règle de bon sens… qui coupe net les débats stériles. Son idée centrale tient en une phrase : si une affirmation ne peut pas être tranchée par l'observation ou l'expérience, alors elle ne vaut pas la peine d'être débattue.On l'appelle aussi, avec un humour très “scientifique”, « l'épée laser flamboyante de Newton » (Newton's flaming laser sword). Cette formule a été popularisée au début des années 2000 par le mathématicien australien Mike Alder, notamment dans un essai publié en 2004.Et c'est précisément pour cela qu'on parle de rasoir d'Alder : comme pour le rasoir d'Occam, le concept porte le nom de la personne qui l'a formulé et rendu célèbre. Ce n'est pas Newton qui l'a inventé : Newton sert ici de clin d'œil dans le surnom. À noter d'ailleurs qu'on voit parfois “Adler” écrit par erreur, mais l'attribution correcte est bien Alder.Le rasoir d'Alder ne dit pas “c'est faux”. Il dit : “ce n'est pas un bon usage de notre temps de le disputer comme si on pouvait conclure.”Exemple : “Existe-t-il un univers parallèle exactement identique au nôtre, mais inaccessible à jamais ?” Peut-être. Mais si, par définition, aucune mesure ne peut le confirmer ou l'infirmer, alors le rasoir d'Alder conseille de ne pas transformer ça en bataille intellectuelle.C'est une invitation à déplacer la discussion vers des questions testables :Au lieu de débattre “l'intelligence est-elle une essence mystérieuse ?”, on peut demander “quels tests permettent de prédire des performances cognitives, et avec quelle fiabilité ?”Au lieu de “la conscience est-elle immatérielle ?”, on peut demander “quels corrélats neuronaux de l'expérience consciente peut-on mesurer ?”En ce sens, Alder est proche de l'esprit de Karl Popper et de la falsifiabilité : une proposition devient “scientifique” si on peut imaginer ce qui la rendrait fausse. Mais Alder va plus loin en mode pragmatique : si on ne peut pas trancher, ne gaspillons pas l'énergie à polémiquer.Attention : ce rasoir n'est pas une loi de la nature. Il peut être trop strict. Certaines questions paraissent non testables… jusqu'au jour où une nouvelle méthode les rend observables (c'est arrivé souvent dans l'histoire des sciences). Et puis, on peut aussi débattre de valeurs, d'éthique, de sens — sans “expérience” au sens strict.Conclusion : le rasoir d'Alder n'élimine pas les grandes questions. Il vous aide à repérer celles qui, pour l'instant, ne peuvent produire ni preuve ni progrès — juste des joutes verbales. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Deux personnes pourraient-elles repeupler la Terre ?

    Play Episode Listen Later Jan 15, 2026 2:54


    La question est fascinante, presque mythique : deux personnes seulement pourraient-elles repeupler la Terre après une catastrophe mondiale ? D'un point de vue scientifique, la réponse courte est non. Et la réponse longue est encore plus intéressante.Commençons par la génétique. Pour qu'une population soit viable à long terme, il faut une diversité génétique suffisante. Cette diversité permet d'éviter l'accumulation de mutations délétères, responsables de maladies graves, de stérilité ou de malformations. Avec seulement deux individus, toute la descendance serait issue de relations incestueuses, génération après génération. Très rapidement, les effets de la consanguinité extrême deviendraient catastrophiques.On appelle cela la dépression de consanguinité. Elle entraîne une baisse de la fertilité, une augmentation de la mortalité infantile et une vulnérabilité accrue aux maladies. Chez les humains, ces effets apparaissent dès les premières générations. Autrement dit, même si deux personnes pouvaient avoir des enfants, leurs petits-enfants et arrière-petits-enfants auraient de très fortes probabilités de ne pas survivre ou de ne pas se reproduire.Les biologistes utilisent souvent un concept appelé population minimale viable. Pour l'espèce humaine, les estimations varient selon les modèles, mais elles convergent vers un minimum de plusieurs milliers d'individus pour assurer une survie à long terme sans assistance technologique. Certains scénarios très optimistes évoquent quelques centaines d'individus, mais jamais deux.Il existe une règle empirique connue sous le nom de règle des 50/500. Elle suggère qu'il faut au moins 50 individus pour éviter une extinction immédiate due à la consanguinité, et environ 500 pour maintenir une diversité génétique stable à long terme. Même cette règle est aujourd'hui jugée trop optimiste pour les humains.Mais la génétique n'est pas le seul problème. Deux personnes devraient aussi assurer la survie matérielle : produire de la nourriture, élever des enfants, se protéger des maladies, transmettre des connaissances, maintenir des outils, et faire face aux accidents. Or une population minuscule est extrêmement vulnérable aux aléas : une infection, une blessure grave ou une complication lors d'un accouchement pourrait suffire à tout faire disparaître.Certains objecteront que la technologie pourrait aider. En théorie, des banques de gamètes, le clonage ou l'édition génétique pourraient augmenter artificiellement la diversité. Mais dans ce cas, on ne parle plus vraiment de “deux personnes”, mais d'un système technologique complexe préservant une population virtuelle.Enfin, les données de la paléogénétique sont claires : même lors des périodes où l'humanité a frôlé l'extinction, comme il y a environ 70 000 ans, la population humaine ne serait jamais descendue en dessous de quelques milliers d'individus.Conclusion : deux personnes ne pourraient pas repeupler la Terre. Le mythe est puissant, mais la biologie est implacable. Pour survivre, une espèce a besoin non seulement de reproduction, mais surtout de diversité, de résilience et de nombre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi les détecteurs d'IA ne sont-ils pas fiables ?

    Play Episode Listen Later Jan 14, 2026 2:46


    Depuis l'explosion des outils d'intelligence artificielle générative, une nouvelle promesse est apparue : celle des détecteurs d'IA, censés distinguer un texte écrit par un humain d'un texte produit par une machine. Ces outils sont désormais utilisés dans l'éducation, le journalisme ou le recrutement. Pourtant, d'un point de vue scientifique, leur fiabilité est profondément limitée. Et un exemple devenu célèbre l'illustre parfaitement : l'un de ces détecteurs a affirmé que la Déclaration d'Indépendance américaine de 1776 avait probablement été écrite par une IA.Pourquoi un tel non-sens est-il possible ? La réponse tient au fonctionnement même de ces détecteurs.La plupart des détecteurs d'IA reposent sur des analyses statistiques du langage. Ils mesurent des critères comme la “prévisibilité” des mots, la régularité syntaxique ou ce que l'on appelle la perplexité. Un texte est jugé “suspect” s'il semble trop fluide, trop cohérent ou trop régulier. Le problème est évident : un bon texte humain peut parfaitement présenter ces caractéristiques, en particulier s'il est formel, structuré ou rédigé avec soin.À l'inverse, un texte généré par une IA peut facilement échapper à la détection s'il est légèrement modifié, paraphrasé ou enrichi d'erreurs volontaires. En pratique, quelques changements stylistiques suffisent à faire basculer le verdict. Cela montre une première faiblesse majeure : ces outils détectent des styles, pas des auteurs.Deuxième problème fondamental : les IA génératives sont elles-mêmes entraînées sur d'immenses corpus de textes humains. Elles apprennent à imiter la façon dont les humains écrivent. Plus elles progressent, plus leurs productions se rapprochent des distributions statistiques du langage humain. Résultat : la frontière mathématique entre texte humain et texte artificiel devient floue, voire inexistante. D'un point de vue théorique, il n'existe aucun “marqueur universel” de l'écriture humaine.Troisième limite : les détecteurs sont souvent entraînés sur des données datées ou biaisées. Ils comparent un texte à ce que “ressemblait” une IA à un instant donné. Mais dès qu'un nouveau modèle apparaît, avec un style différent, la détection devient obsolète. C'est une course perdue d'avance : l'IA évolue plus vite que les outils censés la repérer.L'épisode de la Déclaration d'Indépendance est révélateur. Ce texte, rédigé au XVIIIᵉ siècle, est formel, très structuré, peu émotionnel et linguistiquement régulier. Exactement le type de style que les détecteurs associent — à tort — à une IA moderne. Cela prouve que ces outils confondent classicisme stylistique et artificialité.En résumé, les détecteurs d'IA ne sont pas scientifiquement fiables parce qu'ils reposent sur des heuristiques fragiles, qu'ils confondent forme et origine, et qu'ils tentent de résoudre un problème peut-être insoluble : distinguer deux productions qui obéissent aux mêmes lois statistiques. Leur verdict ne devrait jamais être considéré comme une preuve, mais au mieux comme un indice très faible, et souvent trompeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les neutrinos sont-ils vraiment plus rapides que la lumière ?

    Play Episode Listen Later Jan 13, 2026 3:04


    En 2011, une annonce a fait l'effet d'une bombe dans le monde scientifique : des chercheurs affirmaient avoir mesuré des neutrinos allant plus vite que la lumière. Si cela avait été vrai, cela aurait remis en cause l'un des piliers de la physique moderne, hérité d'Albert Einstein. Mais que s'est-il réellement passé ? Et pourquoi parle-t-on encore aujourd'hui de l'expérience OPERA ?Commençons par les bases. Les neutrinos sont des particules extrêmement légères, presque sans masse, qui interagissent très peu avec la matière. Des milliards d'entre eux traversent votre corps chaque seconde sans que vous ne le sentiez. Ils sont produits en grande quantité dans les réactions nucléaires, comme celles du Soleil ou des accélérateurs de particules.L'expérience OPERA consistait à mesurer le temps de trajet de neutrinos envoyés depuis le CERN, près de Genève, jusqu'à un détecteur situé sous le massif du Gran Sasso, en Italie. Distance : environ 730 kilomètres. Objectif : vérifier que les neutrinos, comme prévu, se déplacent à une vitesse très proche de celle de la lumière, mais sans la dépasser.Or, surprise : les premières mesures indiquaient que les neutrinos arrivaient environ 60 nanosecondes trop tôt. Autrement dit, ils semblaient dépasser la vitesse de la lumière d'environ 0,002 %. Une différence minuscule, mais suffisante pour bouleverser toute la relativité restreinte, qui affirme qu'aucune information ni particule ne peut aller plus vite que la lumière dans le vide.Face à un résultat aussi extraordinaire, les chercheurs ont fait ce que la science exige : ils ont douté. Car en science, une découverte révolutionnaire impose un niveau de vérification exceptionnel. Très vite, d'autres équipes ont tenté de reproduire la mesure, tandis que les ingénieurs ont passé au crible chaque élément du dispositif.Et c'est là que l'explication est apparue. Deux problèmes techniques étaient en cause. D'abord, un câble à fibre optique mal connecté, qui introduisait un décalage dans la synchronisation des horloges. Ensuite, un oscillateur défectueux, utilisé pour mesurer le temps. Pris séparément, ces défauts semblaient insignifiants ; combinés, ils expliquaient parfaitement l'avance apparente des neutrinos.Une fois ces erreurs corrigées, les nouvelles mesures ont confirmé ce que la physique prédisait depuis un siècle : les neutrinos ne dépassent pas la vitesse de la lumière. Ils s'en approchent énormément, mais restent en dessous.Alors pourquoi cet épisode est-il important ? Parce qu'il montre la science en action. Les chercheurs n'ont pas caché un résultat dérangeant. Ils l'ont publié, soumis à la critique, testé, puis corrigé. OPERA n'a pas renversé Einstein, mais elle a rappelé une règle fondamentale : des résultats extraordinaires exigent des preuves extraordinaires.En résumé, non, les neutrinos ne sont pas plus rapides que la lumière. Mais l'expérience OPERA reste un excellent exemple de rigueur scientifique… et d'humilité face aux mesures. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Qu'est-ce que le principe de réfutabilité de Popper ?

    Play Episode Listen Later Jan 12, 2026 2:53


    Le principe de réfutabilité est l'une des idées les plus célèbres — et les plus mal comprises — de la philosophie des sciences. Il a été formulé au XXᵉ siècle par le philosophe Karl Popper, avec une ambition claire : définir ce qui distingue une théorie scientifique d'un discours qui ne l'est pas.À première vue, la science semble reposer sur la preuve. On pourrait croire qu'une théorie est scientifique parce qu'elle est confirmée par des expériences. Or, Popper renverse totalement cette intuition. Selon lui, aucune théorie scientifique ne peut jamais être définitivement prouvée vraie. Pourquoi ? Parce qu'une infinité d'observations positives ne garantit jamais que la prochaine ne viendra pas la contredire. En revanche, une seule observation contraire suffit à invalider une théorie.C'est là qu'intervient le principe de réfutabilité. Pour Popper, une théorie est scientifique si et seulement si elle peut, en principe, être réfutée par les faits. Autrement dit, elle doit faire des prédictions suffisamment précises pour qu'on puisse imaginer une expérience ou une observation qui la rende fausse. Si aucune observation possible ne peut la contredire, alors elle sort du champ de la science.Un exemple classique permet de comprendre. L'énoncé « tous les cygnes sont blancs » est réfutable : il suffit d'observer un seul cygne noir pour le contredire. À l'inverse, une affirmation comme « des forces invisibles et indétectables influencent secrètement le monde » n'est pas réfutable, puisqu'aucune observation ne peut la mettre en défaut. Elle peut être intéressante sur le plan philosophique ou symbolique, mais elle n'est pas scientifique.Popper utilise ce critère pour critiquer certaines théories très populaires à son époque, comme la psychanalyse ou certaines formes de marxisme. Selon lui, ces systèmes expliquent tout a posteriori, mais ne prennent jamais le risque d'être démentis par les faits. Quand une prédiction échoue, l'explication est ajustée, ce qui rend la théorie indestructible… et donc non scientifique.Ce point est fondamental : pour Popper, la science progresse par erreurs corrigées, non par accumulation de certitudes. Une bonne théorie n'est pas celle qui se protège contre la critique, mais celle qui s'expose volontairement à la possibilité d'être fausse. Plus une théorie est risquée, plus elle est scientifique.Aujourd'hui encore, le principe de réfutabilité structure la méthode scientifique moderne. Il rappelle que la science n'est pas un ensemble de vérités absolues, mais un processus critique permanent. Une théorie n'est jamais vraie pour toujours ; elle est simplement la meilleure disponible, tant qu'elle résiste aux tentatives de réfutation.En résumé, le principe de réfutabilité de Popper nous apprend une chose essentielle : en science, le doute n'est pas une faiblesse, c'est une condition de progrès. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Le sens de l'humour est-il héréditaire ?

    Play Episode Listen Later Jan 11, 2026 2:34


    Le sens de l'humour fait partie de ces traits que l'on aime attribuer à la personnalité, à l'éducation, ou à l'ambiance familiale. Mais une question intrigue depuis longtemps les chercheurs : sommes-nous génétiquement programmés pour avoir de l'humour… ou est-ce uniquement le produit de notre environnement ? Une étude publiée dans la revue scientifique Twin Research and Human Genetics apporte des éléments de réponse particulièrement éclairants.Pour étudier l'origine de traits psychologiques complexes, les scientifiques utilisent souvent une méthode classique : la comparaison entre jumeaux monozygotes, qui partagent 100 % de leur patrimoine génétique, et jumeaux dizygotes, qui n'en partagent qu'environ 50 %, comme de simples frères et sœurs. Si un trait est plus similaire chez les jumeaux identiques que chez les faux jumeaux, cela suggère une influence génétique.Dans cette étude, les chercheurs ont analysé plusieurs dimensions de l'humour : la capacité à produire des blagues, la sensibilité à l'humour des autres, et l'usage de l'humour dans les interactions sociales. Les participants devaient répondre à des questionnaires standardisés évaluant leur style humoristique et leur fréquence d'utilisation de l'humour au quotidien.Résultat principal : le sens de l'humour est partiellement héréditaire. Selon les analyses statistiques, environ 30 à 40 % des différences individuelles liées à l'humour peuvent être expliquées par des facteurs génétiques. Cela signifie que les gènes jouent un rôle réel, mais non dominant. Autrement dit, l'humour n'est ni totalement inné, ni purement acquis.Ce point est essentiel. La majorité de la variabilité observée — 60 à 70 % — est liée à l'environnement : la famille, la culture, l'éducation, les expériences de vie, mais aussi le contexte social. Grandir dans un milieu où l'humour est valorisé, pratiqué et encouragé compte donc davantage que l'ADN seul.Les chercheurs soulignent également que toutes les formes d'humour ne sont pas égales face à la génétique. Par exemple, l'humour affiliatif — celui qui sert à créer du lien social — semble plus influencé par l'environnement, tandis que certains traits cognitifs liés à la compréhension des jeux de mots ou de l'ironie pourraient avoir une composante génétique plus marquée, via des capacités comme la flexibilité mentale ou le langage.Enfin, cette étude rappelle un point fondamental en sciences du comportement : les gènes ne déterminent pas des comportements précis, mais des prédispositions. Avoir une base génétique favorable ne garantit pas d'être drôle, pas plus qu'en être dépourvu n'empêche de développer un excellent sens de l'humour.En conclusion, le sens de l'humour est bien en partie héréditaire, mais il se façonne surtout au fil des interactions, des cultures et des expériences. Une bonne nouvelle : même sans “gène de l'humour”, il reste largement… cultivable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Que sont les NGT, ces « nouveaux OGM » ?

    Play Episode Listen Later Jan 8, 2026 2:18


    Depuis quelques mois, un acronyme revient de plus en plus souvent dans les débats agricoles et scientifiques européens : NGT, pour New Genomic Techniques. Derrière ce terme un peu technique se cachent ce que l'on appelle parfois, à tort ou à raison, les « nouveaux OGM ». Mais que sont réellement les NGT, et pourquoi l'Union européenne a-t-elle décidé de les autoriser plus largement ?Les NGT regroupent des techniques de modification ciblée du génome, comme l'édition génétique par CRISPR-Cas9. Contrairement aux OGM dits « classiques », développés à partir des années 1990, il ne s'agit plus d'introduire dans une plante un gène provenant d'une autre espèce — par exemple une bactérie — mais de modifier ou désactiver un gène déjà présent dans l'ADN de la plante. En clair, on intervient comme un chirurgien de précision, là où les anciens OGM fonctionnaient plutôt comme un greffon.C'est cette différence qui a conduit l'Union européenne à revoir sa position. Jusqu'ici, toutes les plantes issues de modification génétique étaient soumises à une réglementation très stricte, héritée d'une directive de 2001. Or, en 2024, les institutions européennes ont estimé que certaines NGT produisent des plantes indiscernables de celles obtenues par sélection naturelle ou par croisements traditionnels. Résultat : une partie des NGT est désormais autorisée sous un régime réglementaire allégé.Les défenseurs de ces technologies mettent en avant plusieurs arguments. D'abord, les enjeux climatiques : grâce aux NGT, il serait possible de développer plus rapidement des plantes résistantes à la sécheresse, à la chaleur ou à certaines maladies, sans augmenter l'usage de pesticides. Ensuite, un argument économique : l'Europe accuse un retard face aux États-Unis et à la Chine, où ces techniques sont déjà largement utilisées. Pour les partisans des NGT, les refuser reviendrait à affaiblir la souveraineté agricole européenne.Mais ces « nouveaux OGM » restent très controversés. Les ONG environnementales et certains syndicats agricoles dénoncent un habillage sémantique : selon eux, modifier l'ADN reste une modification génétique, quelle que soit la technique utilisée. Ils craignent une concentration accrue du marché des semences entre les mains de grands groupes, ainsi qu'un manque de recul sur les effets à long terme sur les écosystèmes.L'Union européenne a donc tenté un compromis. Les plantes issues de NGT considérées comme « équivalentes au naturel » pourront être cultivées plus librement, tandis que les modifications plus complexes resteront encadrées comme des OGM classiques. Reste une question centrale, loin d'être tranchée : les consommateurs accepteront-ils ces nouveaux végétaux, même sans étiquette OGM ?Derrière les NGT, c'est une interrogation plus large qui se dessine : comment nourrir une population croissante dans un monde bouleversé par le changement climatique, sans sacrifier la confiance du public ni la biodiversité ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi la fonte des glaces n'élève pas le niveau de la mer partout au même rythme ?

    Play Episode Listen Later Jan 7, 2026 1:51


    La fonte des glaces liée au réchauffement climatique n'entraîne pas une montée uniforme du niveau des mers à l'échelle mondiale. Contrairement à une idée reçue, le niveau de la mer n'augmente pas partout au même rythme, et certaines régions peuvent même connaître, temporairement, une hausse plus faible que la moyenne, voire une baisse relative. Ce phénomène complexe s'explique par des mécanismes physiques bien identifiés, mis en lumière notamment par les travaux de Shaina Sadai, du Five College Consortium, et Ambarish Karmalkar, de l'université de Rhode Island.Le premier facteur clé est la gravité. Les grandes masses de glace, comme celles du Groenland ou de l'Antarctique, exercent une attraction gravitationnelle sur l'océan. Cette force attire l'eau vers les calottes glaciaires, créant un niveau de la mer plus élevé à proximité des glaces. Lorsque ces masses fondent, leur attraction diminue : l'eau est alors « libérée » et migre vers d'autres régions du globe. Résultat paradoxal : près des pôles, la fonte peut entraîner une hausse plus faible du niveau marin, tandis que des régions éloignées, notamment les zones tropicales, subissent une augmentation plus marquée.Deuxième mécanisme majeur : la déformation de la croûte terrestre, appelée ajustement isostatique. Sous le poids des glaciers, la croûte terrestre s'enfonce. Quand la glace disparaît, le sol remonte lentement, parfois sur des siècles. Ce rebond post-glaciaire peut compenser en partie la montée des eaux localement, comme c'est le cas dans certaines régions du nord de l'Europe ou du Canada. À l'inverse, dans des zones où le sol s'affaisse naturellement, la montée du niveau marin est amplifiée.Les chercheurs Sadai et Karmalkar ont cartographié ces effets combinés en montrant que la fonte des glaces redistribue l'eau de manière très inégale. Leurs travaux soulignent que certaines régions côtières densément peuplées — notamment en Asie du Sud-Est, dans le Pacifique ou sur la côte est des États-Unis — sont exposées à une élévation du niveau de la mer supérieure à la moyenne mondiale. À l'échelle globale, la montée moyenne est aujourd'hui d'environ 3 à 4 millimètres par an, mais localement, elle peut être bien plus rapide.Enfin, les courants océaniques et la dilatation thermique jouent aussi un rôle. Le réchauffement de l'eau modifie la circulation des océans, accumulant davantage d'eau dans certaines zones. Ces dynamiques renforcent encore les disparités régionales.En résumé, la montée des mers n'est pas un phénomène uniforme mais une mosaïque de situations locales, façonnée par la gravité, la géologie et la dynamique océanique. Comprendre ces différences est crucial pour anticiper les risques côtiers et adapter les politiques de protection face au changement climatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Que sait-on du mur géant vieux de 7 000 ans découvert au large de l'île de Sein ?

    Play Episode Listen Later Jan 6, 2026 2:07


    La découverte a surpris les archéologues comme les géologues. Au large de la pointe de la Bretagne, sous plusieurs dizaines de mètres d'eau, des chercheurs ont identifié une structure monumentale immergée, longue de plusieurs centaines de mètres, que l'on décrit aujourd'hui comme un véritable « mur » préhistorique. Son âge estimé : environ 7 000 ans, soit le Néolithique ancien.Ce mur a été repéré grâce à des campagnes de cartographie sonar et de relevés bathymétriques menées dans le cadre de programmes de recherche sur les paysages côtiers engloutis. À l'époque de sa construction, la zone aujourd'hui submergée n'était pas marine. Le niveau de la mer était alors bien plus bas, d'environ 20 à 30 mètres, et l'île de Sein faisait partie d'un vaste territoire côtier aujourd'hui disparu, parfois comparé au « Doggerland » de la mer du Nord.La structure intrigue par son caractère manifestement artificiel. Les blocs de pierre sont disposés de manière régulière, alignés sur une longue distance, ce qui exclut une formation géologique naturelle. Les chercheurs estiment que ce mur aurait pu servir de barrage, de digue ou de limite territoriale. Une autre hypothèse évoque un usage lié à la pêche : le mur aurait permis de piéger des poissons lors des marées, une technique connue dans plusieurs sociétés néolithiques.Cette découverte est majeure car elle remet en question notre perception des sociétés préhistoriques installées sur les littoraux. Loin d'être de simples groupes nomades, ces populations semblaient capables de grands travaux collectifs, d'une organisation sociale avancée et d'une connaissance fine de leur environnement. Construire un tel ouvrage nécessitait du temps, une main-d'œuvre importante et une vision à long terme.Le mur de l'île de Sein est aussi un témoignage direct de la montée des eaux liée à la fin de la dernière glaciation. Il rappelle que le changement climatique n'est pas un phénomène récent. En quelques millénaires, la hausse du niveau marin a englouti des territoires entiers, forçant les populations à se déplacer. Ce mur figé sous la mer est une archive climatique autant qu'archéologique.Aujourd'hui, les chercheurs poursuivent les analyses à l'aide de carottages sédimentaires, de modélisations 3D et de comparaisons avec d'autres structures immergées en Europe. Chaque nouvelle donnée affine notre compréhension de ces paysages perdus.En somme, ce mur vieux de 7 000 ans n'est pas seulement une curiosité scientifique. Il est la preuve tangible que les humains ont toujours dû s'adapter à un environnement changeant — et qu'ils en ont laissé des traces, parfois là où on ne pensait jamais les trouver : au fond de la mer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Comment les ours polaires adaptent-ils leur ADN au changement climatique ?

    Play Episode Listen Later Jan 5, 2026 2:08


    Face au réchauffement rapide de l'Arctique, les ours polaires sont devenus un symbole du changement climatique. Mais derrière les images spectaculaires de banquise qui fond, une question scientifique cruciale se pose : les ours polaires peuvent-ils s'adapter biologiquement, jusque dans leur ADN, à un environnement qui se transforme plus vite que jamais ? C'est précisément à cette question qu'a répondu une étude récente menée sous la direction de la Dre Alice Godden, de l'université d'East Anglia, publiée dans une revue scientifique de référence.Les chercheurs se sont intéressés à l'évolution génétique des ours polaires en comparant leur ADN à celui de leurs plus proches cousins, les ours bruns. Grâce à des analyses génomiques approfondies, l'équipe a identifié plusieurs adaptations génétiques clés qui permettent aux ours polaires de survivre dans un environnement extrême, pauvre en ressources terrestres et dominé par la glace et le froid.L'un des résultats majeurs de l'étude concerne le métabolisme des graisses. Les ours polaires se nourrissent presque exclusivement de phoques, un régime extrêmement riche en lipides. Or, chez l'humain, une telle alimentation provoquerait rapidement des maladies cardiovasculaires. L'étude de la Dre Godden montre que les ours polaires possèdent des mutations spécifiques sur des gènes liés au transport et à la transformation du cholestérol, leur permettant de tirer un maximum d'énergie des graisses sans effets délétères. Cette adaptation génétique est essentielle pour survivre dans un milieu où les périodes de chasse sont de plus en plus courtes à cause de la fonte de la banquise.Les chercheurs ont également mis en évidence des modifications génétiques liées à la thermorégulation, au fonctionnement du pelage et à la gestion de l'énergie en période de jeûne prolongé. Ces adaptations permettent aux ours polaires de supporter des températures extrêmes tout en limitant les pertes caloriques, un avantage vital dans un Arctique en mutation.Cependant, l'étude de la Dre Alice Godden souligne une limite majeure : l'évolution génétique est un processus lent, qui se mesure en milliers d'années. Or, le changement climatique actuel se déroule à une vitesse sans précédent. Si les ours polaires ont déjà démontré une remarquable capacité d'adaptation sur le long terme, la rapidité de la fonte de la glace menace de dépasser leur capacité biologique à évoluer suffisamment vite.En conclusion, cette étude montre que les ours polaires portent dans leur ADN les traces d'une adaptation exceptionnelle à leur environnement. Mais elle rappelle aussi une réalité inquiétante : même les espèces les mieux adaptées ne sont pas forcément armées pour faire face à un changement climatique aussi brutal, soulignant l'urgence des enjeux écologiques actuels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi le cerveau broie-t-il du noir la nuit ?

    Play Episode Listen Later Jan 4, 2026 2:45


    Pourquoi a-t-on l'impression que tout devient plus sombre, plus grave, plus angoissant une fois la nuit tombée ? Cette sensation bien connue n'est pas qu'une impression subjective. En 2022, des chercheurs de l'université de Harvard ont formulé une hypothèse scientifique devenue très commentée : la théorie Mind After Midnight, publiée dans la revue Frontiers in Network Psychology.Selon cette hypothèse, le cerveau humain n'est tout simplement pas conçu pour fonctionner de manière optimale après minuit. Passé un certain seuil nocturne, notre organisme entre dans une zone de vulnérabilité cognitive et émotionnelle. Les chercheurs expliquent que la nuit combine plusieurs facteurs biologiques défavorables : la fatigue, la privation de sommeil, la baisse de la température corporelle et surtout des déséquilibres neurochimiques.Le principal mécanisme en cause concerne les neurotransmetteurs. La nuit, la production de sérotonine et de dopamine, associées à la régulation de l'humeur et à la motivation, diminue. À l'inverse, les circuits cérébraux liés à la peur, à l'anticipation négative et à la rumination, notamment ceux impliquant l'amygdale, deviennent relativement plus dominants. Résultat : le cerveau interprète plus facilement les pensées de manière pessimiste, anxieuse ou catastrophique.Autre élément clé de la théorie Mind After Midnight : la baisse du contrôle cognitif. Le cortex préfrontal, chargé de la prise de recul, du raisonnement logique et de la régulation émotionnelle, est particulièrement sensible au manque de sommeil. La nuit, il fonctionne au ralenti. Cela signifie que les pensées négatives ne sont plus correctement filtrées. Une inquiétude banale en journée peut ainsi se transformer en spirale mentale nocturne, donnant l'impression que « tout va mal ».Les chercheurs de Harvard soulignent aussi un facteur comportemental : l'isolement nocturne. La nuit, les interactions sociales diminuent, les possibilités d'action concrète sont réduites, et le cerveau se retrouve seul face à lui-même. Or, notre cognition est fondamentalement sociale. Privé de feedback extérieur, le cerveau a tendance à amplifier les scénarios internes, souvent les plus sombres.Cette théorie a des implications très concrètes aujourd'hui. Elle permet de mieux comprendre pourquoi les travailleurs de nuit, les personnes souffrant d'insomnie chronique ou de troubles anxieux présentent un risque accru de dépression, d'idées noires et de prises de décision impulsives. Les chercheurs insistent d'ailleurs sur un point crucial : les décisions importantes ne devraient jamais être prises au cœur de la nuit.En résumé, si le cerveau broie du noir la nuit, ce n'est pas parce que la réalité devient soudain plus sombre, mais parce que nos circuits cérébraux sont biologiquement désynchronisés. La théorie Mind After Midnight nous rappelle une chose essentielle : parfois, le problème n'est pas ce que l'on pense… mais l'heure à laquelle on pense. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi le temps ne s'écoule pas de la même manière sur Mars et sur Terre ?

    Play Episode Listen Later Dec 18, 2025 2:17


    À première vue, une seconde est une seconde, où que l'on se trouve dans le cosmos. Pourtant, selon la physique moderne, le temps n'est pas un flux uniforme : il dépend de l'environnement dans lequel on se trouve. C'est pour cette raison qu'un même intervalle temporel ne s'écoule pas exactement de la même façon sur la Terre et sur Mars. La clé de ce phénomène réside dans deux concepts fondamentaux de la relativité d'Einstein : la gravité et la vitesse.Première différence : la gravité martienne. La théorie de la relativité générale nous apprend que plus la gravité est forte, plus le temps ralentit. Un objet posé sur une planète massive ou dense voit son horloge interne tourner légèrement plus lentement qu'un objet situé dans un champ gravitationnel plus faible. Or, Mars est beaucoup plus petite que la Terre : elle possède environ 11 % de sa masse et exerce une gravité presque trois fois plus faible. Résultat : le temps, sur Mars, s'écoule un peu plus vite que sur Terre. L'effet est minuscule à l'échelle humaine, mais parfaitement mesurable avec des instruments précis.Deuxième différence : la vitesse de déplacement dans l'espace. La relativité restreinte montre que plus un objet se déplace rapidement, plus son temps propre ralentit. Or, la Terre et Mars ne tournent pas autour du Soleil à la même vitesse :la Terre file à environ 30 km/s,Mars à environ 24 km/s.Comme la Terre va plus vite, son temps ralentit légèrement plus que celui de Mars. Là encore, l'effet est microscopique, mais il existe. Les ingénieurs doivent même en tenir compte pour synchroniser les signaux envoyés aux sondes martiennes, aux rovers, et aux satellites de navigation.À ces phénomènes relativistes s'ajoute une confusion fréquente : un jour martien n'a pas la même durée qu'un jour terrestre. Le “sol”, c'est-à-dire un jour martien, dure environ 24 heures et 39 minutes. Cela ne signifie pas que le temps s'écoule différemment au sens physique, mais que le rythme des jours et des nuits diffère, compliquant la synchronisation entre les équipes au sol et les robots sur Mars.En combinant ces facteurs — gravité plus faible, vitesse orbitale différente, durée du jour — on obtient un tableau saisissant : le temps lui-même n'est pas universel. Sur Mars, il s'écoule légèrement plus vite que sur Terre. Les horloges y avancent d'environ 477 microsecondes par jour. Un écart qui varie en plus au fil de l'année martienne.U ne différence imperceptible pour nos sens, mais cruciale pour la navigation spatiale, la précision des horloges atomiques et, demain, pour l'organisation de la vie humaine sur une autre planète. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi frissonnons-nous parfois en urinant ?

    Play Episode Listen Later Dec 17, 2025 2:24


    Ce phénomène étrange, presque comique, mais très courant, porte un nom scientifique : le “pee shiver”, littéralement « frisson de miction ». Beaucoup d'hommes le connaissent, certaines femmes aussi, et les scientifiques ont proposé plusieurs mécanismes complémentaires pour expliquer pourquoi le corps peut soudain se mettre à trembler au moment d'uriner.D'abord, il faut comprendre que la miction provoque une décharge soudaine du système nerveux autonome, celui qui gère les fonctions inconscientes : respiration, digestion, rythme cardiaque… et accès aux toilettes. Lorsque la vessie est pleine, le corps active le système nerveux sympathique, celui qui met l'organisme en état d'alerte. En urinant, on libère cette tension : le système parasympathique reprend le dessus, entraînant une chute de l'adrénaline et une forme de relaxation brutale. Ce basculement nerveux, très rapide, peut déclencher un petit frisson involontaire, comme un court-circuit physiologique.Deuxième mécanisme : la variation de température corporelle. L'urine stockée dans la vessie est plus chaude que l'air ambiant. Lorsque l'on urine, on perd un peu de chaleur interne. Cela ne refroidit pas réellement l'organisme de façon mesurable, mais la sensation de chaleur qui s'échappe peut suffire à activer le réflexe classique de thermorégulation : un frisson destiné à réchauffer le corps. C'est le même type de réflexe que lorsqu'on sort d'un bain ou qu'une brise froide traverse le dos.Troisième piste : la libération de tension musculaire. Une vessie pleine mobilise de nombreux muscles — abdominaux, plancher pelvien, bas du dos. Au moment d'uriner, ces muscles se relâchent en masse, et cette relaxation soudaine peut provoquer une micro-secousse comparable au relâchement d'un spasme. Le corps passe littéralement d'un état de contraction à un état de détente en une fraction de seconde.Enfin, plusieurs chercheurs pensent que ce frisson pourrait être un reste évolutif, un vestige de mécanismes archaïques qui synchronisaient les systèmes nerveux et hormonaux lors de certaines fonctions vitales. Rien de dangereux donc : un simple bug fascinant de notre biologie.En résumé, les frissons au moment de faire pipi sont le résultat d'une combinaison de facteurs : changement brutal d'activité du système nerveux, légère perte de chaleur, relaxation musculaire et réflexes ancestraux. Un phénomène surprenant, mais parfaitement normal — et qui rappelle que même les gestes les plus ordinaires cachent une mécanique biologique étonnamment complexe. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi le pain grillé tombe toujours côté beurre ?

    Play Episode Listen Later Dec 16, 2025 2:27


    Contrairement à la croyance populaire qui attribue ce phénomène à la malchance, l'atterrissage fréquent du pain grillé côté beurre est une question de physique de la rotation, mise en évidence par le physicien britannique Robert Matthews. Ce n'est pas une loi universelle absolue (la probabilité n'est pas de $100%$), mais une forte tendance dictée par deux facteurs principaux : la hauteur de la table et le temps de chute... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi un volcan tropical a-t-il pu déclencher la Peste noire en Europe ?

    Play Episode Listen Later Dec 15, 2025 2:56


    Pendant des siècles, l'arrivée de la Peste noire en Europe (1347-1351), le fléau le plus meurtrier de l'histoire du continent, a été vue comme une simple fatalité : le bacille Yersinia pestis, né en Asie centrale, aurait voyagé avec les caravanes et les marchands jusqu'aux ports méditerranéens.Cependant, une étude révolutionnaire propose un scénario d'« effet papillon » climatique. Selon cette hypothèse, la pandémie ne serait pas seulement due au commerce, mais aurait été indirectement causée par une éruption volcanique tropicale survenue au milieu du XIVe siècle, dont l'identité exacte reste inconnue. Ce n'est pas l'éruption elle-même qui a infecté les gens, mais la chaîne d'événements climatiques qu'elle a déclenchée, préparant le terrain pour la catastrophe.La Réaction en Chaîne ClimatiqueUne éruption volcanique majeure injecte des quantités massives de cendres et de soufre dans la stratosphère, formant un voile d'aérosols qui peut persister pendant des années. Ce voile reflète la lumière du soleil, provoquant un refroidissement global temporaire, une période connue en paléoclimatologie comme un « hiver volcanique ».ShutterstockEn Europe, ce refroidissement soudain et les perturbations météorologiques associées ont provoqué une crise agricole sans précédent. Les récoltes ont chuté drastiquement, plongeant la population dans la famine et la faiblesse immunitaire.L'Importation FatalePour survivre à la pénurie, les royaumes européens ont été contraints d'importer massivement des céréales par voie maritime. C'est ici que le scénario prend une tournure fatale. Ces importations ne provenaient pas de régions voisines épargnées, mais probablement de zones de la mer Noire ou d'Asie, où la bactérie de la Peste noire était déjà endémique au sein des populations de rongeurs et de puces.L'étude suggère que ce besoin urgent et massif d'importer a créé un pont écologique idéal pour la transmission. Les navires transportant le grain contenaient inévitablement des rats noirs (Rattus rattus) et leurs puces infectées. Celles-ci, normalement confinées aux steppes d'Asie, ont ainsi été transportées en grand nombre, rapidement et directement, des foyers asiatiques jusqu'aux centres portuaires européens (Constantinople, Marseille, Messine, etc.).L'éruption volcanique a donc agi comme un détonateur climatique, forçant l'Europe médiévale à dépendre d'importations qui ont involontairement apporté le bacille. C'est l'illustration parfaite de l'effet papillon : un événement géologique lointain a mis en place les conditions météorologiques et socio-économiques exactes pour transformer un foyer régional de maladie en une pandémie mondiale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Quelle est la température sur les planètes du système solaire ?

    Play Episode Listen Later Dec 14, 2025 3:18


    La température d'une planète n'est pas due à un seul facteur, mais à un ensemble d'éléments physiques qui interagissent entre eux... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    La conscience précède-t-elle la matière ?

    Play Episode Listen Later Dec 10, 2025 3:18


    Depuis des siècles, le débat oppose deux visions du monde : le matérialisme, selon lequel la matière produit la conscience, et l'idéalisme, qui affirme au contraire que la conscience est première. Les travaux récents de Maria Strømme, physicienne et spécialiste de nanotechnologie et de science des matériaux, ravivent ce débat sous un angle inédit. Dans une étude publiée dans la revue AIP Advances, elle propose une théorie audacieuse : la conscience ne serait pas un produit tardif de l'évolution biologique, mais le substrat fondamental de la réalité. Selon elle, la matière, l'espace et le temps émergeraient d'un champ de conscience primordial.Strømme, qui travaille habituellement sur la structure atomique des nanomatériaux, transpose ici des outils mathématiques et des concepts issus de la physique fondamentale pour décrire la conscience comme une entité physique au sens strict, comparable à un champ quantique. Dans ce cadre, les particules, les atomes, les molécules et même les objets macroscopiques ne seraient que des excitations locales de ce champ de conscience. Autrement dit, la matière ne serait pas la base du réel, mais une manifestation secondaire, dérivée.Cette idée s'accompagne d'une implication majeure : les consciences individuelles ne seraient pas réellement séparées. Elles correspondraient à des fluctuations locales d'un même champ unifié, comme des vagues appartenant au même océan. La sensation de séparation entre individus serait alors une illusion produite par la configuration particulière de ces fluctuations. Ce point ouvre la porte à une vision radicalement différente de l'esprit et de la relation entre les êtres vivants.L'un des aspects les plus fascinants de la théorie est qu'elle offre un cadre théorique pour interpréter certains phénomènes souvent classés dans le paranormal : télépathie, intuition collective, expériences de mort imminente ou encore l'idée que la conscience puisse survivre à la mort physique. Strømme ne présente pas ces phénomènes comme avérés, mais considère qu'un champ de conscience fondamental pourrait, en principe, les expliquer. Elle affirme que ces hypothèses devraient être testables, ce qui leur donne un statut scientifique potentiel plutôt que purement spéculatif.Cette théorie reste néanmoins très controversée. Elle soulève des questions majeures : comment mesurer un tel champ ? Comment distinguer la conscience fondamentale d'une forme d'énergie ou d'information déjà connue ? Aucun consensus n'existe encore, et de nombreux chercheurs considèrent cette approche comme hautement spéculative. Mais la force du travail de Strømme réside dans le fait qu'il propose un modèle formel, issu d'une physicienne rigoureuse, qui tente de relier la science des matériaux aux fondements mêmes de la réalité.En conclusion, selon Maria Strømme, il est possible que la conscience précède la matière. La réalité matérielle serait alors une émergence secondaire d'un champ de conscience universel, bouleversant notre compréhension traditionnelle de l'univers et de notre place en son sein. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Comment rendre les gens plus altruiste grâce à Batman ?

    Play Episode Listen Later Dec 9, 2025 2:41


    Une étude menée à Milan par des psychologues de l'université Cattolica del Sacro Cuore s'est intéressée à une question simple mais audacieuse : peut-on rendre les gens plus gemtils envers autrui grâce à quelque chose d'aussi incongru qu'un homme déguisé en Batman dans le métro ? Contre toute attente, la réponse semble être oui, selon cette recherche publiée dans la revue npj Mental Health Research.Les chercheurs ont mené une expérience dans le métro milanais. Lors de certains trajets, une femme simulait une grossesse pour observer si des passagers se levaient pour lui céder leur siège. Dans les conditions normales, environ 37,7 % des passagers lui laissaient la place. Mais lorsque, par une autre porte, un homme déguisé en Batman montait dans la même rame, le taux grimpait à 67,2 %. Autrement dit, la présence du super-héros doublait presque la probabilité d'un comportement prosocial.Fait encore plus étonnant : parmi ceux qui se levaient, près de 44 % affirmaient ne pas avoir vu Batman. L'effet se produisait donc même sans perception consciente du personnage. Comment expliquer cela ?Selon l'équipe italienne, deux mécanismes se combinent. D'abord, la présence d'un élément inattendu – ici un homme masqué et capé dans un contexte ordinaire – rompt la routine mentale. Dans les transports, nous sommes souvent en mode “pilote automatique”, absorbés par nos pensées ou par nos écrans. Un personnage aussi incongru que Batman sert de rupture cognitive et ramène l'attention sur l'environnement. Une fois plus attentifs, les passagers remarquent davantage qu'une personne enceinte a besoin d'aide.Ensuite, Batman agit comme un “prime” symbolique. Même sans le voir clairement, son costume représente dans l'imaginaire collectif la justice, la protection et l'entraide. La simple présence du symbole active des normes sociales positives. Le cerveau, même inconsciemment, se retrouve orienté vers une idée simple : aider les autres est une bonne chose. Ce petit coup de pouce psychologique suffit parfois à déclencher un comportement prosocial.Cette étude montre que l'altruisme n'est pas seulement une caractéristique individuelle stable, mais aussi un phénomène hautement contextuel. La gentillesse peut être stimulée par des éléments extérieurs, même subtils : une surprise, une perturbation de la routine, un symbole culturel fort. En d'autres termes, de petites interventions dans l'espace public – installations artistiques, mises en scène, nudges sociaux – pourraient encourager l'entraide de manière très concrète.Dans un monde où beaucoup évoluent sans vraiment regarder autour d'eux, il suffit parfois d'un Batman inattendu pour rappeler que la bienveillance est toujours à portée de main. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi 9, 32, 66 et 83 ans sont des âges clefs ?

    Play Episode Listen Later Dec 8, 2025 3:22


    Une vaste étude menée par l'équipe de l'Université de Cambridge a analysé les cerveaux de 3 802 individus âgés de 0 à 90 ans grâce à de l'IRM de diffusion, afin de cartographier comment les connexions neurales évoluent tout au long de la vie. Les chercheurs ont identifié quatre points de bascule – vers 9, 32, 66 et 83 ans – qui marquent des transitions entre cinq grandes phases d'organisation cérébrale. Chaque point correspond à un changement marqué dans la façon dont les régions du cerveau sont connectées et dans l'efficacité globale du réseau neuronal.9 ans correspond à la fin de l'enfance et au début de l'adolescence cérébrale. Depuis la naissance, le cerveau a produit un excès de connexions, puis a procédé à une élimination massive, appelée « poda synaptique ». En parallèle, la matière grise et la matière blanche continuent de croître, ce qui améliore l'épaisseur corticale et stabilise les plis du cortex. Cette période optimise les fonctions fondamentales : langage, mémoire, coordination, apprentissages de base. Le passage vers 9 ans reflète un basculement global : le cerveau quitte la phase d'enfance et entre dans une adolescence prolongée sur le plan neuronal.32 ans marque l'entrée dans la pleine maturité adulte. Entre 9 et 32 ans, les connexions se renforcent, la matière blanche se densifie et les échanges entre régions distantes deviennent plus rapides et plus efficaces. Le cerveau affine son organisation interne, ce qui correspond au pic des performances cognitives : raisonnement abstrait, mémoire de travail, rapidité intellectuelle, flexibilité mentale. Autour de 32 ans se produit le changement le plus marqué de toute la vie : le réseau neuronal se stabilise et atteint un plateau structurel, caractéristique du cerveau adulte pleinement mature.66 ans correspond au début du vieillissement cérébral. Après plusieurs décennies de relative stabilité, la connectivité globale commence à diminuer. La matière blanche, essentielle aux communications longue distance dans le cerveau, montre des signes de dégradation. La conséquence est un ralentissement progressif de la vitesse de traitement, une diminution de la flexibilité cognitive et parfois une réduction de la mémoire de travail. Néanmoins, certaines capacités – comme les savoirs accumulés ou l'intelligence cristallisée – restent relativement préservées.83 ans marque l'entrée dans la phase de vieillesse avancée. À cet âge, le cerveau connaît une nouvelle reconfiguration : les réseaux deviennent plus fragmentés et s'appuient davantage sur des connexions locales. La communication globale perd en efficacité, ce qui augmente la vulnérabilité aux fragilités cognitives et aux maladies neurodégénératives. Certaines zones plus robustes peuvent compenser partiellement, mais l'organisation générale du réseau est moins stable et moins intégrée.En résumé, cette étude montre que le cerveau ne vieillit pas de façon linéaire. Il traverse cinq grandes phases, avec des changements profonds à 9, 32, 66 et 83 ans. Ces âges clés correspondent à des réorganisations profondes : apprentissage fondamental, maturité cognitive, entrée dans le vieillissement et vieillesse avancée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Comment éteindre un feu avec du son ?

    Play Episode Listen Later Dec 7, 2025 2:39


    Eteindre un incendie avec… du son. L'idée semble relever de la fiction, et pourtant elle repose sur des principes physiques parfaitement maîtrisés. Depuis quelques années, des chercheurs et des ingénieurs conçoivent des extincteurs qui n'utilisent ni eau, ni mousse, ni CO₂, mais simplement des ondes sonores à basse fréquence. Leur efficacité s'appuie sur trois phénomènes clés : les variations de pression, la déstabilisation du front de flamme, et l'éloignement de l'oxygène.Pour comprendre ce mécanisme, il faut revenir à la nature d'une flamme. Un feu n'est pas un objet, mais une réaction chimique auto-entretenue, appelée combustion, qui nécessite trois éléments : un carburant, une source de chaleur et un comburant, en général l'oxygène de l'air. Supprimez l'un des trois, et la combustion s'arrête. Les extincteurs sonores ne retirent pas le carburant ni la chaleur : ils agissent directement sur l'oxygène.Les appareils utilisent des ondes sonores très graves, généralement entre 30 et 60 hertz. À ces fréquences, le son produit de larges oscillations de pression dans l'air, capables de perturber la zone de combustion. Une onde sonore n'est rien d'autre qu'une succession de compressions et de décompressions de l'air ; lorsqu'elle est dirigée vers une flamme, elle impose à la colonne d'air un mouvement rapide et répétitif. Ce mouvement chasse littéralement l'oxygène hors du front de flamme, au même titre que souffler sur une bougie, mais de façon bien plus contrôlée et régulière.L'effet n'est pas seulement un déplacement mécanique du comburant. Les basses fréquences provoquent aussi des turbulences qui « étirent » la flamme, ce qui réduit sa température locale. Or, si la température baisse en-dessous du seuil nécessaire pour entretenir la réaction chimique, la combustion s'éteint. Le feu n'est donc pas “soufflé”, mais bel et bien étouffé, privé de l'environnement stable dont il a besoin pour se maintenir.Ce type d'extinction présente plusieurs avantages. Il n'utilise aucun produit chimique, ne laisse aucun résidu et n'endommage pas les surfaces. Il est particulièrement adapté aux feux domestiques, aux laboratoires, aux cuisines industrielles ou à l'électronique, où l'eau serait dangereuse. Ses limites sont également connues : il fonctionne surtout sur les feux de petite taille et ne coupe pas le carburant. Un feu qui se nourrit continuellement d'une source massive d'énergie ou de matière brûlable ne pourra pas être arrêté par le son seul.Néanmoins, ces extincteurs acoustiques ouvrent une voie prometteuse. Ils illustrent comment la physique des ondes peut, littéralement, priver un feu de voix et le faire disparaître. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi un cycliste fait-il moins d'effort devant une voiture ?

    Play Episode Listen Later Dec 4, 2025 2:01


    On connaît bien l'aspiration qui aide le cycliste placé derrière un véhicule : en profitant de la zone de basse pression créée dans son sillage, il pédale plus facilement. Mais un chercheur néerlandais a récemment démontré un phénomène beaucoup plus surprenant : un cycliste placé devant une voiture bénéficie lui aussi d'un effet aérodynamique favorable. Autrement dit, la simple présence d'un véhicule derrière lui peut réduire son effort… même s'il le précède.Comment est-ce possible ? Lorsqu'une voiture roule, elle ne se contente pas de laisser une traînée d'air derrière elle. Elle exerce aussi une pression sur la masse d'air située devant sa calandre, la poussant vers l'avant. Cette « vague d'air » n'est pas violente au point de déstabiliser un cycliste, mais suffisante pour modifier subtilement la distribution des pressions autour de lui. Résultat : la résistance de l'air que le cycliste doit affronter diminue.Pour comprendre ce mécanisme, il faut rappeler que l'essentiel de l'effort d'un cycliste à vitesse constante sert à lutter contre le vent relatif. Plus il avance vite, plus cette résistance croît de façon non linéaire. Or, le véhicule en approche crée une zone où l'air est légèrement comprimé devant lui, ce qui réduit la différence de pression entre l'avant et l'arrière du cycliste. Cette réduction, même très faible, suffit pour abaisser la traînée aérodynamique. Le cycliste dépense alors moins d'énergie pour maintenir la même vitesse.Les mesures réalisées dans des conditions contrôlées sont étonnantes : avec une voiture située à environ trois mètres derrière, un cycliste peut gagner plus d'une minute sur un contre-la-montre de 50 kilomètres. Un avantage spectaculaire, comparable à celui obtenu en changeant de matériel ou en optimisant sa position sur le vélo.Cet effet explique certaines situations observées en compétition, où des cyclistes précédant un véhicule d'assistance semblent progresser avec une aisance inattendue. C'est aussi pour cette raison que les règlements du cyclisme professionnel encadrent strictement les distances entre coureurs et véhicules suiveurs, afin d'éviter des gains artificiels liés à l'aérodynamique.Mais ce phénomène soulève aussi des questions de sécurité. Pour bénéficier de cet avantage, il faut qu'un véhicule se trouve très près du cycliste — une situation dangereuse sur route ouverte. Néanmoins, du point de vue purement scientifique, cette découverte révèle à quel point l'aérodynamique du cyclisme est subtil : même l'air déplacé devant une voiture peut alléger l'effort d'un sportif.En bref, si un cycliste pédale plus facilement lorsqu'une voiture le suit de près, ce n'est pas un hasard : c'est la physique de l'air en mouvement qui lui donne un sérieux coup de pouce. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Claim Choses à Savoir SCIENCES

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel