Pour tout comprendre, jour après jour, sur le fonctionnement du cerveau. Textes de Christophe Rodo, neuroscientifique.

Le paradoxe est vertigineux : vous avez l'impression d'être la même personne qu'il y a dix ans… et pourtant, matériellement, votre cerveau a presque entièrement changé.Contrairement à une idée répandue, le cerveau n'est pas une structure figée. C'est un organe dynamique, en perpuel renouvellement. Les neurones, ces cellules emblématiques, sont pour la plupart stables : vous conservez une grande partie de vos neurones toute votre vie. Mais les atomes qui les composent — carbone, hydrogène, oxygène —, eux, sont constamment remplacés.Pourquoi ? Parce que votre cerveau est un système biologique ouvert. À chaque seconde, il consomme de l'énergie, de l'oxygène, des nutriments. Les molécules sont dégradées, recyclées, remplacées. Les protéines qui assurent la communication entre neurones — récepteurs, canaux ioniques — ont une durée de vie souvent très courte, parfois quelques heures ou quelques jours. Même les lipides des membranes cellulaires sont renouvelés en permanence.Résultat : au bout de quelques années, la quasi-totalité des atomes présents dans votre cerveau a été remplacée par d'autres, venus de votre alimentation, de l'air que vous respirez, de l'eau que vous buvez. Autrement dit, le « support matériel » de vos pensées n'est jamais le même.Et pourtant… vous restez vous-même.C'est là que le paradoxe devient fascinant. Si la matière change, qu'est-ce qui persiste ? La réponse tient dans l'organisation. Votre identité ne repose pas sur les atomes eux-mêmes, mais sur la structure qu'ils forment : les connexions entre neurones, ce que l'on appelle le connectome.Imaginez une ville dont toutes les briques seraient progressivement remplacées, une par une, sans jamais modifier le plan des rues ni la disposition des bâtiments. Au fil du temps, aucune brique d'origine ne subsisterait, mais la ville resterait reconnaissable.Dans le cerveau, ce sont les synapses — les connexions entre neurones — qui jouent ce rôle. Elles se renforcent, s'affaiblissent, se réorganisent, mais conservent une certaine continuité. C'est cette architecture dynamique qui encode vos souvenirs, vos habitudes, votre personnalité.Ce paradoxe nous dit quelque chose de profond : vous n'êtes pas une matière, mais un processus. Une forme stable dans un flux permanent. Une sorte de tourbillon biologique, où les éléments passent, mais où le mouvement, lui, demeure.Et cela pose une question presque philosophique : si tout en vous change, qu'est-ce qui fait que vous êtes toujours vous ? Peut-être simplement ceci : la continuité de votre histoire, inscrite non pas dans la matière… mais dans la manière dont elle s'organise, instant après instant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On associe souvent le chewing-gum à un geste futile. Pourtant, derrière ce mouvement banal se cache un effet physiologique mesurable : mâcher peut augmenter le flux sanguin vers le cerveau de façon significative, parfois jusqu'à 30 à 40 % selon certaines études expérimentales. Rien de magique ici — c'est de la mécanique… et de la biologie.Tout commence avec l'acte de mastication. Lorsque vous mâchez, vous activez en continu les muscles de la mâchoire. Cette activité musculaire est contrôlée et surveillée par le nerf trijumeau, un nerf clé qui relie la bouche, le visage et certaines zones du cerveau.À chaque mouvement, ce nerf envoie une grande quantité de signaux vers le cerveau. C'est une stimulation constante, rythmique, presque comme un battement. Le cerveau interprète cette activité comme une demande accrue en énergie. Résultat : il augmente localement l'apport sanguin pour répondre à cette sollicitation.Ce phénomène s'appelle la neurovascularisation fonctionnelle : plus une zone du cerveau est active, plus elle reçoit de sang. Or, mâcher mobilise plusieurs régions cérébrales à la fois — notamment celles liées à la motricité, à la coordination, mais aussi à l'attention.Mais ce n'est pas tout. La mastication stimule également la circulation globale dans la tête. Le mouvement répétitif agit un peu comme une pompe mécanique, favorisant le retour veineux et améliorant la perfusion cérébrale. En clair, le sang circule mieux, plus vite, plus efficacement.Ce surplus d'irrigation a des effets concrets. Plusieurs études ont montré que mâcher du chewing-gum peut améliorer temporairement certaines fonctions cognitives : concentration, vigilance, temps de réaction. C'est particulièrement visible dans des tâches répétitives ou demandant une attention soutenue.Autre effet intéressant : la mastication semble réduire le stress. Elle diminue le taux de cortisol, l'hormone du stress, probablement parce qu'elle reproduit un comportement ancestral lié à l'alimentation, donc à la sécurité. En situation de tension, mâcher envoie inconsciemment un signal rassurant au cerveau.Alors pourquoi cette mauvaise réputation ? Principalement pour des raisons culturelles et sociales. Le geste est visible, parfois perçu comme désinvolte. Mais biologiquement, il est tout sauf inutile.Attention toutefois à ne pas exagérer : mâcher ne rend pas plus intelligent, et l'effet reste modéré et temporaire. Mais dans certaines situations — révision, travail prolongé, conduite — cela peut constituer un petit levier simple et accessible.En résumé, mâcher un chewing-gum, ce n'est pas seulement occuper sa bouche. C'est activer un circuit nerveux, stimuler le cerveau et améliorer sa circulation. Un geste banal… qui met littéralement votre cerveau en mouvement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le « gel du cerveau », que les médecins appellent céphalée due au froid (ou brain freeze), est une douleur aussi spectaculaire que brève. Elle survient lorsque vous consommez très rapidement un aliment ou une boisson glacée. En quelques secondes, une sensation vive, presque électrique, envahit le front, les tempes, parfois jusqu'aux dents. Et puis… elle disparaît aussi vite qu'elle est apparue.Que se passe-t-il exactement ? Tout commence dans le palais, la partie supérieure de votre bouche. Cette zone est richement vascularisée et très proche du cerveau. Lorsque quelque chose de très froid entre en contact avec ce tissu, la température chute brutalement. Les vaisseaux sanguins du palais réagissent alors immédiatement : ils se contractent pour limiter la perte de chaleur, puis se dilatent très rapidement pour rétablir la température normale.C'est cette dilatation soudaine qui déclenche le problème. Elle active un nerf bien particulier : le nerf trijumeau, l'un des principaux nerfs du visage. Or, ce nerf transmet les informations sensorielles de plusieurs zones, notamment le palais… mais aussi le front.Résultat : le cerveau reçoit un signal de douleur, mais il se trompe sur son origine. Il « projette » cette douleur vers le front, une zone plus habituelle pour les maux de tête. C'est ce qu'on appelle une douleur référée, un phénomène assez courant en neurologie.Mais pourquoi une réaction aussi intense pour un simple glaçon ? En réalité, il s'agit probablement d'un réflexe de protection. Le cerveau est extrêmement sensible aux variations de température. Une baisse trop rapide pourrait perturber son fonctionnement. Le corps réagit donc de manière exagérée pour signaler un danger potentiel et vous inciter à ralentir.Certains chercheurs ont même observé que les personnes sujettes aux migraines sont plus sensibles au « gel du cerveau ». Cela suggère que les mécanismes impliqués — notamment la gestion du flux sanguin dans le cerveau — sont proches de ceux des migraines.La bonne nouvelle, c'est que ce phénomène est totalement bénin. Il ne dure généralement que quelques secondes à une minute. Pour l'éviter, il suffit de consommer les aliments froids plus lentement, ou de les laisser se réchauffer légèrement en bouche avant de les avaler.Et si la douleur survient, une astuce simple consiste à presser la langue contre le palais : cela permet de réchauffer rapidement la zone et d'atténuer la réaction.En somme, ce petit choc glacé est moins une anomalie qu'un malentendu entre votre bouche et votre cerveau — un court-circuit sensoriel aussi fascinant qu'éphémère. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On le sait intuitivement : certaines relations nous épuisent. Mais ce que la science révèle aujourd'hui va beaucoup plus loin. Certaines personnes de notre entourage pourraient littéralement accélérer notre vieillissement biologique.Une étude publiée le 22 janvier 2026 dans la prestigieuse revue PNAS, menée par des sociologues et spécialistes du vieillissement issus de plusieurs universités américaines, apporte des résultats frappants. Les chercheurs se sont intéressés à ce qu'ils appellent les “hasslers” : des individus qui génèrent du stress, des conflits ou rendent la vie plus difficile au quotidien.Leur conclusion est claire : ces relations négatives ne sont pas seulement désagréables, elles agissent comme de véritables accélérateurs du vieillissement.Pour le démontrer, les chercheurs ont analysé plus de 2 000 adultes, en combinant questionnaires sociaux et analyses biologiques à partir d'échantillons de salive. Grâce à des outils très avancés, ils ont mesuré l'âge biologique des participants, c'est-à-dire l'état réel de leurs cellules, indépendamment de leur âge chronologique.Et les résultats sont impressionnants.Chaque personne “toxique” supplémentaire dans l'entourage est associée à une augmentation d'environ 1,5 % du rythme de vieillissement. Concrètement, cela correspond à environ neuf mois de vieillissement biologique en plus.Pourquoi un tel effet ?Parce que ces relations agissent comme des sources de stress chronique. Or, le stress prolongé entraîne une cascade de réactions dans l'organisme : augmentation du cortisol, inflammation persistante, affaiblissement du système immunitaire. À long terme, ces mécanismes accélèrent l'usure du corps.Autrement dit, ces interactions négatives “passent sous la peau”. Elles modifient réellement notre fonctionnement biologique.L'étude montre aussi que ces relations ne sont pas rares. Près de 30 % des individus déclarent avoir au moins une personne de ce type dans leur entourage.Fait intéressant, toutes les relations négatives n'ont pas le même impact. Les tensions avec la famille ou certaines connaissances semblent plus délétères que celles avec un conjoint, probablement parce qu'elles sont plus difficiles à réguler ou à éviter.Ce que cette recherche met en lumière, c'est une idée essentielle : notre santé ne dépend pas uniquement de ce que nous mangeons ou de notre activité physique. Elle dépend aussi, profondément, de la qualité de nos relations.Au fond, bien s'entourer n'est pas seulement une question de bien-être émotionnel. C'est aussi, très concrètement, une question de longévité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On connaît tous le déjà-vu : cette sensation troublante d'avoir déjà vécu une situation pourtant nouvelle. Mais son opposé existe bel et bien — et il est tout aussi déroutant. Il s'appelle le jamais-vu. Ici, ce n'est pas le nouveau qui semble familier, mais l'inverse : quelque chose de parfaitement connu devient soudain étrange, presque méconnaissable.Imaginez écrire un mot simple, comme « maison », encore et encore. Au bout d'un moment, il vous paraît bizarre, comme s'il n'avait plus de sens. Les lettres semblent arbitraires, le mot perd sa familiarité. C'est une forme de jamais-vu. Ce phénomène n'a rien de rare : il est même facilement reproductible en laboratoire.Des chercheurs ont étudié cet effet en demandant à des participants de répéter ou d'écrire un mot des dizaines de fois. Résultat : une majorité d'entre eux finit par ressentir une perte de sens, une impression d'étrangeté. Le cerveau, saturé par la répétition, cesse temporairement de traiter l'information de manière fluide. Il y a comme un « décrochage » entre la perception et la reconnaissance.Sur le plan neurologique, le jamais-vu semble lié à un dysfonctionnement momentané des circuits de la familiarité, notamment dans des régions comme l'hippocampe et le cortex temporal. Normalement, ces structures permettent de reconnaître rapidement ce que l'on connaît déjà. Mais lorsque ces mécanismes se dérèglent — à cause de la fatigue, du stress ou d'une surcharge cognitive — le cerveau peut perdre cette impression de familiarité, même face à des stimuli très connus.Le jamais-vu apparaît aussi dans certains contextes cliniques. Il est parfois observé chez des patients souffrant d'épilepsie du lobe temporal, où il peut précéder une crise. Dans ces cas-là, il devient plus intense, plus envahissant, et peut concerner des lieux, des visages ou même des actions quotidiennes.Mais dans la vie de tous les jours, il reste généralement bénin. Il révèle surtout une propriété fascinante du cerveau : notre sentiment de réalité repose sur un équilibre fragile. Reconnaître quelque chose comme familier n'est pas automatique — c'est le résultat d'un processus actif, constamment recalibré.En creux, le jamais-vu nous apprend que la familiarité n'est pas une donnée fixe, mais une construction. Le monde ne change pas — c'est notre manière de le percevoir qui vacille un instant. Et dans cette brève faille, ce que l'on croyait évident devient soudain mystérieux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aujourd'hui, le bleu nous semble une évidence. Le ciel est bleu, la mer est bleue, et même nos écrans en débordent. Pourtant, en remontant dans les textes anciens, une surprise attend : pendant des millénaires, de nombreuses cultures ne disposaient tout simplement pas d'un mot spécifique pour désigner cette couleur.Au XIXe siècle, le philologue William Ewart Gladstone remarque que dans les œuvres d'Homère, le bleu est étrangement absent. La mer y est décrite comme « sombre comme le vin », le ciel comme « vaste » ou « brillant », mais jamais bleu. Intrigué, le linguiste Lazarus Geiger étend l'analyse à d'autres civilisations anciennes : même constat en Chine, en Inde ou dans les textes hébraïques. Partout, les mots pour le noir et le blanc apparaissent d'abord, puis le rouge, puis le jaune et le vert… mais le bleu arrive presque toujours en dernier.Faut-il en conclure que les anciens ne voyaient pas le bleu ? Pas exactement. Leurs yeux percevaient bien les longueurs d'onde correspondantes, mais leur cerveau ne les catégorisait pas comme une couleur distincte. Autrement dit, ils voyaient sans vraiment « identifier ».Cette idée a été testée de manière fascinante avec le peuple Himba, en Namibie. Leur langue ne distingue pas clairement le bleu du vert, mais possède en revanche de nombreuses nuances pour décrire le vert. Dans une expérience célèbre, on leur montre un cercle composé de carrés verts, avec un seul carré bleu. La plupart ne parviennent pas à repérer l'intrus. En revanche, lorsqu'un carré vert légèrement différent est introduit parmi d'autres verts, ils l'identifient instantanément — bien plus vite qu'un observateur occidental.Ce phénomène illustre ce que les chercheurs appellent l'influence du langage sur la perception. Le cerveau ne se contente pas de recevoir des informations visuelles : il les organise, les trie, les nomme. Et cette organisation dépend en partie des catégories linguistiques que nous possédons. Sans mot pour une couleur, celle-ci reste plus floue, moins saillante.Des neuroscientifiques ont même montré, à l'aide d'imagerie cérébrale, que les zones du langage interagissent avec les aires visuelles. Voir une couleur et la nommer ne sont pas deux processus séparés : ils se renforcent mutuellement. Nommer, c'est stabiliser la perception.L'histoire du bleu révèle ainsi une vérité troublante : notre expérience du monde n'est pas une simple copie de la réalité. Elle est façonnée, en partie, par les outils mentaux — et linguistiques — dont nous disposons. En ce sens, apprendre un mot, ce n'est pas seulement enrichir son vocabulaire. C'est, littéralement, apprendre à voir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est l'un des phénomènes les plus troublants des neurosciences de la fin de vie. Des patients plongés depuis des années dans un brouillard cognitif profond — incapables de reconnaître leurs proches ou de parler — retrouvent soudain une clarté mentale étonnante. Ils parlent, se souviennent, disent parfois adieu. Puis, quelques heures ou jours plus tard, ils meurent. Ce phénomène porte un nom : la lucidité terminale.Décrite depuis le XIXe siècle, cette « remontée » de la conscience reste rare mais bien documentée. Une revue récente parle d'un « retour inattendu des capacités cognitives » chez des patients atteints de démence sévère, incluant mémoire, langage et émotions . Une étude basée sur des témoignages de soignants montre même que ces épisodes ne sont pas anecdotiques : une majorité de proches de patients atteints de démence avancée disent en avoir été témoins au moins une fois .Mais comment expliquer ce paradoxe ? Plusieurs hypothèses s'affrontent.Première piste : une activité cérébrale de fin de vie. Des recherches relayées par Scientific American suggèrent que le cerveau mourant pourrait connaître des pics d'activité inhabituels, une sorte de « sursaut » neuronal permettant brièvement une meilleure intégration des réseaux cognitifs . Une hypothèse proche évoque une « synchronisation rapide et non linéaire » des neurones, capable de restaurer temporairement certaines fonctions .Deuxième hypothèse : des circuits encore intacts. Certains chercheurs, comme ceux travaillant sur la lucidité paradoxale, pensent que toutes les fonctions cérébrales ne sont pas totalement détruites dans Alzheimer. Certaines zones — notamment liées à la mémoire — resteraient partiellement fonctionnelles mais « inhibées ». À l'approche de la mort, des changements chimiques ou hormonaux pourraient lever cette inhibition, permettant un accès fugace aux souvenirs .Troisième piste : une réorganisation du cerveau. Des projets de recherche, notamment à l'Université de New York, tentent aujourd'hui de mesurer ces épisodes pour comprendre si le cerveau peut se « reconfigurer » temporairement, remettant en question l'idée que le déclin cognitif est strictement irréversible .Enfin, certains chercheurs restent prudents. Le phénomène est encore très peu étudié, difficile à observer en conditions contrôlées, et entouré de nombreux biais (témoignages, émotions, reconstruction a posteriori). Il n'existe aujourd'hui aucun consensus scientifique solide sur son mécanisme .Ce mystère touche à une question vertigineuse : la mémoire disparaît-elle vraiment… ou est-elle parfois simplement inaccessible ? La lucidité terminale, en offrant ces instants de retour, suggère une idée troublante : même dans un cerveau profondément altéré, une part de l'identité pourrait subsister — silencieuse, jusqu'au dernier instant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous rentrez chez vous après quelques jours d'absence. Et là, immédiatement, une odeur vous saute au nez. Celle de votre maison. Pourtant, en temps normal, vous ne la sentez jamais. Comme si elle n'existait pas. Alors, où disparaît cette odeur au quotidien ?La réponse tient en un mot : adaptation olfactive.Notre système olfactif est conçu pour détecter les changements, pas la permanence. Dès qu'une odeur est constante dans notre environnement, le cerveau décide, en quelque sorte, de l'ignorer. Ce mécanisme a été largement étudié, notamment par la chercheuse Pamela Dalton au Monell Chemical Senses Center, spécialiste de l'adaptation olfactive.Concrètement, tout commence dans le nez. Lorsque vous respirez, des molécules odorantes se fixent sur des récepteurs olfactifs. Ces récepteurs envoient des signaux électriques vers le bulbe olfactif, puis vers différentes régions du cerveau. Mais si la même odeur est présente en continu, ces récepteurs deviennent progressivement moins sensibles. Ils “répondent” de moins en moins.C'est la première étape : une adaptation périphérique.Mais le phénomène ne s'arrête pas là. Le cerveau lui-même joue un rôle actif. Il apprend à considérer cette odeur comme non pertinente. Résultat : même si les signaux sont encore partiellement transmis, ils sont filtrés, atténués, voire ignorés. C'est une forme d'habituation centrale.Les travaux de Pamela Dalton ont montré que cette adaptation peut être extrêmement rapide — parfois en quelques minutes — et qu'elle dépend aussi de facteurs cognitifs. Par exemple, si une odeur est jugée importante ou potentiellement dangereuse, le cerveau mettra plus de temps à l'ignorer.Pourquoi ce système existe-t-il ? Pour une raison simple : l'efficacité.Imaginez si vous perceviez en permanence toutes les odeurs autour de vous — votre lessive, vos meubles, votre propre odeur corporelle. Votre cerveau serait saturé d'informations inutiles. En filtrant ce qui est constant, il libère de l'attention pour ce qui change. Une odeur de brûlé, de gaz, ou de nourriture avariée, par exemple.Autrement dit, ne pas sentir votre maison est en réalité un signe que votre cerveau fonctionne parfaitement. Il a classé cette odeur comme “normale”, sans importance immédiate.C'est aussi pour cela que les invités sentent immédiatement votre intérieur… alors que vous, non. Leur cerveau, lui, découvre une odeur nouvelle. Elle n'est pas encore “effacée”.En résumé, votre maison n'est pas inodore. C'est votre cerveau qui a appris à ne plus la sentir. Un tri silencieux, permanent, qui vous permet de rester attentif à l'essentiel.Et parfois, il suffit de partir quelques jours pour que cette odeur oubliée… refasse surface. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Imaginez une situation simple : quelqu'un triche dans un jeu, ou profite du groupe sans respecter les règles. Vous avez la possibilité de le punir… mais cela vous coûte quelque chose — du temps, de l'argent, de l'énergie. Et pourtant, vous le faites. Pourquoi accepter de payer pour sanctionner quelqu'un d'autre ?C'est précisément ce que les neurosciences appellent la punition altruiste.Le terme peut sembler paradoxal. “Punition”, d'un côté, évoque une forme d'agression. “Altruiste”, de l'autre, renvoie à l'idée d'aider les autres. Et pourtant, les deux sont liés. La punition altruiste désigne le fait de sanctionner un comportement injuste ou antisocial, même quand cela ne vous apporte aucun bénéfice direct — voire un coût personnel.Ce concept a été étudié en profondeur dans une expérience célèbre publiée en 2004 dans la revue Science, par l'équipe du neuroscientifique Dominique de Quervain. Dans cette étude, des participants jouent à des jeux économiques où certains trichent. Ensuite, on leur donne la possibilité de punir ces tricheurs, mais en payant eux-mêmes pour cela.Résultat : une grande partie des participants choisit de punir. Ils acceptent une perte personnelle pour sanctionner l'injustice.Pourquoi ? La réponse se trouve dans le cerveau.Grâce à l'imagerie cérébrale, les chercheurs ont observé que lorsque les participants punissent un tricheur, une région bien particulière s'active : le striatum dorsal, un élément clé du circuit de la récompense. C'est la même zone qui s'active lorsque vous mangez quelque chose que vous aimez, ou lorsque vous recevez une récompense.Autrement dit, punir quelqu'un qui a mal agi procure du plaisir.Mais ce plaisir n'est pas gratuit. Il a une fonction. D'un point de vue évolutif, la punition altruiste est un outil de régulation sociale. Dans les sociétés humaines, la coopération est essentielle. Si personne ne sanctionne les tricheurs, les règles s'effondrent, et avec elles, la confiance.En acceptant de punir — même à vos propres frais — vous contribuez à maintenir un système juste. Vous envoyez un signal clair : les comportements antisociaux ont un coût.Et votre cerveau vous encourage dans ce rôle en vous récompensant.Ce mécanisme explique pourquoi nous ressentons parfois une satisfaction lorsque “justice est faite”. Ce n'est pas simplement de la vengeance. C'est une réponse profondément ancrée dans notre biologie sociale.En somme, la punition altruiste révèle une chose essentielle : notre cerveau ne cherche pas seulement notre intérêt individuel immédiat. Il est aussi programmé pour défendre les règles du groupe, quitte à nous faire payer un prix.Et pour s'assurer que nous le fassions… il nous offre, en échange, une petite récompense intérieure. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous jetez un coup d'œil à une horloge. Et là, étrange sensation : la trotteuse semble figée… comme si le temps s'était suspendu une fraction de seconde. Puis elle repart. Ce moment bizarre, presque imperceptible, porte un nom : la chronostase. Et derrière cette illusion se cache un petit mensonge parfaitement orchestré par votre cerveau.Tout commence avec un mouvement que vous faites sans y penser : une saccade oculaire. Nos yeux ne glissent pas en continu, ils sautent d'un point à un autre, plusieurs fois par seconde. Ces mouvements sont extrêmement rapides — jusqu'à 500 degrés par seconde — et surtout, ils posent un problème majeur : pendant une saccade, l'image projetée sur la rétine est floue, instable, inutilisable.Pour éviter que vous ne perceviez ce chaos visuel permanent, votre cerveau applique un filtre radical : il coupe temporairement le traitement de l'image. C'est ce qu'on appelle la suppression saccadique. En clair, pendant que vos yeux bougent, vous êtes techniquement… aveugle.Mais alors, pourquoi ne voyez-vous jamais ce “trou” dans votre perception ? Parce que votre cerveau triche. Il reconstruit une continuité visuelle en comblant le vide. Et c'est là qu'intervient la chronostase.Lorsque votre regard atterrit sur la trotteuse, votre cerveau “antidate” la perception. Il fait comme si vous aviez déjà vu cette image avant même que vos yeux ne s'y posent réellement. Résultat : la première position de la trotteuse est artificiellement prolongée dans votre perception. Elle vous semble durer plus longtemps que la réalité.En réalité, la trotteuse ne s'est jamais arrêtée. C'est votre cerveau qui étire le temps, pour masquer le trou laissé par la saccade. Il ne se contente pas de combler un vide : il réécrit légèrement le passé pour maintenir l'illusion d'un monde fluide et stable.Ce phénomène ne se limite pas aux horloges. Vous pouvez l'observer avec un chronomètre numérique, ou même en passant rapidement votre regard d'un objet à un autre : le premier instant semble toujours durer un peu trop longtemps.La chronostase révèle une vérité fascinante : notre perception du temps n'est pas un flux continu fidèle à la réalité. C'est une construction, un montage en temps réel. Le cerveau agit comme un monteur de cinéma, coupant, recollant, ajustant les séquences pour produire une expérience cohérente.Autrement dit, ce que vous percevez comme le présent est déjà une version légèrement modifiée du réel. Une illusion utile, élégante… et absolument indispensable pour que le monde ne ressemble pas à un chaos clignotant.La prochaine fois que la trotteuse semblera hésiter, souvenez-vous : ce n'est pas le temps qui ralentit. C'est votre cerveau qui vous raconte une histoire plus confortable que la vérité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Que se passe-t-il réellement dans notre esprit au moment où le cœur cesse de battre ? Si les récits d'expériences de mort imminente (EMI) — tunnel lumineux, sensation de paix ou défilé de la vie — ont longtemps été relégués au rang de témoignages mystiques, les neurosciences apportent aujourd'hui un éclairage biologique saisissant. Une étude menée par la professeure Jimo Borjigin de l'Université du Michigan révèle une hyperactivité cérébrale inattendue qui défie nos conceptions traditionnelles de la mort.Une explosion d'activité dans un cerveau mourantContrairement à l'idée reçue d'une extinction progressive et silencieuse, le cerveau semble connaître un baroud d'honneur électrisant. En observant le cas d'une patiente en état de mort cérébrale après l'arrêt de la ventilation assistée, les chercheurs ont détecté une augmentation massive des ondes gamma.Ces oscillations à haute fréquence sont normalement associées à des fonctions cognitives supérieures : la perception consciente, la mémoire et l'intégration d'informations complexes. Plus surprenant encore, cette activité a persisté plusieurs minutes après l'arrêt de l'oxygénation, atteignant des niveaux jusqu'à douze fois supérieurs à ceux observés durant l'état de veille normale.La biologie derrière les visionsCette "tempête" électrique n'est pas chaotique. Elle se caractérise par une synchronisation accrue entre différentes régions cérébrales, notamment les zones liées au traitement visuel et à la mémoire.L'activation des zones mémorielles pourrait expliquer le célèbre « film de la vie ».La synchronisation entre les zones sensorielles pourrait être à l'origine des visions intenses ou du sentiment de détachement du corps.Ces découvertes suggèrent que les EMI ne sont pas de simples hallucinations dues au manque d'oxygène, mais le résultat d'un processus neurobiologique structuré et complexe.Repousser les frontières de la mortCes recherches en « thanatologie » scientifique bousculent la définition clinique de la mort. Si le cerveau reste capable d'une telle activité organisée après un arrêt cardiaque, à quel moment précis la conscience s'éteint-elle vraiment ?Au-delà de la curiosité scientifique, ces travaux ouvrent des perspectives en réanimation. Si nous comprenons mieux comment et pourquoi le cerveau s'active ainsi, nous pourrions un jour identifier des fenêtres d'intervention jusqu'ici insoupçonnées. Entre mystère de la conscience et réalité biologique, la science de la mort est en train de vivre sa propre révolution, nous invitant à repenser l'ultime frontière de notre existence. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Voici les liens pour écouter l'épisode Pourquoi le tapis de course a-t-il été un instrument de torture ?Apple Podcasts:https://podcasts.apple.com/fr/podcast/pourquoi-le-tapis-de-course-a-t-il/id1048372492?i=1000756915527Spotify:https://open.spotify.com/episode/1JZfMJW5Cu88LpK2VQlCSr?si=07106fbff27b41ac---------------------Pendant des décennies, les neurosciences ont tenté de percer le mystère de l'intelligence humaine en cherchant des zones spécifiques du cerveau qui seraient le siège de nos capacités cognitives. On pensait alors que la mémoire ou le langage dépendaient de « centres » isolés. Cependant, une étude récente publiée dans Nature Communications et menée par des chercheurs de l'Université de Notre Dame vient bousculer ce paradigme : l'intelligence ne résiderait pas dans une région précise, mais dans l'efficacité globale de la communication entre les différents réseaux cérébraux.Le cerveau comme un orchestre coordonnéL'équipe dirigée par le neuroscientifique Aron Barbey a analysé les données d'imagerie cérébrale de près de 1 000 adultes. Leurs conclusions sont sans appel : la rapidité d'apprentissage et la capacité d'adaptation dépendent de la manière dont l'esprit émerge comme un tout cohérent. Plutôt que la taille du cerveau ou la performance d'une zone isolée, c'est la coordination systémique qui fait la différence.L'intelligence générale se manifesterait ainsi à travers trois propriétés fondamentales :1. L'intégration de l'information : la capacité à fusionner des données provenant de sources variées.2. La flexibilité des réseaux : l'aptitude du cerveau à se reconfigurer selon la tâche.3. L'efficacité des connexions à longue distance : la rapidité des échanges entre des zones éloignées du cortex.Des « chefs d'orchestre » neuronauxL'étude met en lumière l'existence de certains réseaux jouant le rôle de régulateurs. Ces derniers agissent comme des chefs d'orchestre, pilotant l'activité des autres zones pour répondre de manière optimale à une situation donnée. Cette organisation permet non seulement de résoudre des problèmes complexes, mais aussi de passer avec fluidité d'une tâche à une autre, un marqueur essentiel de l'intelligence humaine.Des perspectives pour la santé et l'IACette découverte a des implications majeures. En médecine, elle permet de mieux comprendre le déclin cognitif lié à l'âge ou les effets des lésions cérébrales, qui perturbent souvent cette harmonie globale.Par ailleurs, ces travaux offrent des pistes précieuses pour l'intelligence artificielle. Si les IA actuelles surpassent l'humain dans des tâches ultra-spécifiques, elles peinent encore à généraliser leurs connaissances. S'inspirer de la flexibilité et de l'interconnectivité du cerveau humain pourrait être la clé pour créer des systèmes plus adaptables. En somme, l'intelligence ne dépend pas de ce que chaque pièce du cerveau fait séparément, mais de la symphonie qu'elles jouent ensemble. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une découverte fascinante, et un peu dérangeante : selon une étude publiée dans la revue Nature Human Behaviour, nous avons tendance à former des couples avec des personnes qui présentent… les mêmes troubles psychiatriques que nous.Les chercheurs se sont penchés sur neuf troubles majeurs : dépression, trouble bipolaire, schizophrénie, trouble obsessionnel-compulsif, anorexie, ou encore addictions. Et leur constat est clair : il existe une forte corrélation entre les profils psychiatriques des partenaires.Mais pourquoi ?Première explication : ce que les scientifiques appellent “l'appariement assortatif”. Autrement dit, nous choisissons des partenaires qui nous ressemblent. Pas seulement en termes d'éducation ou de milieu social… mais aussi sur le plan psychologique. Une personne souffrant d'anxiété, par exemple, aura plus de chances de fréquenter des environnements — ou des cercles sociaux — où elle rencontrera d'autres personnes anxieuses.Deuxième facteur : la compréhension mutuelle. Deux personnes ayant vécu des expériences similaires — dépression, TOC, troubles alimentaires — se comprennent souvent mieux. Elles partagent des codes, des émotions, des fragilités. Cela peut créer une forme d'intimité très forte, presque immédiate.Mais il y a aussi une dimension plus biologique. Certains troubles psychiatriques ont une base génétique. Or, des individus ayant des prédispositions similaires peuvent être inconsciemment attirés les uns par les autres. Le cerveau, en quelque sorte, “reconnaît” un terrain familier.Enfin, il ne faut pas négliger un effet plus subtil : nos comportements influencent nos rencontres. Une personne souffrant d'addictions, par exemple, fréquente des lieux où elle a plus de chances de rencontrer quelqu'un ayant les mêmes habitudes. Ce n'est donc pas seulement une question d'attirance, mais aussi d'exposition.Ce phénomène n'est pas sans conséquences. Sur le plan individuel, ces couples peuvent se soutenir… mais aussi renforcer certaines difficultés. Et sur le plan génétique, cela peut augmenter le risque de transmission de ces troubles aux enfants.Alors, sommes-nous condamnés à aimer quelqu'un qui nous ressemble, jusque dans nos fragilités ? Pas forcément. Mais cette étude nous rappelle une chose essentielle : nos choix amoureux ne sont jamais totalement libres. Ils sont aussi le produit discret de notre cerveau, de notre histoire… et de nos failles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En raison de la situation actuelle au Moyen-Orient, j'ai été momentanément bloqué à l'étranger, ce qui m'a empêché d'enregistrer de nouveaux épisodes pour cette semaine. Je suis contraint de vous proposer des rediffusions jusqu'à vendredi. Veuillez m'en excuser. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Peut-on vraiment apprendre à être heureux, comme on apprend une langue ou un instrument de musique ? La question peut sembler naïve. Pourtant, depuis une vingtaine d'années, la psychologie et les neurosciences s'y intéressent très sérieusement.Un premier élément clé vient des travaux de Sonja Lyubomirsky, professeure à l'Université de Californie. Dans une étude publiée en 2005 dans Review of General Psychology, elle propose que le niveau de bonheur dépendrait pour environ 50 % de facteurs génétiques, 10 % des circonstances de vie… et 40 % d'activités volontaires. Autrement dit, une part significative de notre bien-être dépendrait de ce que nous faisons régulièrement.Mais ces activités fonctionnent-elles vraiment ? En 2008, une étude expérimentale publiée dans Journal of Clinical Psychology a testé différentes pratiques issues de la psychologie positive : tenir un journal de gratitude, écrire une lettre de reconnaissance, cultiver l'optimisme. Résultat : les participants qui pratiquaient régulièrement ces exercices voyaient leur niveau de bien-être augmenter de manière significative par rapport au groupe contrôle. Plus intéressant encore : les effets pouvaient durer plusieurs mois.Les neurosciences confirment en partie ces observations. Des recherches en imagerie cérébrale menées par Richard Davidson à l'Université du Wisconsin ont montré que la méditation de compassion pouvait modifier l'activité du cortex préfrontal gauche, une région associée aux émotions positives et à la résilience. Ces changements ne sont pas simplement subjectifs : ils sont mesurables dans l'activité électrique et fonctionnelle du cerveau.En 2015, une vaste méta-analyse publiée dans BMC Public Health a examiné plus de 30 études sur les interventions de psychologie positive. Conclusion : ces pratiques produisent en moyenne une amélioration modeste mais réelle du bien-être et une diminution des symptômes dépressifs. Ce n'est pas une transformation spectaculaire, mais un effet robuste et reproductible.Alors, peut-on apprendre à être heureux ? La réponse scientifique semble être oui, en partie. Nous ne choisissons pas notre patrimoine génétique ni toutes nos circonstances. Mais certaines habitudes — gratitude, relations sociales de qualité, engagement dans des activités porteuses de sens, méditation — peuvent entraîner le cerveau à réagir différemment.Le bonheur ne serait donc pas un état figé, mais une compétence. Une compétence imparfaite, influencée par de nombreux facteurs… mais entraînable. Comme un muscle. Et peut-être que la question n'est pas “Puis-je devenir parfaitement heureux ?”, mais plutôt : “Quelles pratiques quotidiennes peuvent légèrement incliner mon cerveau vers plus de sérénité ?” Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Plusieurs études scientifiques récentes suggèrent que la pratique du chant, et notamment le chant choral, pourrait freiner certains effets du vieillissement cérébral — non pas comme un remède miracle, mais comme une activité stimulante à plusieurs niveaux. Un examen approfondi de la littérature scientifique sur le sujet, publié dans A Song for the Mind: A Literature Review on Singing and Cognitive Health in Aging Populations, montre que le chant est associé à des changements positifs dans le cerveau des personnes âgées. Les chercheurs ont observé que les chanteurs, notamment ceux participant régulièrement à des chorales, présentent une meilleure intégrité de certaines connexions neuronales, en particulier dans les voies blanches du cerveau — ces longues fibres qui relient différentes régions cérébrales et permettent des échanges rapides et efficaces. Ce résultat est important parce qu'avec l'âge, l'intégrité des voies blanches a tendance à diminuer, ce qui ralentit la communication entre les zones du cerveau et contribue à la baisse des capacités cognitives telles que la mémoire ou la vitesse de réflexion. Chez les chanteurs expérimentés, certaines de ces connexions montrent moins de déclin, suggérant que le chant pourrait soutenir la « réserve cognitive » — cette capacité du cerveau à continuer de fonctionner efficacement malgré les changements liés à l'âge. Dans une étude publiée en 2025 dans Frontiers in Aging Neuroscience, des équipes de recherche ont spécifiquement examiné l'effet du chant choral chez des adultes plus âgés. Ils ont constaté que la participation régulière à des séances de chant était associée à une amélioration de la mémoire épisodique — c'est-à-dire la capacité à se souvenir d'événements vécus — ainsi qu'à des effets positifs sur les réseaux cérébraux qui soutiennent cette fonction. Ce qui rend le chant particulièrement intéressant, c'est qu'il ne stimule pas qu'une seule fonction cérébrale :il combine perception auditive, mémoire des paroles et des mélodies,il engage la production vocale et le contrôle respiratoire,et, dans le cas du chant en groupe, il renforce aussi les connexions sociales — un facteur reconnu pour protéger le cerveau contre le déclin cognitif. Les neurosciences montrent ainsi que chanter peut activer plusieurs réseaux cérébraux à la fois, favorisant la neuroplasticité — cette capacité du cerveau à s'adapter et à se renforcer même avec l'âge. Même si toutes les études ne prouvent pas de relation causale définitive, le consensus scientifique est que le chant représente une activité enrichissante pour entretenir la santé du cerveau à long terme. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La solitude et la sagesse sont deux expériences humaines profondes : l'une souvent vécue comme pénible, l'autre valorisée comme une qualité qui apaise et éclaire. Mais ces phénomènes psychologiques ont-ils aussi une base neuronale ? Une équipe de chercheurs de l'université de Californie à San Diego a mené une expérience originale pour répondre à cette question en examinant les corrélats cognitifs et cérébraux de la solitude et de la sagesse.L'étude, publiée en 2021 dans la revue Cerebral Cortex, a recruté 147 adultes âgés de 18 à 85 ans. Chaque participant a réalisé une tâche cognitive simple : repérer la direction d'une flèche à l'écran, tout en voyant en arrière-plan des visages exprimant différentes émotions. Pendant l'exercice, les chercheurs ont enregistré l'activité cérébrale à l'aide d'un électroencéphalogramme (EEG).Ce qui rend cette expérience unique, c'est qu'elle a mesuré simultanément des traits de solitude et de sagesse chez les participants, puis analysé comment leur cerveau réagit à des stimuli émotionnels associés à ces traits. Les résultats montrent une relation inverse intrigante entre solitude et sagesse, visible jusque dans l'activité neuronale.Chez les individus qui se disaient plus solitaires, la présence de visages exprimant de la colère ralentissait significativement leur vitesse de réponse à la tâche. Dans le cerveau, cela s'accompagnait d'une activité accrue dans des régions sensibles aux stimuli menaçants, notamment dans une zone appelée jonction temporo-pariétale (TPJ) et dans le cortex pariétal supérieur. Ces régions sont impliquées dans l'attention, la détection de menaces sociales et la perception des intentions des autres.À l'inverse, chez les personnes qui présentaient des traits de sagesse — comme l'empathie ou une meilleure régulation émotionnelle — les visages heureux augmentaient la vitesse de réponse. Leur cerveau montrait une activation différente du TPJ, mais aussi une activité plus prononcée dans l'insula, une région liée à l'empathie et à la connexion sociale positive.Autrement dit, le cerveau des personnes plus sages réagit davantage aux émotions positives, tandis que le cerveau des personnes plus solitaires est plus réactif aux menaces sociales. C'est comme si le style de traitement des émotions — sensible au bonheur d'un côté, aux dangers sociaux de l'autre — était déjà inscrit dans les circuits neuronaux.Cette étude montre que le lien entre solitude et sagesse ne se limite pas à des questionnaires ou à des impressions subjectives : il peut être observé dans l'activité cérébrale elle-même. Elle ouvre de nouvelles perspectives sur la compréhension de la solitude non seulement comme un état psychologique, mais aussi comme un mode de traitement émotionnel distinct dans le cerveau, et sur la sagesse comme une capacité neurocognitivement fondée à privilégier les émotions positives et les connexions sociales. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'anxiété est l'un des troubles psychiques les plus répandus au monde. Palpitations, hypervigilance, pensées envahissantes, sensation de danger permanent… Ces symptômes semblent multiples, complexes, et leurs causes longtemps restées floues. Mais une étude récente ouvre une piste radicalement nouvelle : et si une partie de l'anxiété avait une origine biologique unique, identifiable, et potentiellement modulable ?Des chercheurs de l'Institut des neurosciences de San Juan, à Alicante, en Espagne, se sont intéressés à un gène précis : Grik4. Ce gène code une protéine du système nerveux central impliquée dans la transmission du glutamate, le principal neurotransmetteur excitateur du cerveau. Autrement dit, Grik4 joue un rôle clé dans la manière dont les neurones communiquent entre eux.Leurs travaux, publiés dans la revue scientifique iScience, montrent un phénomène frappant : lorsque le gène Grik4 est surexprimé, le cerveau entre dans un état d'hyperactivité anormale, très proche de ce que l'on observe dans les troubles anxieux.Pour parvenir à cette conclusion, les chercheurs ont étudié des modèles animaux chez lesquels l'expression de Grik4 était artificiellement augmentée. Résultat : ces animaux présentent des comportements typiques de l'anxiété – évitement excessif, réactions de peur exagérées, difficulté à s'adapter à des environnements nouveaux. Sur le plan neuronal, leur cerveau montre une activité excitatrice excessive, comme si les circuits de l'alerte restaient bloqués en position “danger”.Pourquoi est-ce crucial ? Parce que l'anxiété est souvent décrite comme un déséquilibre entre les systèmes d'excitation et d'inhibition du cerveau. Cette étude suggère que Grik4 pourrait être l'un des interrupteurs moléculaires de ce déséquilibre. Trop actif, il pousserait le cerveau à interpréter des situations neutres comme menaçantes.Les chercheurs avancent une hypothèse forte : dans certains troubles anxieux, le problème ne serait pas seulement psychologique ou environnemental, mais lié à une dérégulation précise de la signalisation glutamatergique. Cela ouvre la voie à des traitements plus ciblés, visant non pas à “calmer” globalement le cerveau, mais à rééquilibrer un mécanisme moléculaire spécifique.Attention toutefois : il ne s'agit pas de dire que toute l'anxiété se résume à un seul gène. Les troubles anxieux restent multifactoriels, mêlant génétique, environnement, expériences de vie et apprentissages émotionnels. Mais cette découverte apporte une pièce majeure au puzzle.Elle rappelle surtout une chose essentielle en neurosciences : parfois, derrière un tourbillon de symptômes complexes, se cache un mécanisme étonnamment précis. Et c'est souvent là que naissent les avancées thérapeutiques les plus prometteuses. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour beaucoup, l'intelligence générale et la qualité du sperme n'ont rien à voir l'une avec l'autre : la première est une fonction cognitive, l'autre un paramètre de fertilité. Pourtant, une étude scientifique surprenante suggère qu'il existe une corrélation positive entre ces deux traits humains apparemment disjoints, et que comprendre ce lien peut enrichir notre vision de la biologie humaine. Dans une recherche publiée en 2008 dans la revue Intelligence, des scientifiques ont examiné un groupe de 425 anciens combattants américains de la guerre du Vietnam. Ces hommes avaient passé plusieurs tests d'intelligence bien établis (incluant des mesures verbales, arithmétiques et logiques) et fourni des échantillons de sperme analysés pour différentes caractéristiques qualitatives. Les résultats montrent une association positive, bien que modérée, entre le niveau d'intelligence générale (le fameux facteur g) et plusieurs paramètres clés de la qualité du sperme :la concentration de spermatozoïdes,le nombre total de spermatozoïdes,et la motilité, c'est-à-dire la capacité de ces cellules à se déplacer efficacement. Statistiquement, ces corrélations ne sont pas liées à des facteurs évidents comme l'âge, l'indice de masse corporelle, ou le style de vie (consommation d'alcool, de tabac ou de drogues) : elles persistent même après avoir contrôlé ces variables. Alors, comment expliquer scientifiquement cette relation ? Les auteurs avancent l'idée d'un « facteur de forme physique phénotypique » : certains aspects de la santé biologique globale pourraient être liés à des ensembles de gènes qui influencent simultanément des fonctions cérébrales et des processus physiologiques dans d'autres organes, y compris les testicules. Cette hypothèse s'appuie sur le constat que beaucoup de gènes sont pléiotropiques – ils agissent sur plusieurs traits à la fois. Dans un contexte plus large, cette étude s'inscrit dans le champ émergent de la « cognition épidémiologique », qui explore comment l'intelligence est associée à des résultats de santé physique variés, de la longévité aux maladies cardiovasculaires. La corrélation avec la qualité du sperme est un exemple fascinant de la façon dont des dimensions neurocognitives et biologiques peuvent être interconnectées à un niveau fondamental. Cependant, les chercheurs eux-mêmes soulignent que la corrélation observée est relativement faible : elle ne signifie pas que les hommes plus intelligents sont automatiquement plus fertiles, ni que booster son intelligence améliorera directement la qualité du sperme. Il s'agit plutôt d'un indice d'un profil physiologique global où plusieurs systèmes corporels pourraient évoluer de manière quelque peu synchronisée. En neurosciences, ce genre de résultat nous pousse à repenser l'intelligence non seulement comme un phénomène cognitif isolé, mais comme un trait inscrit dans un réseau complexe de relations biologiques à l'échelle de l'organisme tout entier. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour protéger le cerveau, on pense spontanément à l'alimentation, au sommeil ou à l'exercice physique. Pourtant, certaines pratiques manuelles, simples et presque banales, jouent elles aussi un rôle majeur dans la santé cognitive. Parmi elles, l'écriture à la main occupe une place centrale, comme l'ont récemment confirmé les neurosciences.En janvier 2024, une équipe de chercheurs norvégiens a publié une étude dans la revue Frontiers in Psychology montrant que l'écriture manuscrite active le cerveau de manière bien plus riche que la frappe sur un clavier. À l'aide d'électroencéphalogrammes, les scientifiques ont observé une synchronisation accrue entre différentes zones cérébrales lorsque les participants écrivaient à la main. Autrement dit, le cerveau “travaille mieux ensemble”.Pourquoi ? Parce qu'écrire à la main est une activité lente, exigeante et multisensorielle. Elle mobilise simultanément les aires motrices, visuelles et attentionnelles. Former chaque lettre demande une coordination fine entre la main et le cerveau, ce qui renforce les réseaux neuronaux impliqués dans l'apprentissage. Résultat : une meilleure mémorisation et un rappel plus efficace des informations, notamment chez les enfants et les jeunes adultes, mais aussi chez les personnes âgées.Les chercheurs soulignent un point clé : ce bénéfice ne repose pas sur la beauté de l'écriture, mais sur le geste lui-même. Même une écriture maladroite active davantage le cerveau qu'un texte tapé sur un écran. À l'inverse, la frappe au clavier standardise le mouvement : chaque touche nécessite le même geste, ce qui limite la diversité des stimulations cérébrales.D'autres pratiques manuelles semblent suivre la même logique. Le dessin, le bricolage, le tricot ou même le modelage sollicitent la motricité fine et la planification motrice. Ces activités entretiennent la plasticité cérébrale, cette capacité du cerveau à se remodeler tout au long de la vie. Chez les seniors, elles sont associées à un ralentissement du déclin cognitif et à une meilleure réserve cérébrale.Dans un monde saturé d'écrans, les auteurs de l'étude norvégienne lancent un message clair : ne pas abandonner l'écriture manuscrite. Prendre des notes à la main, tenir un journal, écrire une lettre ou même faire une liste de courses sur papier ne sont pas des gestes anodins. Ce sont de véritables exercices cérébraux.En somme, protéger son cerveau ne passe pas uniquement par des stratégies complexes ou technologiques. Parfois, il suffit de reprendre un stylo. Un geste ancien, presque oublié, mais dont les neurosciences rappellent aujourd'hui toute la puissance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans les années 90, terminer un jeu comme Zelda ou vaincre un boss final après des jours d'essais procurait une satisfaction immense. Aujourd'hui, nos écrans déversent des notifications incessantes et des microtransactions. Selon des experts en santé mentale, ce n'est pas seulement une évolution technologique, c'est une mutation radicale de la manière dont les jeux stimulent — ou exploitent — notre cerveau.1. Dopamine de "gastronomie" vs Dopamine de "malbouffe"Dans les jeux des années 90, la récompense se méritait. Le cerveau devait mémoriser des séquences complexes, apprendre de ses échecs et persévérer. Cette victoire finale déclenchait une libération de dopamine profonde et durable, similaire à celle que l'on ressent après avoir achevé un projet difficile. C'était un véritable apprentissage de la persévérance.À l'inverse, les jeux modernes (comme Fortnite ou Roblox) utilisent ce que les spécialistes appellent la "dopamine de malbouffe". Ils distribuent des micro-récompenses immédiates et éphémères : un nouveau costume, un niveau gagné, une petite animation sonore. Ces pics rapides de plaisir créent une dépendance à la gratification instantanée, habituant le cerveau à fuir l'effort prolongé au profit d'un cycle sans fin de stimulations vides.2. L'ingénierie de la dépendanceLa grande différence réside dans la finalité du design. Les jeux rétro avaient une fin : une fois le générique passé, le cerveau pouvait passer à autre chose. Les jeux actuels sont conçus pour ne jamais s'arrêter.L'absence de clôture : Sans point final, le cerveau reste dans une boucle d'attente perpétuelle.L'exploitation de la frustration : Les algorithmes analysent le comportement du joueur pour identifier le moment précis où il est assez frustré pour payer afin de progresser. On ne teste plus votre habileté, mais votre résistance psychologique.3. La mort de la résolution de problèmesAuparavant, être "bloqué" était une étape cruciale du développement cognitif. Cela forçait le joueur à développer sa pensée critique et sa tolérance à la frustration. Aujourd'hui, entre les tutoriels omniprésents qui guident chaque pas et les solutions disponibles en un clic sur Internet, cette "friction" bénéfique a disparu. Le cerveau devient passif, assisté par un système qui craint par-dessus tout que le joueur ne s'ennuie et ne déconnecte.Conclusion pour votre podcast :Le passage des jeux des années 90 aux jeux "services" d'aujourd'hui marque une transition neurologique majeure. Nous sommes passés d'outils qui construisaient la persévérance et l'autonomie à des systèmes qui exploitent nos failles biologiques pour maximiser le temps d'écran et la rentabilité. Un défi de taille pour la plasticité cérébrale des jeunes générations. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si nos différences de comportements sociaux tenaient à une poignée de neurones fonctionnant comme un simple interrupteur "ON/OFF" ? Une étude menée par des chercheurs israéliens sur des souris, publiée dans la revue PNAS, vient de mettre en lumière une découverte surprenante dans une région bien précise du cerveau : l'amygdale médiane.Une activité radicalement opposée selon le sexeL'amygdale est la zone du cerveau qui gère nos émotions et nos instincts sociaux. Les chercheurs y ont découvert un groupe de neurones dont l'activité est diamétralement opposée chez le mâle et la femelle :Chez les femelles : Ces neurones sont constamment actifs.Chez les mâles : Ils sont totalement inactifs la majeure partie du temps.C'est cette clarté de signal qui a stupéfié les scientifiques. On ne parle pas ici de nuances progressives, mais d'une différence binaire, presque "électrique", entre les deux sexes.Le sexe, mais aussi le statut socialCe qui est encore plus fascinant, c'est que ce circuit n'est pas figé. Chez le mâle, ces neurones ne sont pas "cassés" : ils peuvent s'allumer brusquement lors de changements majeurs dans sa vie sociale ou reproductive, notamment après un rapport sexuel.Plus étrange encore : cette activation ne semble pas dépendre directement des hormones sexuelles classiques (comme la testostérone), mais pourrait être liée à la prolactine, souvent appelée "hormone du lien". Cela suggère que l'expérience vécue et le contexte social peuvent littéralement "reparamétrer" le cerveau.Vers une plasticité du "cerveau paternel" ?Cette découverte fait écho à des recherches antérieures sur la parentalité. On sait que l'amygdale est très active chez les mères pour assurer la vigilance face au danger. Mais des études ont montré que chez les pères très impliqués dans le soin aux nouveau-nés (notamment dans les couples d'hommes ayant adopté), l'amygdale s'active tout autant que chez les mères.Conclusion pour votre podcast : Ce que nous enseigne cette étude, c'est que si nos cerveaux présentent des différences biologiques marquées à l'âge adulte, ils ne sont pas câblés de manière irréversible. Nos interactions sociales et nos expériences de vie possèdent le pouvoir de basculer des interrupteurs neuronaux, prouvant une fois de plus l'incroyable plasticité du cerveau face aux défis de la reproduction et de la survie sociale. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Avez-vous déjà traversé une pièce avec une intention précise, pour vous retrouver soudainement planté au milieu du salon, totalement incapable de vous rappeler ce que vous étiez venu chercher ? Ce "trou noir" instantané n'est pas un signe de vieillesse précoce, mais un mécanisme cérébral fascinant appelé l'effet de seuil (ou doorway effect).Le cerveau, un monteur de filmPour comprendre ce phénomène, il faut voir notre cerveau comme un monteur de film. Au lieu de stocker notre journée comme un long plan-séquence ininterrompu, il fragmente nos expériences en "épisodes" distincts.Lorsque nous franchissons une porte ou passons d'un environnement à un autre, l'hippocampe — le gestionnaire de notre mémoire — effectue une sorte de mise à jour. Il considère que le contexte précédent est terminé et prépare le terrain pour le nouveau. Ce changement de décor crée un véritable "reset" cognitif : le cerveau archive les pensées liées à la pièce précédente pour faire de la place aux nouvelles informations potentielles du lieu actuel.La vulnérabilité de la mémoire de travailAu cœur de ce processus se trouve notre mémoire de travail. Elle fonctionne comme une petite table de nuit sur laquelle on ne peut poser que quelques objets à la fois. Lorsque vous décidez de chercher vos clés, cette intention occupe une place sur cette table. Mais en changeant de pièce, le cerveau doit traiter une multitude de nouvelles informations visuelles et spatiales. Cette charge mentale supplémentaire "pousse" souvent l'intention initiale hors de la mémoire de travail.Plusieurs facteurs accentuent ce risque :La fatigue et le manque de sommeil, qui réduisent nos ressources attentionnelles.Le stress, qui sature notre capacité de traitement.L'automatisme : plus nous nous déplaçons "en pilote automatique", moins le cerveau ancre solidement l'intention initiale.Comment déjouer l'effet de seuil ?Heureusement, les neurosciences nous offrent des astuces simples pour contrer ces oublis. La plus efficace est la verbalisation : énoncer votre but à voix haute ("Je vais chercher mes lunettes") avant de changer de pièce crée une trace auditive plus résistante. Vous pouvez aussi utiliser l'imagerie mentale en visualisant l'objet que vous convoitez tout en marchant.En résumé, oublier ce que l'on cherche en passant une porte est le signe d'un cerveau qui s'adapte efficacement à son environnement, quitte à être parfois un peu trop zélé dans son ménage de printemps mémoriel ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les hallucinations auditives — ces voix que certaines personnes atteintes de schizophrénie entendent sans qu'aucun son réel ne soit présent — figurent parmi les symptômes les plus déstabilisants de la maladie. Pendant des décennies, leur origine exacte est restée floue, malgré de nombreuses théories. Une étude récente menée par une équipe de l'University of New South Wales, grâce à des techniques avancées d'imagerie cérébrale, apporte désormais une explication beaucoup plus précise du phénomène.L'idée centrale confirmée par ces travaux est que les voix hallucinées seraient liées à un dysfonctionnement de la voix intérieure. Chez tout individu, une grande partie de la pensée prend la forme d'un dialogue silencieux. Lorsque nous pensons, le cerveau sait que ces mots sont produits par nous-mêmes. Pour cela, il utilise un mécanisme de prédiction : au moment où une pensée verbale est générée, le cerveau envoie un signal d'anticipation vers les régions auditives afin de réduire leur activité. Ce filtre permet de distinguer ce qui vient de soi de ce qui vient de l'extérieur.Chez certaines personnes souffrant de schizophrénie, ce système semble altéré. Les chercheurs ont observé l'activité cérébrale de participants pendant qu'ils imaginaient des sons ou entendaient des bruits réels. Chez les personnes sans trouble, l'activité des aires auditives diminuait lorsque la pensée correspondait au son attendu. En revanche, chez les patients sujet aux hallucinations auditives, l'effet inverse apparaissait : l'activité auditive augmentait, comme si le cerveau interprétait la pensée interne comme un son externe.Autrement dit, le cerveau ne reconnaît plus correctement ses propres productions mentales. Les pensées verbales sont alors perçues comme étrangères, ce qui donne l'impression qu'une voix indépendante parle. Ce mécanisme explique pourquoi ces hallucinations sont vécues comme réelles, souvent distinctes de la personnalité du patient, et parfois dotées d'un ton, d'un genre ou d'une identité propre.Cette découverte est majeure, car elle transforme la manière dont on comprend les hallucinations. Elles ne seraient pas dues à une imagination excessive, mais à une erreur de classification entre « moi » et « non-moi », entre intérieur et extérieur. Le cerveau produit bien les voix, mais il échoue à en identifier l'origine.Les implications cliniques sont importantes. Les chercheurs ont identifié des signatures cérébrales spécifiques associées à ce dysfonctionnement, détectables par électroencéphalographie. À terme, cela pourrait permettre de repérer précocement les personnes à risque de psychose, avant même l'apparition de symptômes sévères, et d'adapter plus rapidement les traitements.Ces résultats rappellent que les hallucinations auditives ne relèvent pas du mystère ou du surnaturel, mais d'un mécanisme cérébral précis. Elles illustrent à quel point notre sentiment de réalité repose sur un fragile équilibre : celui qui nous permet, en permanence, de reconnaître nos pensées comme étant les nôtres. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La question « la conscience naît-elle dans le corps ou dans le cerveau ? » traverse depuis longtemps la philosophie et les neurosciences. Longtemps, la réponse dominante a été claire : la conscience serait un produit du cerveau. Mais les recherches les plus récentes invitent aujourd'hui à nuancer fortement cette vision.Du côté des neurosciences classiques, le cerveau reste évidemment central. De nombreuses études montrent que l'expérience consciente apparaît lorsque des informations traitées dans différentes régions cérébrales sont mises en commun au sein de vastes réseaux. Ce n'est pas une zone précise qui « fabrique » la conscience, mais l'activité coordonnée de circuits distribués. Lorsque cette communication globale est perturbée, par une anesthésie profonde, un coma ou certaines lésions, la conscience disparaît ou se fragmente.Cependant, une grande étude internationale publiée récemment a comparé plusieurs grandes théories de la conscience. Elle montre qu'aucune ne suffit, à elle seule, à expliquer tous les résultats expérimentaux. Mais un point fait consensus : la conscience dépend bien de configurations neuronales spécifiques, tout en étant influencée par des signaux qui ne proviennent pas uniquement du cerveau.C'est là qu'intervient le corps. Des travaux récents indiquent que les signaux corporels — battements cardiaques, respiration, tension musculaire, activité digestive — modulent directement ce que nous percevons consciemment. Par exemple, certaines expériences montrent que notre sens du « moi », notre perception des émotions ou notre capacité d'attention varient selon les informations remontant des organes vers le cerveau.Selon cette approche, le cerveau ne créerait pas la conscience dans un vide biologique. Il l'orchestrerait à partir d'un dialogue permanent avec le corps. Le philosophe et neurologue Antonio Damasio défend notamment l'idée que les émotions et les états corporels constituent un socle fondamental de la conscience : avant même de penser, nous ressentons.La dernière génération d'études pousse donc vers une vision dite « incarnée » de la conscience. Elle n'émerge ni uniquement du cerveau, ni directement du corps, mais de leur interaction constante. Le cerveau fournit l'architecture permettant l'intégration de l'information, tandis que le corps apporte une matière première essentielle : sensations internes, états physiologiques, signaux émotionnels.Autrement dit, la conscience ne serait pas un simple « produit neuronal », mais un phénomène émergent d'un organisme vivant entier, en interaction avec son environnement.Cette perspective change profondément notre manière de penser l'esprit. Elle suggère que comprendre la conscience ne passera pas seulement par l'étude des neurones, mais aussi par celle du cœur, des viscères, de la respiration et de leurs échanges avec le cerveau.La conscience ne naîtrait donc pas dans un lieu unique. Elle se construirait, à chaque instant, dans le dialogue silencieux entre le cerveau et le corps. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quand on pense à la lumière naturelle, on évoque spontanément son rôle sur l'humeur ou sur le sommeil. Mais une étude récente publiée dans la revue Communications Psychology suggère qu'elle exerce aussi un effet plus discret et pourtant majeur : elle améliore directement certaines performances cognitives, comme la vitesse de réaction, l'attention et la mémoire de travail.Pour s'en assurer, des chercheurs ont suivi des participants dans leur vie quotidienne pendant plusieurs jours. Chacun portait un capteur mesurant précisément son exposition à la lumière ambiante, tout en réalisant régulièrement des tests cognitifs sur smartphone. Ces tests évaluaient notamment la vigilance, la rapidité de traitement de l'information et la capacité à maintenir une information en mémoire sur une courte durée.Les résultats sont frappants. Les personnes ayant été exposées à une lumière naturelle intense peu de temps avant un test obtenaient de meilleures performances que lorsqu'elles avaient passé plusieurs heures dans un environnement plus sombre. Leur temps de réaction était plus rapide, sans augmentation du nombre d'erreurs. Autrement dit, elles allaient plus vite sans sacrifier la précision. De plus, une exposition globalement plus élevée à la lumière sur l'ensemble de la semaine était associée à une meilleure mémoire de travail et à une attention plus stable.Ce qui rend ces résultats particulièrement intéressants, c'est qu'ils ne s'expliquent pas uniquement par un meilleur sommeil. Même à durée de sommeil équivalente, la lumière naturelle semblait conférer un avantage cognitif immédiat. Cela suggère l'existence d'un mécanisme direct entre la lumière et les réseaux cérébraux impliqués dans l'éveil et la concentration.Ce mécanisme repose en grande partie sur des cellules spécifiques de la rétine, appelées cellules ganglionnaires intrinsèquement photosensibles. Contrairement aux cônes et aux bâtonnets, elles ne servent pas à former des images, mais à détecter l'intensité lumineuse. Elles contiennent un pigment, la mélanopsine, très sensible à la lumière du jour. Lorsqu'elles sont activées, elles envoient des signaux vers des régions cérébrales qui régulent l'état d'éveil, l'attention et les rythmes biologiques.En clair, la lumière naturelle agit comme un stimulant cérébral doux. Elle ne provoque pas une excitation artificielle, mais place le cerveau dans un état de disponibilité optimale pour traiter l'information.Ces découvertes ont des implications concrètes. Travailler près d'une fenêtre, sortir quelques minutes à l'extérieur le matin ou privilégier l'éclairage naturel plutôt que des lumières artificielles faibles pourrait améliorer subtilement mais durablement nos capacités mentales.La lumière du jour ne serait donc pas seulement un décor agréable : elle constituerait un véritable carburant cognitif, simple, gratuit et largement sous-estimé pour entretenir les performances de notre cerveau au quotidien. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Et si la maladie de Charcot commençait… dans vos nuits ? C'est l'idée vertigineuse soulevée par une étude récente menée par des chercheurs de l'Inserm et de l'Université de Strasbourg... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour écouter les deux épisodes recommandés:1/ Pourquoi votre opinion change-t-elle sans que vous vous en rendiez compte ?Apple Podcast:https://podcasts.apple.com/us/podcast/pourquoi-votre-opinion-change-t-elle-sans-que-vous/id1048372492?i=1000746638428Spotify:https://open.spotify.com/episode/0dzW7snN390LBqxeDluaoW?si=kTTF4LlVSMGVOQ9S_5XAEA2/ Dans quel pays est-il interdit de chanter en playback ?Apple Podcast:https://podcasts.apple.com/us/podcast/dans-quel-pays-est-il-interdit-de-chanter-en-playback/id1048372492?i=1000746550059Spotify:https://open.spotify.com/episode/3Ocem5LLM6sPtRnuyrll6W?si=MEBGO8qeSFGMVpiqLh9_3A--------------------------Quand on n'a pas d'enfants, l'idée de changer une couche ressemble à une épreuve de Koh-Lanta… version biologique : odeurs, textures, microbes, haut-le-cœur. Et pourtant, chez les parents, quelque chose d'étonnant se produit... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'habitude qui compte plus que le sport pour préserver le cerveau, selon une récente étude parue dans Alzheimer's & Dementia, c'est tout simplement : ne pas rester assis trop longtemps... Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pendant des mois, vous utilisez ChatGPT tous les jours. Pour écrire, résumer, chercher des idées, reformuler. C'est fluide, agréable, presque magique. Mais une question commence à inquiéter les chercheurs : que devient notre cerveau quand une partie de notre effort intellectuel est systématiquement “externalisée” vers une IA ?Une étude récente menée au MIT Media Lab, dirigée par la chercheuse Nataliya Kosmyna, a justement tenté d'observer ce phénomène. Le protocole est simple : 54 participants doivent rédiger des essais de type SAT dans trois conditions différentes : avec ChatGPT, avec Google, ou sans outil. Pendant l'exercice, les chercheurs mesurent l'activité cérébrale via EEG (et analyses de connectivité). Les résultats soulèvent un point troublant : les participants qui écrivent avec ChatGPT montrent le niveau d'engagement cérébral le plus faible, notamment dans des zones liées à l'attention, la planification et la mémoire. Mais le plus intéressant n'est pas qu'ils “travaillent moins”. Le plus inquiétant, c'est ce qui se passe avec le temps. Au fil des sessions, les chercheurs observent ce que certains appellent une forme de “dette cognitive” : plus l'outil réfléchit à votre place, plus votre cerveau s'habitue à ne pas activer certains circuits. Résultat : le raisonnement devient moins approfondi, le texte plus standardisé, et l'effort mental diminue. Autre signal d'alerte : la mémoire. Dans l'étude, les utilisateurs de ChatGPT ont davantage de mal à se souvenir de ce qu'ils viennent d'écrire, parfois même quelques minutes après. En clair, l'IA produit un contenu… mais le cerveau l'encode moins bien, comme si l'information avait glissé sur lui sans s'imprimer. Alors, qu'arrive-t-il au cerveau après des mois avec ChatGPT ? Probablement pas une “baisse de QI” brutale. Mais plutôt un changement d'habitude : moins d'effort, moins de consolidation en mémoire, moins de créativité personnelle. Un cerveau qui, au lieu de muscler ses propres chemins, emprunte systématiquement un raccourci.Et pourtant, tout n'est pas noir. La leçon n'est pas “interdire ChatGPT”. La leçon, c'est d'apprendre à l'utiliser comme un coach plutôt qu'un pilote automatique : demander des questions plutôt que des réponses, des contradictions plutôt que des résumés, des pistes plutôt que des textes prêts à livrer. Parce que si l'IA pense toujours pour vous, votre cerveau, lui… finit par se taire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pendant des décennies, Alzheimer a été une maladie que l'on « voyait » surtout trop tard. On attendait que les symptômes apparaissent — trous de mémoire, désorientation, difficultés à parler — avant d'envisager des examens spécialisés. Mais le problème, c'est qu'à ce moment-là, le cerveau a déjà subi des dégâts importants. Et c'est exactement là que le test sanguin change tout.Des chercheurs de l'Université de Pittsburgh ont validé une nouvelle plateforme capable d'analyser, dans une simple prise de sang, plus de 100 biomarqueurs associés à la maladie d'Alzheimer. L'idée est révolutionnaire : au lieu de chercher UN seul indicateur, on obtient une photographie beaucoup plus complète de ce qui se passe dans le cerveau, bien avant que le patient ne s'en rende compte.Mais comment est-ce possible, alors que le cerveau semble si loin du sang ? En réalité, Alzheimer laisse des traces biologiques. Quand la maladie démarre, certaines protéines anormales s'accumulent : la bêta-amyloïde, puis la protéine tau, notamment sous une forme particulière appelée « tau phosphorylée ». Parallèlement, le cerveau déclenche une réaction inflammatoire, les cellules nerveuses se fragilisent, les connexions entre neurones se dégradent… Et une partie de ces signaux finit par être détectable dans le sang, sous forme de protéines circulantes.L'innovation de Pittsburgh repose donc sur une approche « multi-biomarqueurs ». Elle mesure à la fois les marqueurs classiques — amyloïde, p-tau — mais aussi des protéines liées à l'inflammation, aux vaisseaux sanguins du cerveau et au dysfonctionnement synaptique, c'est-à-dire la communication entre neurones. En clair : Alzheimer n'est pas une maladie à une seule cause, et ce test l'aborde enfin comme ce qu'elle est… un puzzle.Les implications sont énormes. D'abord, pour le diagnostic : une prise de sang pourrait éviter des examens lourds comme la ponction lombaire ou des scans PET, très coûteux et rares. Ensuite, pour la détection précoce : on pourrait identifier des patients à risque avant les symptômes, au moment où les traitements ont le plus de chances d'agir.Enfin, ce test ouvre la voie à une médecine beaucoup plus personnalisée : choisir le bon patient, le bon traitement, au bon moment. Et suivre l'évolution de la maladie simplement, au fil du temps. C'est peut-être là, la vraie révolution : transformer Alzheimer d'une fatalité tardive en maladie détectable tôt… donc, potentiellement, freinable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quand on doit commencer une tâche qu'on déteste – appeler quelqu'un, faire de l'administratif, se mettre au sport, écrire un texte difficile – on croit souvent que le problème vient d'un manque de discipline. En réalité, une étude publiée dans la revue Current Biology suggère que c'est parfois le cerveau lui-même qui actionne un véritable “frein motivationnel”, au moment où il faut passer de l'évaluation à l'action.Le point de départ est simple : avant d'agir, le cerveau calcule une sorte de rapport coût/bénéfice. Mais ce calcul ne se limite pas à la récompense finale. Il inclut aussi le coût émotionnel immédiat : effort, inconfort, stress, ennui, peur de l'échec. Les chercheurs ont voulu comprendre comment le cerveau transforme cette évaluation en une décision très particulière : non pas choisir une autre action… mais carrément ne pas commencer.Pour cela, ils ont travaillé sur des macaques entraînés à effectuer des tâches en échange d'une récompense. Dans une condition, la tâche apportait uniquement de l'eau. Dans l'autre, elle apportait toujours de l'eau, mais avec un “prix” désagréable : un souffle d'air au visage. Les animaux avaient le choix de commencer ou non. Résultat : face à la tâche désagréable, ils hésitent davantage, et parfois renoncent complètement, même si la récompense reste intéressante. Autrement dit : ils savent, ils comprennent… mais ils ne se lancent pas.Les enregistrements neuronaux montrent alors un jeu à deux régions clés : le striatum ventral et le pallidum ventral. Le striatum ventral s'active fortement quand une action est associée à un élément aversif : il envoie comme un signal d'alerte. Le pallidum ventral, lui, ressemble davantage à un interrupteur “GO”, impliqué dans l'initiation de l'action. Plus l'animal se rapproche du renoncement, plus l'activité du pallidum ventral chute : comme si le bouton de démarrage s'éteignait progressivement.L'expérience la plus parlante consiste à bloquer sélectivement la connexion entre ces deux zones, grâce à une méthode de type chimogénétique. Quand ce lien est inhibé, les animaux commencent beaucoup plus facilement la tâche aversive… sans que leur capacité à estimer la récompense et la punition soit modifiée. Ce n'est donc pas leur jugement qui change, mais le passage du jugement à l'action.Conclusion : notre cerveau nous empêche de commencer certaines tâches parce qu'il interprète l'inconfort anticipé comme un danger à éviter. Ce mécanisme était utile pour survivre. Mais aujourd'hui, il se déclenche pour des tâches simplement pénibles… et nous fait procrastiner. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Arrêter de fumer soulève une question centrale : combien de temps faut-il au cerveau pour “oublier” le tabac ? La réponse des neurosciences est claire : l'oubli n'est ni instantané ni uniforme. Il s'agit d'un processus progressif, mesurable biologiquement, qui se déploie sur plusieurs semaines à plusieurs mois.La nicotine agit directement sur le cerveau en se liant aux récepteurs nicotiniques de l'acétylcholine, très présents dans les circuits de la récompense. Chez les fumeurs, ces récepteurs deviennent anormalement nombreux : on parle d'up-régulation. Le cerveau s'adapte ainsi à une stimulation artificielle et répétée. Tant que ces récepteurs restent sur-exprimés, le manque se fait sentir : irritabilité, anxiété, troubles du sommeil, envies irrépressibles.Une étude de référence, publiée dans The Journal of Nuclear Medicine par Cosgrove et ses collègues, a permis de mesurer précisément ce phénomène grâce à l'imagerie cérébrale. Les chercheurs ont montré que le nombre de récepteurs nicotiniques revient à un niveau comparable à celui des non-fumeurs après environ 3 à 4 semaines d'abstinence, soit autour de 21 à 28 jours. Ce résultat est fondamental : il indique que, sur le plan strictement neurobiologique, le cerveau commence réellement à “désapprendre” la nicotine au bout d'un mois.Mais oublier le tabac ne se limite pas à ces récepteurs. La nicotine modifie aussi durablement le système dopaminergique, qui régule motivation, plaisir et anticipation de la récompense. Chez les fumeurs, la dopamine est libérée de façon artificielle, ce qui désensibilise progressivement le système. Après l'arrêt, cette signalisation dopaminergique est temporairement affaiblie, expliquant la baisse de motivation et le sentiment de vide souvent rapportés. Les études suggèrent que la normalisation fonctionnelle de ces circuits prend plusieurs mois, généralement entre deux et trois mois, parfois davantage selon l'intensité et la durée du tabagisme.À cela s'ajoute une troisième dimension : la mémoire comportementale et émotionnelle. Le cerveau n'oublie pas seulement une substance, il doit aussi se détacher d'associations profondément ancrées : fumer avec un café, en situation de stress, ou dans des contextes sociaux précis. Ces automatismes reposent sur les ganglions de la base et peuvent persister longtemps, même lorsque la dépendance biologique a disparu.En résumé, le cerveau commence à oublier le tabac après trois à quatre semaines, lorsque les récepteurs nicotiniques se normalisent. Mais un rééquilibrage complet des circuits de la récompense et des habitudes peut prendre plusieurs mois. Ce n'est donc pas une question de volonté, mais de neuroadaptation progressive : le cerveau a appris à fumer, et il lui faut du temps pour apprendre à vivre sans nicotine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quand on se couche, l'intuition nous dit que nous nous laissons doucement aller vers le sommeil — un peu comme une pente descendante. Pourtant, le cerveau ne glisse pas progressivement dans l'inconscience : il bascule, comme si un interrupteur était soudainement actionné.Une étude récente publiée dans Nature Neuroscience montre exactement cela : l'endormissement n'est pas un déclin lent et continu, mais une transition nette et rapide, appelée bifurcation, où le cerveau passe d'un état stable d'éveil à un état stable de sommeil en quelques instants seulement.Dans cette recherche, des scientifiques ont analysé des électroencéphalogrammes (EEG) de plus de 1 000 personnes pendant leurs nuits de sommeil. Ils ont transformé les signaux électriques du cerveau en une trajectoire dans un espace multidimensionnel de caractéristiques EEG. Ce modèle mathématique a révélé qu'à un certain moment précis, l'activité cérébrale franchit un seuil critique : les variations des signaux deviennent soudaines, rapides et coordonnées — signes d'un changement d'état radical du système cérébral.Ce point de bascule n'est pas une légère accélération : avant lui, l'activité cérébrale reste relativement stable. Puis, en quelques minutes seulement, souvent autour de 4 à 5 minutes avant l'endormissement objectivement défini, l'ensemble du réseau neuronal change d'organisation et le cerveau tombe littéralement dans le sommeil. C'est ce qu'on appelle un phénomène de bifurcation, analogue à la façon dont un bâton plié finit par se rompre soudainement lorsqu'on atteint une certaine pression.Et ce qui rend cette découverte encore plus fascinante, c'est que les chercheurs ont pu prédire ce basculement avec une précision exceptionnelle, presque en temps réel : grâce au modèle et aux données EEG individuelles, ils ont pu anticiper le moment exact où une personne allait basculer dans le sommeil avec une précision de l'ordre de la seconde.Ainsi, loin d'être une dégradation progressive de la vigilance, l'endormissement ressemble à un “commutateur” neuronal qui se déclenche : l'état d'éveil reste stable puis, arrivé à une zone critique, le cerveau franchit rapidement une barrière dynamique pour entrer dans le sommeil.Cette découverte bouleverse notre compréhension classique du sommeil. Elle ouvre non seulement des perspectives théoriques nouvelles sur la manière dont le cerveau contrôle les états de conscience, mais elle pourrait aussi améliorer les stratégies de diagnostic et de traitement des troubles du sommeil, et même la conception de technologies qui détectent ou facilitent l'endormissement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chaque mois de janvier, le scénario se répète. Nous prenons des résolutions ambitieuses — faire du sport, mieux manger, moins procrastiner — et pourtant, avant même le 8 janvier, beaucoup ont déjà abandonné. Ce n'est pas un manque de volonté. C'est le fonctionnement normal du cerveau.Première explication : le conflit entre deux systèmes cérébraux. D'un côté, le cortex préfrontal, siège de la planification, des objectifs à long terme et du contrôle de soi. De l'autre, les structures plus anciennes du cerveau, comme le système limbique, orientées vers le plaisir immédiat et l'économie d'énergie. Or, le cortex préfrontal est énergivore, lent et fragile face à la fatigue. Une étude publiée dans Nature Neuroscience montre que l'autocontrôle repose sur des réseaux neuronaux limités : plus on les sollicite, plus leur efficacité diminue au fil des jours.Deuxième facteur clé : la dopamine, souvent mal comprise. Contrairement à une idée reçue, la dopamine ne récompense pas l'effort futur, mais l'anticipation d'une récompense immédiate. Au début de janvier, l'idée de “nouvelle vie” stimule fortement le système dopaminergique. Mais très vite, l'absence de récompense rapide — un corps plus sportif, moins de stress, plus d'énergie — provoque une chute de motivation. Des travaux publiés dans Neuron montrent que lorsque l'effort n'est pas suivi d'un retour rapide, le cerveau réduit spontanément l'engagement.Troisième élément : le stress et la charge mentale. Janvier n'est pas un mois neutre : reprise du travail, fatigue hivernale, contraintes familiales. Or le stress chronique inhibe le cortex préfrontal et favorise les comportements automatiques. Une étude de 2015 dans Proceedings of the National Academy of Sciences a démontré que sous stress, le cerveau bascule vers des habitudes déjà installées, même si elles vont à l'encontre de nos objectifs conscients.Enfin, le cerveau déteste les changements trop brutaux. Les résolutions reposent souvent sur une rupture radicale : “tout arrêter”, “tout changer”. Or l'apprentissage neuronal fonctionne par micro-ajustements répétés, pas par transformation soudaine. Les neurosciences de l'habitude, notamment les travaux de Wendy Wood, montrent que plus de 40 % de nos comportements quotidiens sont automatiques — et profondément résistants au changement volontaire.Si vos résolutions échouent avant le 8 janvier, ce n'est pas une faiblesse personnelle. C'est votre cerveau qui privilégie la survie, l'économie d'énergie et la récompense immédiate. La solution n'est pas plus de volonté, mais des objectifs plus petits, des récompenses rapides et des changements progressifs. Autrement dit : travailler avec votre cerveau, et non contre lui. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pourquoi a-t-on l'impression que tout devient plus sombre, plus grave, plus angoissant une fois la nuit tombée ? Cette sensation bien connue n'est pas qu'une impression subjective. En 2022, des chercheurs de l'université de Harvard ont formulé une hypothèse scientifique devenue très commentée : la théorie Mind After Midnight, publiée dans la revue Frontiers in Network Psychology.Selon cette hypothèse, le cerveau humain n'est tout simplement pas conçu pour fonctionner de manière optimale après minuit. Passé un certain seuil nocturne, notre organisme entre dans une zone de vulnérabilité cognitive et émotionnelle. Les chercheurs expliquent que la nuit combine plusieurs facteurs biologiques défavorables : la fatigue, la privation de sommeil, la baisse de la température corporelle et surtout des déséquilibres neurochimiques.Le principal mécanisme en cause concerne les neurotransmetteurs. La nuit, la production de sérotonine et de dopamine, associées à la régulation de l'humeur et à la motivation, diminue. À l'inverse, les circuits cérébraux liés à la peur, à l'anticipation négative et à la rumination, notamment ceux impliquant l'amygdale, deviennent relativement plus dominants. Résultat : le cerveau interprète plus facilement les pensées de manière pessimiste, anxieuse ou catastrophique.Autre élément clé de la théorie Mind After Midnight : la baisse du contrôle cognitif. Le cortex préfrontal, chargé de la prise de recul, du raisonnement logique et de la régulation émotionnelle, est particulièrement sensible au manque de sommeil. La nuit, il fonctionne au ralenti. Cela signifie que les pensées négatives ne sont plus correctement filtrées. Une inquiétude banale en journée peut ainsi se transformer en spirale mentale nocturne, donnant l'impression que « tout va mal ».Les chercheurs de Harvard soulignent aussi un facteur comportemental : l'isolement nocturne. La nuit, les interactions sociales diminuent, les possibilités d'action concrète sont réduites, et le cerveau se retrouve seul face à lui-même. Or, notre cognition est fondamentalement sociale. Privé de feedback extérieur, le cerveau a tendance à amplifier les scénarios internes, souvent les plus sombres.Cette théorie a des implications très concrètes aujourd'hui. Elle permet de mieux comprendre pourquoi les travailleurs de nuit, les personnes souffrant d'insomnie chronique ou de troubles anxieux présentent un risque accru de dépression, d'idées noires et de prises de décision impulsives. Les chercheurs insistent d'ailleurs sur un point crucial : les décisions importantes ne devraient jamais être prises au cœur de la nuit.En résumé, si le cerveau broie du noir la nuit, ce n'est pas parce que la réalité devient soudain plus sombre, mais parce que nos circuits cérébraux sont biologiquement désynchronisés. La théorie Mind After Midnight nous rappelle une chose essentielle : parfois, le problème n'est pas ce que l'on pense… mais l'heure à laquelle on pense. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sauter le petit-déjeuner est souvent présenté comme une erreur nutritionnelle majeure, presque une agression pour le cerveau. Pourtant, les données scientifiques récentes nuancent fortement cette idée. Plusieurs études en neurosciences et en métabolisme montrent que ne pas manger le matin n'est pas forcément mauvais pour le cerveau, et peut même, dans certains contextes, produire des effets intéressants.D'un point de vue biologique, le cerveau consomme en permanence de l'énergie, principalement sous forme de glucose. Après une nuit de sommeil, les réserves de glycogène hépatique sont partiellement entamées, mais le cerveau n'est pas « à court de carburant ». Une étude publiée dans Nature Reviews Neuroscience et plusieurs travaux en imagerie cérébrale ont montré que, lors d'un jeûne matinal modéré, le cerveau adapte rapidement son métabolisme. Il augmente l'utilisation de corps cétoniques, produits à partir des graisses, qui constituent une source d'énergie très stable pour les neurones.Sur le plan neurochimique, sauter le petit-déjeuner active plusieurs mécanismes intéressants. Le jeûne entraîne une hausse transitoire de la noradrénaline et de la dopamine, des neurotransmetteurs impliqués dans l'éveil, la vigilance et la motivation. C'est l'une des raisons pour lesquelles certaines personnes se sentent plus concentrées ou plus alertes le matin à jeun. Une étude publiée dans Proceedings of the National Academy of Sciences a également montré que le jeûne stimule la production de BDNF, un facteur neurotrophique essentiel à la plasticité cérébrale, à l'apprentissage et à la mémoire.Contrairement à une idée reçue, le cerveau ne « ralentit » pas systématiquement sans petit-déjeuner. En réalité, il passe en mode économie et optimisation, favorisant les circuits de l'attention et réduisant les activités non essentielles. C'est un mécanisme hérité de l'évolution : pendant des millions d'années, nos ancêtres devaient chasser ou chercher de la nourriture avant de manger, et leur cerveau devait être performant à jeun.Cela dit, ce mécanisme n'est pas universel. Les études montrent une grande variabilité interindividuelle. Chez certains enfants, adolescents ou personnes très sensibles aux variations glycémiques, sauter le petit-déjeuner peut entraîner irritabilité, baisse de concentration ou fatigue mentale. Le contexte est donc essentiel : qualité du sommeil, repas de la veille, stress et activité cognitive prévue.En résumé, sauter le petit-déjeuner n'est pas intrinsèquement mauvais pour le cerveau. Chez l'adulte en bonne santé, cela peut même activer des mécanismes neuroprotecteurs et améliorer temporairement la vigilance. Comme souvent en neurosciences, la clé n'est pas une règle universelle, mais l'adaptation du cerveau à son environnement et à ses habitudes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À l'approche de Noël, le podcast fait une courte pause pendant les fêtes, l'occasion pour moi de vous remercier chaleureusement pour votre fidélité et votre présence précieuse, de vous souhaiter de très belles fêtes pleines de chaleur et de moments simples, et de vous donner rendez-vous dès le 5 janvier pour de nouveaux épisodes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le protoxyde d'azote, plus connu sous le nom de « gaz hilarant », est souvent perçu comme une substance légère, presque anodine. Utilisé à l'origine en médecine pour ses propriétés analgésiques et anxiolytiques, il s'est diffusé ces dernières années dans les usages récréatifs. Mais ses effets sur le cerveau sont loin d'être bénins. Derrière les rires et la sensation d'euphorie se cache une action neurologique puissante, complexe… et potentiellement dangereuse.Dès l'inhalation, le protoxyde d'azote agit comme un antagoniste des récepteurs NMDA, des récepteurs essentiels à la communication entre neurones. En les bloquant, il provoque une déconnexion temporaire dans certaines zones cérébrales, d'où la sensation de flottement, d'irréalité, de dissociation. Cette altération du traitement sensoriel explique également les perceptions modifiées : sons étouffés, vision déformée, impressions d'éloignement du corps.Le gaz stimule également le système dopaminergique, ce qui renforce la sensation d'euphorie. La dopamine, neurotransmetteur de la récompense, crée un pic bref mais intense, donnant à l'utilisateur la sensation que tout devient soudain amusant, léger, dédramatisé. Ce mécanisme explique la recherche de répétition : plus on consomme, plus on souhaite reproduire ce “flash” plaisant.Mais derrière ces effets immédiats se cachent des risques importants. Le protoxyde d'azote perturbe l'absorption de la vitamine B12, un élément indispensable à la fabrication de la myéline, cette gaine protectrice qui permet aux neurones de transmettre les signaux électriques. Une carence prolongée peut entraîner des atteintes de la moelle épinière, des fourmillements, des pertes d'équilibre, voire des paralysies partielles. Et ces dommages peuvent parfois être irréversibles.Le gaz réduit également la quantité d'oxygène disponible pour le cerveau. Une inhalation répétée ou mal contrôlée peut conduire à une hypoxie, c'est-à-dire un manque d'oxygène dans les tissus cérébraux. À court terme, cela provoque des pertes de connaissance ; à long terme, cela peut léser les zones impliquées dans la mémoire, l'attention ou la coordination.Enfin, l'usage fréquent modifie la connectivité neuronale, à la manière d'autres substances dissociatives. Certains utilisateurs témoignent d'un sentiment de brouillard mental, d'une fatigue cognitive durable, voire de troubles anxieux ou dépressifs après consommation répétée.En résumé, si le protoxyde d'azote procure une euphorie rapide, il agit profondément sur le cerveau : il altère la communication neuronale, perturbe la myéline, prive temporairement l'organisme d'oxygène et peut laisser des séquelles durables. Un plaisir fugace, mais un risque réel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pourquoi certaines chansons nous bouleversent-elles instantanément ? Pourquoi quelques notes suffisent-elles à nous replonger dans un moment précis de notre vie — parfois avec une intensité presque physique ? Une étude fascinante de l'Université de Jyväskylä, en Finlande, vient d'apporter une réponse scientifique à cette question. Et elle bouscule une idée reçue : nos morceaux préférés ne sont pas ceux que nous écoutons aujourd'hui, mais ceux que nous avons découverts… autour de 17 ans.Les chercheurs ont mis en évidence un phénomène appelé la “bosse de réminiscence” : une période de la vie, à la fin de l'adolescence, où les souvenirs se fixent avec une puissance bien supérieure à d'autres moments de l'existence. Et la musique, omniprésente à cet âge, en est l'un des marqueurs les plus forts.Pourquoi 17 ans ? Parce qu'à cet âge, le cerveau est en pleine effervescence. Le système limbique, siège des émotions, fonctionne à plein régime, alors que le cortex préfrontal, responsable du recul et du contrôle, n'est pas encore totalement mature. Autrement dit, nous ressentons tout… plus fort. La musique devient alors un amplificateur d'émotions : elle accompagne les premières amitiés intenses, les premiers amours, les premières transgressions, parfois les premières grandes douleurs. Ces émotions marquantes s'impriment dans le cerveau comme des sillons profonds.L'étude finlandaise montre que le cerveau adulte réagit plus fortement — mesurablement plus fortement — aux chansons associées à cette période qu'à n'importe quelle autre musique. Lorsque nous réécoutons ces morceaux, les zones liées à la mémoire autobiographique, à la récompense et à l'émotion s'illuminent simultanément. C'est pour cela qu'une chanson de nos 17 ans peut provoquer une vague de nostalgie, une larme, un sourire immédiat ou même une accélération du rythme cardiaque.Ce phénomène n'est pas uniquement émotionnel : il est neurologique. Nos réseaux neuronaux se stabilisent à la fin de l'adolescence. La musique entendue à ce moment agit comme une signature durable, capable d'activer des circuits restés presque inchangés pendant des décennies.En clair, nos souvenirs musicaux les plus puissants ne viennent pas de la playlist que nous écoutons aujourd'hui, mais de celle de nos 17 ans. Une période où la musique devient un véritable marqueur identitaire, un ancrage émotionnel, parfois même une boussole intime.Et c'est peut-être pour cela que, quel que soit notre âge, il suffit de quelques secondes d'un vieux morceau pour redevenir, l'espace d'un instant… la personne que nous étions alors. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une question vertigineuse, presque taboue dans nos sociétés où la surcharge de travail est souvent perçue comme une preuve de détermination. Pourtant, la science raconte une tout autre histoire. Une équipe de chercheurs coréens des universités Chung-Ang et Yonsei a mené l'une des études les plus éclairantes sur ce sujet. Publiée dans la revue Occupational and Environmental Medicine, elle révèle ce qui se passe réellement dans le cerveau de celles et ceux qui dépassent régulièrement 52 heures de travail par semaine. Les résultats sont aussi fascinants qu'inquiétants.Les chercheurs ont utilisé l'imagerie cérébrale pour observer des salariés soumis à des semaines longues et répétées. Et ce qu'ils ont découvert est sans appel : le surmenage ne fatigue pas seulement le corps, il remodèle physiquement le cerveau. Chez les travailleurs les plus exposés, plusieurs zones clés montrent un amincissement du cortex, notamment dans les régions associées à la mémoire, à la régulation émotionnelle et à la prise de décision. Concrètement, cela signifie que la « matière » même qui nous permet de réfléchir, d'apprendre, de gérer le stress ou d'inhiber les impulsions s'érode progressivement.L'étude met également en lumière une perturbation du réseau limbique, la zone qui orchestre nos émotions. Les personnes dépassant les 52 heures hebdomadaires présentent une activité accrue de l'amygdale, signe d'un état de vigilance permanent, presque d'alerte. Ce “mode survie” chronique pourrait expliquer l'augmentation du risque de dépression, d'anxiété et d'irritabilité constatée dans cette population.Autre effet surprenant : le rétrécissement du corps calleux, le faisceau de fibres qui relie les deux hémisphères. Lorsqu'il s'affine, la communication interne du cerveau devient moins fluide. Résultat : baisse de créativité, difficultés à résoudre les problèmes complexes et sensation de “brouillard mental”.Selon les chercheurs, ces altérations ne sont pas de simples épisodes passagers. Travailler plus de 52 heures par semaine, et ce sur de longues périodes, pourrait entraîner des modifications durables du cerveau. L'organisme s'adapte, certes, mais au prix d'une réduction de ses capacités cognitives et émotionnelles.Le message est clair : l'excès de travail n'est pas un signe de force, mais une agression neurologique silencieuse. Et si l'on peut récupérer une partie de ces fonctions, cela nécessite du repos réel, prolongé, et parfois un rééquilibrage profond du mode de vie.En somme, le surmenage n'est pas une simple fatigue. C'est une transformation du cerveau lui-même – invisiblement, mais puissamment. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Une vaste étude menée par l'équipe de l'Université de Cambridge a analysé les cerveaux de 3 802 individus âgés de 0 à 90 ans grâce à de l'IRM de diffusion, afin de cartographier comment les connexions neurales évoluent tout au long de la vie. Les chercheurs ont identifié quatre points de bascule – vers 9, 32, 66 et 83 ans – qui marquent des transitions entre cinq grandes phases d'organisation cérébrale. Chaque point correspond à un changement marqué dans la façon dont les régions du cerveau sont connectées et dans l'efficacité globale du réseau neuronal.9 ans correspond à la fin de l'enfance et au début de l'adolescence cérébrale. Depuis la naissance, le cerveau a produit un excès de connexions, puis a procédé à une élimination massive, appelée « poda synaptique ». En parallèle, la matière grise et la matière blanche continuent de croître, ce qui améliore l'épaisseur corticale et stabilise les plis du cortex. Cette période optimise les fonctions fondamentales : langage, mémoire, coordination, apprentissages de base. Le passage vers 9 ans reflète un basculement global : le cerveau quitte la phase d'enfance et entre dans une adolescence prolongée sur le plan neuronal.32 ans marque l'entrée dans la pleine maturité adulte. Entre 9 et 32 ans, les connexions se renforcent, la matière blanche se densifie et les échanges entre régions distantes deviennent plus rapides et plus efficaces. Le cerveau affine son organisation interne, ce qui correspond au pic des performances cognitives : raisonnement abstrait, mémoire de travail, rapidité intellectuelle, flexibilité mentale. Autour de 32 ans se produit le changement le plus marqué de toute la vie : le réseau neuronal se stabilise et atteint un plateau structurel, caractéristique du cerveau adulte pleinement mature.66 ans correspond au début du vieillissement cérébral. Après plusieurs décennies de relative stabilité, la connectivité globale commence à diminuer. La matière blanche, essentielle aux communications longue distance dans le cerveau, montre des signes de dégradation. La conséquence est un ralentissement progressif de la vitesse de traitement, une diminution de la flexibilité cognitive et parfois une réduction de la mémoire de travail. Néanmoins, certaines capacités – comme les savoirs accumulés ou l'intelligence cristallisée – restent relativement préservées.83 ans marque l'entrée dans la phase de vieillesse avancée. À cet âge, le cerveau connaît une nouvelle reconfiguration : les réseaux deviennent plus fragmentés et s'appuient davantage sur des connexions locales. La communication globale perd en efficacité, ce qui augmente la vulnérabilité aux fragilités cognitives et aux maladies neurodégénératives. Certaines zones plus robustes peuvent compenser partiellement, mais l'organisation générale du réseau est moins stable et moins intégrée.En résumé, cette étude montre que le cerveau ne vieillit pas de façon linéaire. Il traverse cinq grandes phases, avec des changements profonds à 9, 32, 66 et 83 ans. Ces âges clés correspondent à des réorganisations profondes : apprentissage fondamental, maturité cognitive, entrée dans le vieillissement et vieillesse avancée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.