Avsnitt

  • Vous entrez dans une pièce, puis… trou noir. Vous restez planté là, incapable de vous rappeler ce que vous étiez venu y chercher. Cette expérience troublante a un nom : le "doorway effect", ou effet de la porte. Ce phénomène cognitif décrit la tendance de notre cerveau à oublier une intention en franchissant une limite physique comme une porte. Ce n’est ni rare, ni anodin, et des recherches scientifiques commencent à percer les mystères de ce curieux mécanisme.


    Une transition qui perturbe la mémoire

    Le doorway effect a été mis en évidence par Gabriel Radvansky, professeur de psychologie cognitive à l’Université de Notre-Dame (Indiana, États-Unis). Dans une étude publiée en 2011 dans The Quarterly Journal of Experimental Psychology, Radvansky et ses collègues ont montré que franchir une porte diminue la performance mnésique pour des tâches basées sur des intentions immédiates.


    Dans l'expérience, les participants devaient transporter des objets virtuels d'une table à une autre dans un environnement en 3D, soit dans la même pièce, soit en passant par une porte. Résultat : le simple fait de passer par une porte entraînait une baisse significative du souvenir de l’objet transporté, comparé à ceux restés dans la même pièce.


    Pourquoi ? Radvansky propose une explication fondée sur la théorie de la mémoire événementielle. Selon ce modèle, notre cerveau structure l’information en unités appelées "événements", qui sont souvent délimitées par des changements perceptifs ou contextuels — comme le franchissement d’une porte. Passer d'une pièce à l'autre constitue un "nouvel événement", et notre cerveau, pour maintenir un flux cognitif efficace, archive l'information précédente au profit de la nouvelle situation.


    Une économie cognitive adaptative

    Cette fragmentation n’est pas un bug de notre cerveau, mais une fonction adaptative. En recontextualisant l’information au fil de nos déplacements, nous limitons la surcharge cognitive et améliorons notre efficacité dans des environnements complexes. Toutefois, cela implique un coût : les intentions non réalisées risquent d’être temporairement égarées, jusqu’à ce que des indices contextuels (revenir dans la pièce d’origine, par exemple) les réactivent.


    D’autres études confirment l’effet

    D’autres travaux, notamment une étude menée par Peter Tse à Dartmouth College, suggèrent que les "switchs de contexte" — pas seulement physiques, mais aussi mentaux — peuvent fragmenter notre mémoire de travail. Ainsi, ouvrir un nouvel onglet sur son ordinateur ou regarder son téléphone pourrait produire un effet similaire.


    En conclusion

    Le "doorway effect" révèle à quel point notre mémoire est sensible au contexte. Bien loin d’être un simple oubli, ce phénomène illustre la manière dynamique et structurée dont notre cerveau gère l’information en mouvement. La prochaine fois que vous resterez interdit dans l’embrasure d’une porte, rappelez-vous : ce n’est pas de la distraction, c’est de la science.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Une étude australienne récente, publiée dans l’International Journal of Obesity, révèle que la consommation régulière d'aliments riches en graisses saturées et en sucres raffinés peut altérer significativement la mémoire spatiale chez les jeunes adultes.


    Une alimentation qui nuit à la mémoire

    Des chercheurs de l’Université de Sydney ont mené une expérience sur 55 étudiants âgés de 18 à 38 ans. Les participants ont rempli des questionnaires alimentaires, subi des tests de mémoire de travail et ont été invités à naviguer dans un labyrinthe en réalité virtuelle pour localiser un coffre au trésor. Lors d'un septième essai, le coffre était absent, et les participants devaient indiquer sa position de mémoire. Les résultats ont montré que ceux ayant une consommation plus élevée de graisses et de sucres localisaient moins précisément le coffre, même après ajustement pour l'indice de masse corporelle et la mémoire de travail .


    Le rôle du cerveau

    La mémoire spatiale est étroitement liée à l'hippocampe, une région cérébrale essentielle à la navigation et à la formation des souvenirs. L'étude suggère que les régimes riches en graisses et en sucres peuvent affecter spécifiquement cette zone, entraînant des difficultés à se souvenir d'itinéraires ou à se repérer dans de nouveaux environnements .


    Une situation réversible

    Le Dr Dominic Tran, auteur principal de l'étude, souligne que ces effets sur la mémoire sont probablement réversibles. Des modifications alimentaires peuvent améliorer la santé de l'hippocampe et, par conséquent, nos capacités de navigation. Il insiste sur l'importance d'adopter une alimentation équilibrée dès le début de l'âge adulte pour préserver les fonctions cognitives .

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Saknas det avsnitt?

    Klicka här för att uppdatera flödet manuellt.

  • Pour écouter mon podcast Choses à Savoir Culture Générale:


    Apple Podcast:

    https://podcasts.apple.com/fr/podcast/choses-%C3%A0-savoir-culture-g%C3%A9n%C3%A9rale/id1048372492


    Spotify:

    https://open.spotify.com/show/3AL8eKPHOUINc6usVSbRo3?si=e794067703c14028


    ----------------------------


    Le jamais-vu (ou jamais vu), à l’inverse du déjà-vu, désigne une expérience où une personne fait face à une situation familière mais la perçoit comme étrangère ou inconnue. Cela peut par exemple arriver lorsqu’on répète un mot très courant jusqu’à ce qu’il "perde son sens" — un phénomène aussi appelé satiation lexicale. En neurosciences, ce type de sensation reflète une déconnexion temporaire entre les circuits de reconnaissance et les centres de la mémoire.


    Ce qui se passe dans le cerveau

    Le jamais-vu est étroitement lié à des mécanismes de désintégration temporaire entre perception et mémoire. Normalement, lorsqu’on perçoit quelque chose de familier, l’hippocampe et le cortex entorhinal travaillent ensemble pour activer des souvenirs associés, ce qui génère un sentiment de familiarité. Dans le cas du jamais-vu, cette boucle de reconnaissance est rompue : la perception ne déclenche pas l’association attendue avec un souvenir connu, ou bien le cerveau inhibe activement cette reconnaissance.


    Ce phénomène pourrait aussi être lié à un excès d’attention consciente, où l’analyse délibérée d’un élément familier empêche son traitement automatique. C’est pourquoi il est souvent observé dans des états de fatigue, de stress ou lors d'exercices mentaux inhabituels.


    Une étude scientifique marquante

    Une étude notable sur ce sujet est celle de Chris Moulin et ses collègues (Université de Leeds), publiée dans Cognitive Neuropsychiatry en 2005. Ils ont documenté le cas d’un patient souffrant de jamais-vu chronique, qui ne reconnaissait plus sa propre maison, sa femme, ou même des mots du quotidien, malgré une mémoire intacte. Les chercheurs ont proposé que ce trouble résulte d’un dérèglement de la métamémoire — la capacité du cerveau à juger la validité de ses propres souvenirs.


    Dans une autre expérience de 2006 (Moulin et al., Memory), les chercheurs ont demandé à des volontaires d’écrire ou lire des mots simples de manière répétée. Après plusieurs répétitions (souvent autour de 30), les sujets rapportaient une perte de familiarité, comme si le mot n’avait jamais existé — ce qui démontre que le jamais-vu peut être induit expérimentalement.


    En résumé, le jamais-vu traduit une anomalie transitoire de la reconnaissance mnésique, souvent due à une désynchronisation entre perception et mémoire. Il rappelle que la familiarité n’est pas inhérente aux objets eux-mêmes, mais dépend de mécanismes cognitifs fragiles et complexes.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Quand on parle d’alcool et de grossesse, le message est clair : les femmes doivent éviter toute consommation pendant cette période. Mais un aspect encore méconnu du grand public mérite davantage d’attention — celui du rôle de l’homme avant la conception. De plus en plus d’études scientifiques montrent que les habitudes de vie du futur père, notamment la consommation d’alcool, peuvent avoir un impact direct sur la santé du bébé à naître.


    Une méta-analyse chinoise de 2020, publiée dans la revue European Journal of Preventive Cardiology, a compilé les données de plusieurs études portant sur les habitudes de consommation d’alcool chez les hommes avant la conception. Les résultats sont sans appel : la consommation paternelle d’alcool est associée à un risque significativement plus élevé de malformations congénitales, notamment des malformations cardiaques. Selon cette analyse, si le père consomme de l’alcool dans les trois mois précédant la conception, le risque de certaines anomalies augmente de manière notable.


    Mais comment expliquer ce phénomène ? Contrairement à une idée reçue, le rôle du père ne se limite pas à la fécondation. La qualité du sperme — et donc de l’ADN qu’il transmet — peut être altérée par des facteurs environnementaux, dont l’alcool. L’éthanol et ses métabolites peuvent endommager l’ADN du spermatozoïde, générer du stress oxydatif, perturber l’expression génétique ou même modifier l’épigénome. Autrement dit, même avant la fécondation, les effets de l’alcool peuvent déjà avoir laissé leur empreinte, avec des conséquences pour le futur développement de l’embryon.


    Des recherches sur les modèles animaux ont également montré que la consommation d’alcool chez le père pouvait entraîner des troubles du développement neurologique chez les descendants, incluant des déficits cognitifs, de l’hyperactivité ou des comportements anxieux. Ces effets sont de plus en plus étudiés dans le cadre de ce que les chercheurs appellent le syndrome d’alcoolisation fœtale d’origine paternelle — un concept encore en cours d’exploration mais qui tend à s’imposer.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Et si rester connecté aidait le cerveau à mieux vieillir ? À rebours des discours alarmistes qui accusent smartphones et tablettes de ramollir nos neurones, une récente étude texane apporte une bouffée d’optimisme. Publiée dans la prestigieuse revue Nature Human Behaviour, cette méta-analyse de 57 études révèle qu’une utilisation régulière de la technologie pourrait, au contraire, réduire le risque de démence et contribuer à maintenir une bonne santé cognitive chez les personnes âgées.


    Loin de l’image caricaturale du senior perdu devant une interface tactile, les chercheurs montrent que l’usage quotidien d’outils numériques – qu’il s’agisse d’écrire des e-mails, de chercher des informations sur Internet ou d’échanger via les réseaux sociaux – stimule des fonctions cérébrales essentielles. La mémoire, l’attention, la capacité de planification ou encore la rapidité de traitement de l’information bénéficient toutes de ces activités numériques.


    Pourquoi un tel effet ? Selon les auteurs de l’étude, l’interaction avec la technologie oblige le cerveau à rester actif, curieux, et à s’adapter en permanence à de nouvelles tâches ou informations. En d'autres termes, utiliser la technologie, c’est un peu comme faire du sport pour le cerveau. Et tout comme le jogging ou la natation entretiennent la forme physique, une navigation quotidienne sur le web pourrait bien entretenir la forme mentale.


    Plus surprenant encore, l’étude souligne que les seniors familiers de la technologie montrent un risque de démence diminué de 30 à 40 % par rapport à ceux qui ne l’utilisent pas. Bien sûr, l’usage technologique ne constitue pas une solution miracle, mais il s’inscrit dans un ensemble de bonnes pratiques pour vieillir en bonne santé cognitive, aux côtés de l’activité physique, d’une alimentation équilibrée, et d’une vie sociale active.


    Cette découverte remet également en question l’idée selon laquelle la technologie isole les individus. Pour de nombreux seniors, elle est au contraire un puissant levier de lien social. Appels vidéo avec les petits-enfants, groupes de discussion en ligne, apprentissages à distance : les écrans deviennent des fenêtres ouvertes sur le monde.

    Alors, faut-il encourager nos aînés à rester connectés ? La réponse semble claire. À condition bien sûr d’un usage modéré et accompagné, la technologie n’est pas l’ennemi du cerveau vieillissant – elle pourrait bien être l’un de ses meilleurs alliés.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Et si nos compagnons félins, si doux et ronronnants, cachaient une part d’ombre ? Une étude récente vient jeter un pavé dans la mare en suggérant un lien troublant entre la présence de chats dans un foyer et un risque accru de développer des troubles schizophréniques. Publiée en décembre 2023 dans la revue Schizophrenia Bulletin, cette analyse méticuleuse réalisée par une équipe australienne a de quoi intriguer.


    Les chercheurs ont passé au crible 17 études menées sur une période de 44 ans, dans 11 pays différents. Leur constat est frappant : vivre avec un chat pourrait doubler le risque de troubles liés à la schizophrénie. Une affirmation qui, à première vue, semble difficile à avaler tant le chat est perçu comme un animal apaisant et bénéfique à notre bien-être. Pourtant, les données sont là, et elles incitent à une réflexion sérieuse sur les facteurs environnementaux pouvant influencer la santé mentale.


    Mais d’où pourrait venir ce lien mystérieux ? Une piste évoquée depuis plusieurs années est celle du Toxoplasma gondii, un parasite que les chats peuvent héberger. Transmis par leurs excréments, ce micro-organisme a déjà été associé à des troubles neurologiques, notamment dans les cas d’infections prénatales ou chez les individus immunodéprimés. Certaines études ont avancé que ce parasite pourrait modifier le comportement humain, voire jouer un rôle dans l’apparition de certains troubles psychiatriques.


    Cependant, il convient de nuancer. L’étude australienne ne prouve pas de lien de cause à effet direct. D’autres facteurs pourraient entrer en jeu : le contexte familial, les conditions de vie, les prédispositions génétiques… La simple cohabitation avec un chat ne saurait être pointée du doigt comme cause unique de la schizophrénie.


    Les auteurs de l’étude eux-mêmes appellent à la prudence. Ils insistent sur la nécessité de poursuivre les recherches, notamment en explorant les mécanismes biologiques sous-jacents, les facteurs socio-environnementaux et les éventuels biais présents dans les études précédentes.


    En attendant, faut-il pour autant bannir les chats de nos foyers ? Bien sûr que non. Les bénéfices émotionnels et sociaux qu’ils apportent sont largement documentés. Cette étude soulève surtout une nouvelle question dans la compréhension de la schizophrénie, maladie complexe aux multiples facettes.


    Ainsi, nos amis les félins ne sont pas coupables — mais ils pourraient, malgré eux, détenir une clé de compréhension supplémentaire dans l’épineux mystère de la santé mentale humaine.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le violet semble être une couleur comme les autres : visible dans un arc-en-ciel, présente dans les fleurs, les vêtements ou les œuvres d’art. Pourtant, derrière cette apparence familière se cache une réalité étonnante : le violet n’existe pas en tant que couleur pure du spectre lumineux.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'exercice stimule la production de BDNF (brain-derived neurotrophic factor), une protéine essentielle à la survie des neurones, à la neurogenèse et à la plasticité synaptique. Une méta-analyse a montré qu'une activité physique régulière augmente significativement les niveaux de BDNF, en particulier dans l'hippocampe, une région clé pour la mémoire et l'apprentissage.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Et si vous n’étiez pas vraiment aux commandes de vos décisions ? Si vos choix, même les plus intimes, étaient en réalité déclenchés dans les coulisses de votre cerveau… avant même que vous en ayez conscience ?

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Des recherches récentes ont mis en lumière l'intérêt des tests olfactifs pour la détection précoce de la maladie d'Alzheimer. Une étude publiée dans Scientific Reports par des chercheurs américains présente un test olfactif simple évaluant la capacité des individus à identifier et distinguer diverses odeurs. Ce test pourrait permettre une intervention bien avant l'apparition des symptômes cliniques de la maladie.


    Le test, connu sous le nom d'AROMHA Brain Health Test, est conçu pour être auto-administré à domicile. Il utilise des cartes à gratter et à sentir, accompagnées d'une application web guidant les participants à travers une série de tâches olfactives. Ces tâches incluent l'identification d'odeurs, la mémorisation, la discrimination entre différentes odeurs et l'évaluation de l'intensité des arômes. Les participants sentent chaque odeur, sélectionnent le nom correspondant parmi plusieurs options, évaluent l'intensité et indiquent leur niveau de confiance dans leurs réponses.


    L'étude a inclus des participants anglophones et hispanophones, certains présentant des plaintes cognitives subjectives ou un trouble cognitif léger, et d'autres étant cognitivement normaux. Les résultats ont montré que les adultes plus âgés atteints de troubles cognitifs légers obtenaient des scores inférieurs en matière de discrimination et d'identification des odeurs par rapport aux adultes cognitivement normaux. Ces résultats suggèrent que le test olfactif peut détecter des différences cognitives subtiles associées aux stades précoces du déclin cognitif.


    Ces découvertes renforcent l'idée que la perte de l'odorat est étroitement liée aux premiers stades de la maladie d'Alzheimer. Les circuits neuronaux olfactifs développent des changements pathologiques liés à la maladie avant l'apparition des symptômes, ce qui fait des tests olfactifs un outil potentiel pour une détection précoce.


    L'utilisation de tels tests olfactifs offre une méthode non invasive et peu coûteuse pour identifier les individus à risque de développer la maladie d'Alzheimer, facilitant ainsi une intervention précoce. Cependant, des recherches supplémentaires sont nécessaires pour valider ces tests à plus grande échelle et déterminer leur efficacité en tant qu'outils de dépistage standardisés.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Les expériences de mort imminente (EMI) intriguent depuis longtemps par leurs récits de sensations de paix, de décorporation et de visions lumineuses. Une étude récente de l'Université de Liège, publiée dans Nature Reviews Neurology, propose un modèle neuroscientifique novateur nommé NEPTUNE (Neurophysiological and Evolutionary Theory of the Origins and Functions of Near-Death Experiences) pour expliquer ces phénomènes.


    Selon le modèle NEPTUNE, les EMI surviennent lorsque le cerveau est soumis à un stress extrême, tel qu'un arrêt cardiaque ou une asphyxie, entraînant une diminution critique de l'oxygénation cérébrale. Cette hypoxie provoque une acidose cérébrale, augmentant l'excitabilité neuronale, notamment au niveau de la jonction temporo-pariétale et du lobe occipital. Ces zones sont associées à la perception de soi et au traitement visuel, ce qui pourrait expliquer les sensations de sortie du corps et les visions de lumière rapportées lors des EMI.


    Parallèlement, le stress intense induit la libération massive de neurotransmetteurs tels que la sérotonine et les endorphines, connues pour moduler l'humeur et la perception de la douleur. Cette libération pourrait être à l'origine des sentiments de paix et d'euphorie fréquemment décrits pendant les EMI.


    Le modèle NEPTUNE suggère également que les EMI pourraient avoir une base évolutive. Les comportements de feinte de mort observés chez certains animaux en réponse à une menace imminente partagent des similitudes avec les EMI humaines, notamment en termes de mécanismes neurophysiologiques impliqués. Ainsi, les EMI pourraient représenter une réponse adaptative du cerveau humain face à des situations de danger extrême, visant à favoriser la survie.


    Bien que ce modèle offre une explication cohérente des EMI, les chercheurs soulignent la nécessité de poursuivre les investigations pour valider ces hypothèses. Des études futures, combinant neuroimagerie et surveillance physiologique, pourraient permettre de mieux comprendre les processus cérébraux sous-jacents aux EMI et d'explorer leur potentiel thérapeutique, notamment dans la gestion de la douleur ou des troubles de l'humeur.  

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Lors d'un marathon, le corps est soumis à une demande énergétique extrême. Une étude récente publiée dans Nature Metabolism a révélé que, dans de telles conditions, le cerveau pourrait temporairement utiliser sa propre myéline comme source d'énergie, un phénomène parfois décrit comme le cerveau "se mangeant lui-même" pour survivre.


    La myéline est une substance grasse qui entoure les fibres nerveuses, facilitant la transmission rapide et efficace des signaux électriques entre les neurones. Elle est essentielle au bon fonctionnement du système nerveux, notamment pour la coordination motrice et le traitement sensoriel. Cependant, lors d'efforts prolongés comme un marathon, les réserves de glucose, principale source d'énergie du cerveau, s'épuisent. Face à cette pénurie, le cerveau pourrait se tourner vers la dégradation de la myéline pour obtenir l'énergie nécessaire à son fonctionnement.


    Des chercheurs espagnols ont mené une étude impliquant dix coureurs de marathon, dont huit hommes et deux femmes. Ils ont réalisé des IRM cérébrales 48 heures avant la course, puis deux jours, deux semaines et deux mois après l'événement. Les résultats ont montré une diminution significative de la myéline dans certaines régions du cerveau, notamment celles impliquées dans la coordination motrice, l'intégration sensorielle et le traitement émotionnel, peu après la course. Cependant, cette diminution était temporaire : deux semaines après le marathon, les niveaux de myéline avaient commencé à se rétablir, et après deux mois, ils étaient revenus à la normale.


    Ce phénomène suggère que la myéline peut servir de source d'énergie de secours lorsque les nutriments habituels du cerveau sont insuffisants. Cette capacité du cerveau à utiliser la myéline pour maintenir ses fonctions vitales en période de stress énergétique intense est un exemple de sa remarquable plasticité métabolique. Les chercheurs ont qualifié ce mécanisme de "plasticité myélinique métabolique".


    Bien que cette découverte puisse sembler préoccupante, il est rassurant de constater que la perte de myéline est réversible chez les individus en bonne santé. Toutefois, ces résultats pourraient avoir des implications pour les personnes atteintes de maladies démyélinisantes, comme la sclérose en plaques, où la myéline est endommagée de manière permanente. Comprendre comment la myéline se régénère après un stress énergétique intense pourrait ouvrir de nouvelles voies pour le développement de traitements visant à favoriser la réparation de la myéline dans de telles maladies.


    Il est important de noter que cette étude a été réalisée sur un petit échantillon de participants. Des recherches supplémentaires sont nécessaires pour confirmer ces résultats et mieux comprendre les mécanismes sous-jacents. Néanmoins, ces découvertes offrent un aperçu fascinant de la manière dont le cerveau s'adapte aux défis énergétiques extrêmes et soulignent l'importance de la myéline non seulement comme isolant neuronal, mais aussi comme réserve énergétique potentielle en cas de besoin.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Des chercheurs dirigés par le professeur Prasun Guha ont mis en lumière un phénomène jusqu’ici méconnu des effets de la cocaïne sur le cerveau : la drogue entraîne une autophagie excessive dans les cellules neuronales. Ce terme, qui signifie littéralement « se manger soi-même », désigne un processus naturel par lequel la cellule recycle ses composants usés pour maintenir son bon fonctionnement. Mais lorsqu’il est déréglé, ce mécanisme peut devenir toxique.


    L’étude, publiée dans la revue Proceedings of the National Academy of Sciences (PNAS), montre qu’après administration de cocaïne à des souris, de nombreuses cellules cérébrales ont enclenché une autodestruction accélérée. En cause : une suractivation de la protéine SIGMAR1, impliquée dans la régulation du stress cellulaire. Sous l’effet de la drogue, cette protéine déclenche une autophagie incontrôlable, entraînant la dégradation de structures essentielles des cellules, comme les mitochondries, les membranes ou même les noyaux.


    Ce phénomène affecte principalement les neurones dopaminergiques, situés dans le circuit de la récompense, une zone déjà connue pour être profondément altérée chez les consommateurs de cocaïne. Résultat : une perte de neurones, des troubles de la mémoire, et une altération de fonctions cognitives clés. En d’autres termes, la cocaïne ne se contente pas d’endommager les connexions cérébrales : elle provoque une autodestruction de l’intérieur.


    « L’analogie est assez frappante : les cellules deviennent comme des maisons qui se mettent à manger leurs propres murs », explique Prasun Guha. « Ce n’est pas seulement une perte de fonction, c’est une forme de dégénérescence accélérée. »


    Face à ces effets délétères, les chercheurs ont testé un composé expérimental, le CGP3466B, déjà connu pour ses propriétés neuroprotectrices. Administré en parallèle de la cocaïne, il est parvenu à limiter l’activation de SIGMAR1 et à freiner l’autophagie excessive. Une piste encourageante pour de futurs traitements, bien que cette molécule n’ait pas encore été testée sur l’humain dans ce contexte.


    Cette découverte jette un nouvel éclairage sur la dangerosité neurologique de la cocaïne, bien au-delà de ses effets immédiats. Elle rappelle aussi l’importance de la recherche fondamentale pour comprendre en profondeur les mécanismes invisibles de l’addiction et ses conséquences durables sur le cerveau.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Pour écouter mon podcast Le fil IA:


    Apple Podcast:

    https://podcasts.apple.com/fr/podcast/le-fil-ia/id1797244733


    Spotify:

    https://open.spotify.com/show/7DLZgY60IARypRmVGAlBM0?si=bacee66244884d27


    -----------------------------


    Aujourd’hui, je vais vous raconter l'histoire d'une femme tétraplégique, aux Etats Unis, qui s'appelle Ann, et qui a retrouvé le pouvoir de parler. Non pas en bougeant les lèvres, mais en pensant. Grâce à un implant cérébral et à l’intelligence artificielle, elle peut désormais traduire ses pensées en paroles… instantanément.

    Il y a plus de 15 ans, Ann a été victime d’un AVC massif. Depuis, elle est enfermée dans son propre corps : incapable de bouger, incapable de parler. Mais tout a changé grâce à une technologie révolutionnaire développée par des chercheurs de l’Université de Californie à San Francisco, en collaboration avec l’équipe de Berkeley. Leur objectif ? Redonner une voix à ceux qui n’en ont plus.


    Le cœur de cette prouesse, c’est une interface cerveau-ordinateur, qu’on appelle aussi BCI. Concrètement, les chercheurs ont implanté une grille de 253 électrodes à la surface du cortex cérébral d’Ann, dans la région du cerveau responsable de la parole. Ces électrodes enregistrent les signaux électriques que le cerveau envoie lorsqu’elle pense à parler.


    Mais capter les pensées ne suffit pas. Il faut les décoder. Et c’est là que l’intelligence artificielle entre en jeu. Après plusieurs semaines d’entraînement, un algorithme sophistiqué a appris à reconnaître les schémas neuronaux correspondant à plus de 1 000 mots. Résultat ? Ann peut aujourd’hui exprimer ses pensées à une vitesse de 62 mots par minute. C’est plus de trois fois plus rapide que les anciennes technologies de communication assistée.


    Mais ce n’est pas tout. L’équipe de chercheurs a aussi recréé numériquement *la voix d’Ann*, à partir de vieilles vidéos d’elle datant d’avant son AVC. Ce n’est donc pas une voix robotique qu’on entend, mais bien *la sienne*. Et pour rendre l’expérience encore plus humaine, ses pensées sont transmises à un avatar numérique qui reproduit en temps réel ses expressions faciales : un sourire, un froncement de sourcils… Comme si elle était là, en face de vous.


    Ce projet est encore expérimental, mais il ouvre des perspectives incroyables pour les personnes atteintes de paralysie sévère, du syndrome de verrouillage, ou de maladies neurodégénératives comme la SLA. Les défis restent nombreux, notamment en matière de miniaturisation et de fiabilité à long terme. Mais une chose est sûre : on vient de franchir un pas de géant vers une communication totalement réinventée.


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Oui, le sudoku peut contribuer à ralentir le déclin cognitif, mais ses effets doivent être nuancés. Plusieurs études scientifiques ont exploré l’impact des jeux cérébraux, dont le sudoku, sur la santé cognitive, notamment chez les personnes âgées.


    Une étude publiée en 2019 dans The International Journal of Geriatric Psychiatry a examiné l'effet des jeux de réflexion comme les mots croisés et le sudoku sur les capacités cognitives de plus de 19 000 participants âgés de 50 à 93 ans. Les résultats ont montré que ceux qui pratiquaient régulièrement ce type de jeux obtenaient de meilleurs scores dans des tests de mémoire, de raisonnement et d'attention. Plus spécifiquement, les performances cognitives de certains participants étaient équivalentes à celles de personnes 8 à 10 ans plus jeunes. Cela suggère une association positive entre la fréquence de ces activités et la préservation des fonctions mentales.


    Cependant, corrélation ne signifie pas nécessairement causalité. Une revue de la littérature menée par Simons et al. en 2016 (Psychological Science in the Public Interest) a mis en garde contre l’idée que les jeux cognitifs, dont le sudoku, puissent à eux seuls prévenir ou inverser le déclin cognitif. Selon cette analyse, si certaines études montrent des améliorations dans des tâches spécifiques après un entraînement cérébral, ces bénéfices ne se généralisent pas toujours à d'autres aspects de la vie quotidienne ou à la cognition globale.


    Cela dit, d'autres recherches appuient l’idée que maintenir une activité intellectuelle régulière — que ce soit via le sudoku, la lecture ou l’apprentissage d’une nouvelle compétence — est bénéfique pour le cerveau. L’étude ACTIVE (Advanced Cognitive Training for Independent and Vital Elderly), lancée aux États-Unis en 2002, a suivi plus de 2 800 personnes âgées. Elle a montré que des séances régulières d'entraînement cognitif pouvaient améliorer les capacités mentales et en ralentir le déclin pendant plusieurs années.


    Le sudoku, en particulier, mobilise plusieurs fonctions cognitives importantes : la mémoire de travail, la logique, l’attention et la vitesse de traitement. En le pratiquant régulièrement, on stimule ces fonctions, ce qui pourrait contribuer à maintenir la plasticité cérébrale. Mais pour que l'effet soit réel, l'activité doit être suffisamment complexe et renouvelée, afin de continuer à « challenger » le cerveau.


    En résumé, le sudoku ne constitue pas une solution miracle, mais s’intègre efficacement dans un mode de vie intellectuellement actif, qui, selon les données scientifiques, joue un rôle non négligeable dans la lutte contre le déclin cognitif lié à l’âge.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Et si, demain, on traitait l’anxiété non pas avec des médicaments, mais… avec des bactéries ? Aussi surprenant que cela puisse paraître, cette idée est de plus en plus prise au sérieux par les chercheurs. Une nouvelle revue d’études publiée en 2023 dans la revue General Psychiatry affirme que le microbiote intestinal – c’est-à-dire l’ensemble des micro-organismes qui vivent dans notre intestin – joue un rôle clé dans la survenue de troubles anxieux. Et qu’il pourrait aussi faire partie de la solution.

    Les scientifiques parlent aujourd’hui de l’axe intestin-cerveau. Ce lien étroit entre nos intestins et notre système nerveux central est désormais bien établi. En effet, notre intestin produit à lui seul 90 % de la sérotonine de notre corps, un neurotransmetteur impliqué dans la régulation de l’humeur, du sommeil… et de l’anxiété.


    Mais ce que met en lumière cette revue, c’est que certaines bactéries spécifiques du microbiote pourraient moduler l’anxiété. En analysant les résultats de 21 essais cliniques, les auteurs montrent que la prise de psychobiotiques – autrement dit, de probiotiques ciblés – a permis de réduire les symptômes anxieux chez de nombreux participants, parfois avec une efficacité comparable à celle des traitements classiques.


    Alors, comment ces bactéries agissent-elles ? Plusieurs mécanismes sont envisagés. D’abord, elles participeraient à la production de neurotransmetteurs comme la dopamine ou la GABA, connus pour leurs effets calmants sur le cerveau. Ensuite, elles pourraient réduire l’inflammation chronique, souvent observée chez les personnes anxieuses. Enfin, elles influenceraient la réponse au stress via le système immunitaire et le nerf vague, la grande autoroute nerveuse qui relie l’intestin au cerveau.

    Il ne s’agit pas de dire que les anxiolytiques actuels n’ont plus leur place. Mais les chercheurs estiment que, dans certains cas, les probiotiques pourraient constituer une alternative naturelle, ou au moins un complément efficace, avec moins d’effets secondaires.


    Des bactéries comme Lactobacillus ou Bifidobacterium sont aujourd’hui les plus étudiées. Elles se trouvent dans certains aliments fermentés comme le yaourt, le kéfir, ou encore sous forme de compléments.


    Bien sûr, ces recherches en sont encore à leurs débuts, et tous les experts appellent à la prudence. Mais une chose est sûre : notre ventre n’est pas seulement le siège de la digestion. C’est aussi un acteur essentiel de notre santé mentale.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Aujourd’hui, on va parler d’un sujet à la fois étonnant… et un peu inquiétant : le QI baisse. Oui, vous avez bien entendu. Alors que notre monde n’a jamais été aussi connecté, aussi technologique, une tendance surprenante se confirme depuis quelques décennies : le quotient intellectuel moyen est en train de diminuer. Mais pourquoi ? Et surtout, est-ce qu’on peut y faire quelque chose ?


    Une étude parue en 2023, basée sur les données de 300 000 personnes dans 72 pays entre 1948 et 2020, a révélé un constat frappant. Entre la fin des années 40 et le milieu des années 80, le QI moyen augmentait régulièrement : environ 2,4 points par décennie. Mais depuis 1986, la tendance s’est inversée. On observe désormais une baisse de 1,8 point tous les 10 ans.


    Alors qu’est-ce qui se passe ? Est-ce qu’on devient tous moins intelligents ?


    Zoom sur une étude norvégienne intrigante

    En 2018, deux chercheurs norvégiens, Bernt Bratsberg et Ole Rogeberg, ont voulu creuser cette question. Leur étude, publiée dans la revue PNAS, a analysé plus de 735 000 résultats de tests de QI… et identifié une baisse nette chez les personnes nées après 1975.


    Mais surtout, en comparant des frères nés à quelques années d’intervalle, ils ont remarqué des différences de QI entre eux. Autrement dit : ce n’est pas la génétique ou l’éducation parentale qui expliquent cette baisse. Le problème viendrait donc… de notre environnement.


    Un cerveau sous influence

    Et justement, notre environnement a beaucoup changé.


    D’abord, il y a notre rapport aux écrans. Peut-être avez-vous déjà entendu parler du “Pop-Corn Brain” ? C’est ce phénomène où notre cerveau saute d’une info à une autre, comme du maïs dans une casserole, sans jamais se poser. Résultat : notre capacité d’attention et d’analyse s’effrite.


    Ensuite, l’école. Dans beaucoup de pays, les programmes ont été allégés, la lecture a perdu du terrain, et l’effort intellectuel se fait plus rare.


    Il y a aussi des causes plus invisibles : les perturbateurs endocriniens, notre alimentation… Et puis bien sûr, l’intelligence artificielle. Elle nous facilite la vie, oui. Mais elle nous pousse aussi à déléguer des tâches cognitives : plus besoin de retenir, de rédiger, de réfléchir.


    Mais tout n’est pas perdu

    Le bon côté de tout ça ? C’est que ce sont des causes sur lesquelles on peut agir. Parce que si l’intelligence baisse à cause de notre environnement… alors on peut changer cet environnement.


    Lire un peu chaque jour. Prendre du temps pour réfléchir, sans écran. Laisser son cerveau s’ennuyer, aussi, parfois. Ce sont des gestes simples, mais puissants.

    Le QI baisse, oui. Mais notre capacité à le faire remonter est entre nos mains.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Le vieillissement du cerveau humain est un phénomène complexe, qui ne touche pas tous les individus de la même manière. Depuis plusieurs années, les scientifiques constatent que les femmes présentent généralement une meilleure résilience cognitive au fil du temps que les hommes. Elles sont souvent moins sujettes à certaines formes de déclin cognitif, et conservent plus longtemps des fonctions telles que la mémoire, l’attention ou la fluidité verbale. Mais pourquoi cette différence ? Une étude récente publiée dans Science Advances propose une explication innovante et intrigante : le rôle protecteur de certains gènes situés sur le chromosome X.


    Chaque être humain possède normalement deux chromosomes sexuels : les femmes ont deux chromosomes X, tandis que les hommes en ont un seul, accompagné d’un chromosome Y. Chez les femmes, l’un des deux chromosomes X est en grande partie désactivé très tôt dans le développement embryonnaire, un processus connu sous le nom d’inactivation du chromosome X. Cependant, cette nouvelle étude révèle que certains gènes longtemps restés silencieux sur ce chromosome désactivé peuvent se « réveiller » avec l’âge.


    Cette réactivation partielle de gènes sur le second chromosome X offrirait ainsi un "filet de sécurité" génétique aux femmes. Ces gènes réactivés joueraient un rôle protecteur contre le vieillissement cérébral, en soutenant des fonctions neuronales essentielles, en luttant contre les inflammations, ou encore en améliorant la réparation cellulaire. Les hommes, qui ne possèdent qu’un seul chromosome X, ne bénéficient pas de cette possibilité : s’il survient une mutation ou une dégradation dans un gène de leur unique chromosome X, aucun double génétique n’est là pour prendre le relais.


    L’étude a notamment utilisé l’imagerie cérébrale et l’analyse génétique sur un large échantillon de participants, hommes et femmes, de différents âges. Elle a montré que chez les femmes, certains gènes du chromosome X affichaient une activité accrue dans les régions du cerveau associées à la mémoire et à la cognition. Ces observations allaient de pair avec de meilleures performances aux tests cognitifs, notamment chez les femmes âgées.


    Ce mécanisme génétique vient compléter d’autres explications déjà avancées dans la littérature scientifique. On savait par exemple que les hormones sexuelles comme les œstrogènes jouent un rôle neuroprotecteur, surtout avant la ménopause. Les femmes ont également tendance à adopter des comportements plus protecteurs de la santé (alimentation, suivi médical, lien social), ce qui contribue aussi à leur avantage cognitif. Mais la découverte de cette « deuxième chance génétique » offerte par le chromosome X ouvre une nouvelle voie de compréhension.


    Cette étude souligne à quel point le sexe biologique peut influencer la trajectoire du vieillissement cérébral. Elle pourrait, à terme, inspirer des stratégies de prévention ou de traitement ciblées selon le sexe, afin de mieux protéger le cerveau humain contre les effets du temps.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Nous aimons croire que notre mémoire est un enregistrement fidèle de notre passé. Pourtant, la science prouve qu’elle est bien plus malléable et sujette à l’erreur qu’on ne le pense. Le phénomène des faux souvenirs—ces souvenirs d’événements qui ne se sont jamais produits ou qui ont été déformés—fascine les neuroscientifiques depuis des décennies. Une étude célèbre menée par Elizabeth Loftus, professeure de psychologie à l’Université de Californie, Irvine, a démontré à quel point il est facile d’implanter de faux souvenirs dans notre esprit.


    Une mémoire reconstructive et faillible

    Contrairement à un disque dur, notre cerveau ne stocke pas les souvenirs sous une forme fixe. Chaque fois que nous nous rappelons un événement, nous le reconstruisons, et c’est à ce moment-là que des altérations peuvent se produire. Cette reconstitution est influencée par nos émotions, nos croyances et notre environnement.


    Elizabeth Loftus et ses collègues ont montré, dans une étude de 1995, qu'il était possible de faire croire à des volontaires qu’ils avaient vécu une expérience qu’ils n’avaient jamais connue. Dans cette expérience, des participants ont été exposés à un récit détaillé de leur enfance, incluant un faux souvenir : s’être perdus dans un centre commercial. Au bout de quelques jours, certains d’entre eux étaient persuadés que cela leur était réellement arrivé et pouvaient même ajouter des détails fictifs à leur histoire.


    Les conséquences des faux souvenirs

    Ce phénomène a des implications majeures, notamment dans le domaine judiciaire. De nombreux cas d’erreurs judiciaires ont été causés par des témoignages de victimes ou de témoins convaincus d’avoir vu ou vécu quelque chose qui ne s’est jamais produit. Une étude de Loftus (1974) a révélé que lorsqu’un témoin oculaire affirme avec certitude avoir reconnu un suspect, les jurés sont plus enclins à condamner l’accusé, même si les preuves sont minces.

    Les faux souvenirs jouent aussi un rôle en psychologie clinique. Certaines thérapies mal encadrées ont conduit des patients à "se souvenir" d’événements traumatisants fictifs, provoquant de lourds conflits familiaux.


    Un cerveau créatif mais imparfait

    Notre mémoire est un outil dynamique, conçu pour nous aider à interpréter le monde plutôt qu’à l’enregistrer parfaitement. Elle nous permet de donner un sens à notre passé, quitte à le réécrire inconsciemment. Ainsi, la prochaine fois que vous vous remémorez un souvenir lointain, demandez-vous : est-ce vraiment ce qui s’est passé, ou juste ce que mon cerveau veut que je croie ?

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L’idée d’un ordinateur hybride, combinant biologie et technologie, semblait relever de la science-fiction. Pourtant, la start-up australienne Cortical Labs a franchi une étape historique en développant un bio-ordinateur fonctionnant grâce à des neurones humains. Annoncé le 5 mars 2025 par la chaîne ABC et relayé par Reuters, ce système révolutionnaire marque une percée majeure dans l’informatique et les neurosciences.


    Comment fonctionne un bio-ordinateur ?

    Contrairement aux ordinateurs classiques, qui reposent uniquement sur des circuits électroniques en silicium, le bio-ordinateur de Cortical Labs utilise des neurones humains cultivés en laboratoire. Ces neurones, intégrés dans une structure électronique, peuvent traiter des informations et apprendre par renforcement, imitant ainsi le fonctionnement du cerveau humain.


    L’un des premiers exploits de cette technologie a été démontré en 2022, lorsqu’un système préliminaire nommé DishBrain a appris à jouer au jeu Pong en quelques minutes seulement. Grâce aux signaux électriques envoyés dans le réseau de neurones, ces cellules s’adaptent, modifient leur activité et optimisent les réponses à des stimuli, tout comme un véritable cerveau.


    Une avancée aux implications majeures

    Ce premier bio-ordinateur commercialisable est une avancée majeure qui pourrait bouleverser plusieurs domaines. En intelligence artificielle, il promet des systèmes beaucoup plus performants et économes en énergie que les modèles d’apprentissage profond actuels. Contrairement aux puces traditionnelles, qui consomment énormément d’électricité, les neurones biologiques fonctionnent avec une infime quantité d’énergie.


    Dans le domaine médical, cette technologie ouvre la voie à une meilleure compréhension des maladies neurologiques comme Alzheimer ou la schizophrénie. En observant le comportement des neurones dans un environnement contrôlé, les chercheurs pourraient tester de nouveaux traitements plus efficacement.


    Un prix élevé et des défis éthiques

    Cependant, cette innovation a un coût : 40 000 dollars US pour une première version, ce qui le réserve aux laboratoires de recherche et aux grandes entreprises. De plus, l’intégration de neurones humains dans des machines soulève d’importantes questions éthiques. Où placer la limite entre l’ordinateur et l’être vivant ? Comment garantir que ces systèmes ne développent pas une forme de conscience ?

    Malgré ces interrogations, une chose est sûre : l’avènement des bio-ordinateurs ouvre une nouvelle ère où l’intelligence biologique et artificielle convergent, repoussant toujours plus loin les frontières de la technologie.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.