RTFlash

RTFLASH Recherche & Technologie
NUMERO 881
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Janvier 2017
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un capteur de chute de personnes âgées efficace et non intrusif
Matière
Premier système de chauffage urbain utilisant de la chaleur stockée
Terre
Une fenêtre à acoustique active pour allier aération et insonorisation
Vivant
Découverte d'un nouveau mécanisme génétique impliqué dans l'autisme
Dépression et inflammation : le lien se confirme
Mémoire : le cerveau adopte de nouvelles stratégies en vieillissant
Cancer du poumon : un test sanguin pour adapter le traitement
Les autistes ont-ils contribué aux succès évolutifs des humains ?
Il n'est jamais trop tard pour apprendre !
Les gros mangeurs de viande doivent manger plus de fruits et légumes...
Le « saut d’exon » pour lutter contre certains cancers graves
Edito
Qu’est-ce que le temps ?



A l'aube de cette année nouvelle, RT Flash vous présente ses vœux les meilleurs pour 2017.

L’homme a toujours été fasciné par le temps qui le confronte à sa propre finitude et au changement perpétuel des choses, derrière l’apparente illusion de leur stabilité. Les premiers grands penseurs, dont nous ayons trace, à avoir réfléchi sur le temps furent Parménide d’Elée et Héraclite d’Ephèse, qui vécurent en Grèce, entre le VIème et le Vème siècle avant J.C. Pour Parménide, le temps est inexplicable, et l’Etre, ou le réel, est sans commencement, dure éternellement et se situe hors du temps. Héraclite, au contraire, pensait qu’on ne pouvait pas séparer matière et mouvement pour comprendre le temps. Sa conception du temps est résumée dans sa célèbre formule « On ne se baigne jamais deux fois dans le même fleuve ».

Vingt-cinq siècles plus tard, les travaux d'Einstein et sa théorie de la relativité générale ont entraîné une rupture fondamentale dans notre compréhension scientifique et philosophique du concept de temps : nous savons à présent, et cela a été vérifié avec un degré de précision extrême par de multiples expériences, que le temps passe à une vitesse différente en fonction de l'endroit où l'on se situe et en fonction de la rapidité avec laquelle on bouge. Ainsi, le temps passe plus vite à la montagne qu'à la mer, et l'on vieillit donc plus vite en hauteur. Contrairement à ce que pensait Newton, le temps absolu et uniforme n’existe pas et chaque objet, chaque personne possède son propre temps.

Une autre étape décisive fut de comprendre comment cette étrange structure du temps est affectée par les lois de la physique quantique qui prédominent dans le monde microscopique. A ce niveau de réalité, le temps semble s’évanouir et il n'y pas de temps local ni de temps commun ; on ne peut parler que de la façon dont les particules se déplacent les unes par rapport aux autres. Cela signifie que le concept de temps, conçu comme une suite d’événements non interchangeables et se déroulant dans un certain ordre, ne permet pas de décrire le réel au niveau fondamental.

Cette difficulté à intégrer la dimension temporelle en physique quantique a été démontrée de manière saisissante au début de ce siècle, par le physicien Antoine Suarez et son équipe. Pour monter sa délicate expérience, celui-ci s’est appuyé sur les travaux du physicien Anthony Leggett qui avait montré qu’il existait une inégalité similaire à celle de Bell, appliquée cette fois, non pas à deux objets séparés spatialement, mais à un seul objet mesuré à des instants différents. Cette découverte théorique fut baptisée « Inégalité de Bell en temps ».

Comme l’avait fait quelques années avant lui Alain Aspect, en montrant que le comportement de deux photons issus d’une même source restaient liés spatialement, Antoine Suarez et son équipe parvinrent à démontrer en 2001 à Genève, au terme d’une autre expérience tout à fait remarquable, que ces inégalités en temps n’étaient pas respectées au niveau quantique et que deux photons se comportaient toujours de la même façon alors qu’ils n’avaient eu, compte tenu du dispositif expérimental sophistiqué mis en œuvre, aucune possibilité de communiquer entre eux.

Prolongeant l’expérience historique d’Alain Aspect, l’expérience de Suarez montrait que non seulement les deux photons agissaient au niveau spatial comme s’ils constituaient une seule et même entité mais que l’enchaînement des événements observés ne correspondait à aucun ordre temporel précis et ne permettait plus de distinguer « l’avant » de « l’après » dans le déroulement de la causalité de cette fascinante expérience.

Avec le mathématicien Alain Connes, le physicien Carlo Rovelli, qui travaille au CERN de Genève, a proposé une variante de la théorie quantique des champs, basée sur l'hypothèse du « temps thermique ». Selon cette hypothèse, le temps n'existe pas intrinsèquement mais émergerait seulement dans un contexte thermodynamique ou statistique. D’un point de vue philosophique, cette hypothèse a des conséquences radicales puisque, dans ce nouveau cadre, l'écoulement du temps devient une illusion qui résulte de notre connaissance incomplète de l’Univers.

En thermodynamique, on sait depuis le fin du XIXème siècle et les travaux décisifs de Boltzmann et Gibbs, que la chaleur correspond à de l’agitation thermique et à un état qui ignore le mouvement individuel de chaque atome mais en donne une description statistique moyenne. Rovelli prend souvent l’exemple de la tasse de thé : lorsque nous disons « Cette tasse de thé est chaude », nous parlons uniquement de la température mais pas du mouvement de chacune des molécules. Pour Rovelli, il en irait de même pour le temps : si nous ressentons une temporalité et la projetons sur le réel, c’est en fait parce que nous ne considérons mentalement que les ensembles et objets macroscopiques. « Si nous connaissions précisément chaque variable, la position exacte microscopique de chaque atome par exemple, cet effet statistique disparaîtrait, et avec lui le temps ! », ajoute Rovelli.

Rovelli s'appuie sur la célèbre équation de Wheeler-DeWitt. En 1968, John Wheller et Brice DeWitt présentèrent une équation cosmologique analogue à celle d’Erwin Schrödinger, avec son équation d’ondes mais applicable au champ gravitationnel. Dans cette équation, le temps était exclu comme variable. L’une des interprétations subjectives la plus saisissante de cette équation a été formulée par le philosophe Julian Barbour en 1999, dans son essai « La fin du temps ». Selon Barbour, l’ensemble de l’Univers serait constitué d’une collection de moment figés, correspondant chacun à une configuration particulière de l’Univers. Ces instants seraient en fait intemporels et n’auraient aucun ordre, aucune succession, ils existeraient simplement de toute éternité.

Prenant l’exemple de la mesure du temps à l’aide d’une montre, Barbour souligne que, lorsque nous affirmons que nous mesurons le temps avec notre montre, nous ne faisons, en réalité qu’observer les mouvements des aiguilles, mais pas le temps lui-même. Et les aiguilles d'une montre, rappelle Barbour, sont des variables physiques comme n'importe quelle autre.

Pour Carlo Rovelli, la variable « temps » est inutile dans la mesure où elle ne peut avoir d’existence intrinsèque. Il propose donc de lui substituer l’ensemble des relations entre les variables physiques et de cesser de considérer que le temps est une propriété fondamentale de la réalité. Pour cet éminent physicien, le temps, en tant que propriété mesurable, n’apparaît qu’au niveau de réalité macroscopique, celui régi par les lois de la thermodynamique.

L’hypothèse du temps thermique de Connes et Rovelli, d’une grande audace conceptuelle, consiste à renverser la perspective classique de la thermodynamique : dans cette nouvelle approche, l’équilibre n’est plus défini comme l’état d’un système qui reste constant au cours du temps mais c’est le temps qui devient l’objet qui permet que l’état de ce système demeure constant. Le temps serait donc une variable d’ajustement, une « qualité » émergente qui dépend de l’état d’un système physique.

Connes et Rovelli poursuivent leur raisonnement et affirment que, si l’on connaissait l’algèbre de la gravité quantique, leur hypothèse permettrait, en principe, d’associer un temps thermique unique à un état d’équilibre du champ gravitationnel. Mais faute de disposer pour l’instant des outils mathématiques nécessaires, il est encore impossible de vérifier expérimentalement cette hypothèse au niveau cosmique.

En revanche, ces deux chercheurs soulignent qu’il est possible de mettre en évidence l’existence de ce temps thermique dans certaines situations physiques particulières. C’est ainsi qu’en laboratoire, des physiciens ont montré récemment qu’il y avait bien, dans certaines conditions physiques très particulières de vide quantique, production d’un temps thermique mesurable. Connes et Rovelli soulignent enfin que, de manière très troublante, à chaque fois que le temps thermique a pu être observé et mesuré en laboratoire, il était en accord avec le temps physique. Pour ces deux scientifiques, il est peu probable que cet accord relève d’une heureuse coïncidence…

Reste cependant une autre question fondamentale : si l’on peut expliquer la production du temps au niveau macroscopique en faisant intervenir la thermodynamique, peut-on démontrer l’existence d’un temps microscopique ? Cette question est restée longtemps sans réponse et pendant les décennies qui ont suivi l’élaboration de la physique quantique à la fin des années 30, aucune preuve expérimentale de l’existence d’une rupture de symétrie temporelle (la symétrie T) n’a pu être apportée. Tout se passait alors comme si, dans ce monde étrange des particules, le temps n’existait pas et n’avait pas de flèche d’écoulement bien définie. Mais en 1985, une équipe internationale de physiciens imagina une expérience baptisée Cplear sur les kaons, une famille particulière de mésons composés d’un quark et d’un antiquark, qui pourrait montrer l’existence éventuelle d’une asymétrie temporelle. Et effectivement, il fut démontré en 1998 qu’il existait bien, certains kaons qui, en se désintégrant en deux particules (au lieu de trois), avaient un comportement irréversible dans le temps, ce qui démontre formellement l’existence d’une asymétrie temporelle au niveau microscopique.

Mais comment peut-on à la fois admettre qu’au niveau microscopique, le temps semble ne pas exister, si l’on en croit l’expérience de Suarez, mais que pourtant il semble impossible, sur le plan expérimental, d’éliminer complétement cette fameuse « flèche du temps », comme l’a montré l’expérience de désintégration des kaons ?

Il se pourrait en fait que cette apparente contradiction puisse être dépassée, à condition de distinguer, comme le propose le Philosophe Etienne Klein, le concept de « cours du temps », de celui de « flèche du temps ». Le cours du temps serait consubstantiel au temps lui-même et ferait que, sur l’axe du temps, on ne peut pas revenir en arrière ni passer deux fois par un même instant. Le cours du temps permettrait donc, tout en rendant possible des événements répétitifs, de toujours différencier le passé, non modifiable, du futur, toujours ouvert.

La flèche du temps, elle, exprimerait la possibilité des systèmes physiques de connaître des changements absolument définitifs, des transformations irréversibles qui les empêchent à tout jamais de revenir à leur état initial. Toute la question étant bien sûr de savoir si cette « flèche du temps » est une propriété intrinsèque du temps lui-même, ou ne fait que caractériser certains phénomènes physiques, particuliers, comme ceux à l’œuvre en thermodynamique.

Mais comme en physique, un mystère en cache souvent un autre, les chercheurs se demandèrent aussitôt ce qui pouvait bien causer cette flèche du temps au niveau microscopique. L’hypothèse la plus probable est que cette violation de la symétrie temporelle au niveau des particules est peut-être provoquée par les propriétés étonnantes de l’antimatière qui pourrait bien être encore présente en quantité égale à la matière dans l’univers et produire une antigravitation (la fameuse énergie noire découverte au niveau cosmique en 1998). Une nouvelle expérience en cours au CERN de Genève devrait permettre d’ici deux ans de vérifier si l’antimatière, en l’occurrence des atomes d’antihydrogène, se comporte ou non comme la matière lorsqu’ils sont soumis à la gravitation. On voit donc qu’au niveau microscopique, comme au niveau cosmique, il est devenu impossible de distinguer le « contenu » du « contenant », de séparer les quatre composantes fondamentales de notre Univers : matière, énergie, espace et temps et de définir un ordre de causalités entre ces composantes.

Alors le temps est-il le moteur qui crée le réel et le monde ou le produit de notre subjectivité et de notre conscience ? A cette question essentielle, personne sans doute mieux que Kant n’a répondu de façon aussi profonde. Le maître de Königsberg a en effet magistralement montré que le temps est à la fois « une forme a priori de notre sensibilité » et une réalité connaissable et objective. Certes, l’homme ne peut dévoiler le monde, le connaître et en extraire les lois que parce qu’il possède la faculté innée de percevoir l’espace et la temporalité à l’œuvre dans toutes choses mais ce temps ainsi produit lui échappe et le dépasse pour prendre une dimension universelle. Indissociablement lié à notre subjectivité et notre conscience du monde, le temps n'est pas pour autant pure illusion et correspond à une évolution physique de l'univers qui nous dépasse infiniment.

Un siècle après Kant, un autre philosophe de génie, Bergson, fit progresser de manière décisive la réflexion sur le temps dans son « Essai sur les données immédiates de la conscience ». Dans cet ouvrage célèbre, Bergson, marchant sur les pas de Spinoza pour qui « Nous sentons et expérimentons que nous sommes éternels » proposa une distinction ontologique capitale entre le « temps » physique, constitué d’une succession d’instants reliés par des intervalles quantifiables et la « durée », sensation indissociablement liée à notre pure conscience du monde et affranchie de la dimension physique et mesurable du temps. Il est intéressant de rappeler qu’une rencontre « au sommet » eut lieu entre Bergson et Einstein en avril 1922 à Paris mais, on ne s’en étonnera guère, chacun resta sur sa position quant à la nature profonde du temps : physique et mesurable, bien que relatif, pour Einstein, psychologique, subjectif  et non quantifiable pour Bergson…

Mais 750 ans avant Kant et 900 ans avant Bergson, l’immense penseur persan Ibn Sînâ, plus connu en Occident sous le nom d’Avicenne, avait déjà magistralement défini cette double nature irréductible du temps, à la fois produit de notre sensibilité et de notre conscience et réalité physique objective et productrice d’un  réel infini, inépuisable et imprévisible, en répondant à un interlocuteur qui lui demandait ce qu’était le temps : « Le temps est une forme déduite de la matière et produite par la conscience ». Mais peut-être faut-il laisser le mot de la fin à Saint-Augustin qui disait « Tant qu'on ne me demande pas ce qu'est le temps, je le sais, mais si on me le demande, alors je ne le sais plus »...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un capteur de chute de personnes âgées efficace et non intrusif
Mercredi, 04/01/2017 - 15:34

Grande source de danger pour les personnes âgées et d’inquiétude pour leurs proches, les chutes représentent les deux tiers des décès accidentels chez les plus de 65 ans. Une équipe du CNRS s’est associée à la PME toulousaine Orme pour développer un tout nouveau capteur de chute. Il permet de s’assurer de la sécurité des séniors sans empiéter sur leur intimité.

Les chutes marquent souvent le franchissement de nouvelles étapes dans la dépendance liée à l’âge. Alors que l’Insee prévoit d’ici 2040 l’arrivée de 375.000 personnes âgées supplémentaires en maisons de retraite médicalisées, le problème risque de s’accentuer dans les années à venir.   

Actuellement, les systèmes de détection des chutes s’appuient la plupart du temps sur des médaillons d’alerte portés autour du cou par le patient, à activer en cas de chute. Des solutions qui se montrent pourtant inefficaces en cas de perte de connaissance ou si les personnes âgées ont oublié de s’en équiper, notamment la nuit, où les chutes sont fréquentes. Quant aux systèmes à accéléromètre, ils provoquent un trop grand nombre de fausses alertes pour être généralisés. Les caméras sont, elles, aussi intrusives que sensibles aux variations de luminosité.  

Dans ce contexte, des chercheurs du CNRS et la PME ORME ont entrepris une collaboration qui a abouti à une solution qui serait capable de détecter automatiquement les mauvaises chutes. La méthode allie un seul capteur optique et un logiciel de traitement en temps réel pour localiser la position relative de la personne par rapport à son environnement. Elle repère si celle-ci se trouve au sol et alerte, selon les cas, les proches ou le personnel médical. 

Pour ce faire, les chercheurs ont utilisé un capteur bon marché commercialisé à grande échelle pour certains jeux vidéo grand public. Seule la partie infrarouge relative à la profondeur se trouve exploitée. La caméra ne produit donc pas d’images conventionnelles où l’identification des personnes serait possible. 

Ensuite, un algorithme permet une reconstitution en 3D de la pièce et détecte les chutes malgré la variabilité des scènes perçues (morphologie des personnes, postures, tenues vestimentaires et déplacement des objets dans l’environnement). Le système fonctionne en temps réel, conformément à la nécessité d’une intervention rapide en cas de problème, et ne requiert aucune instrumentation de la personne.

De la taille d’une caméra standard, le capteur possède un champ de vue propre ce qui implique d’équiper chaque pièce d’un appartement de capteurs. Le système a d’ores et déjà été testé dans une résidence pour personnes âgées en Haute-Garonne. Et les résultats ont été jugés suffisamment concluants pour préparer la phase commerciale. 

Article rédigé par Georges Simmonds pour RT Flash

CNRS

 

^ Haut
Matière
Matière et Energie
Premier système de chauffage urbain utilisant de la chaleur stockée
Mercredi, 04/01/2017 - 18:33

Le campus de l'Université de Bretagne occidentale s'est doté d'un système de chauffage, plus précisément de stockage de chaleur, destiné à cette université. Ce « Miroir des énergies » (c'est le nom du bâtiment) abrite un réservoir de 1.000 m3, raccordé au réseau de chaleur urbain. Il reçoit de l'eau chauffée grâce aux déchets ménagers de la ville de Brest. Dalkia, son concepteur, explique qu'à terme, une centrale à biomasse viendra compléter cette source de chaleur.

Cette réserve de chaleur est exploitée à la fin du weekend, quand il faut de nouveau chauffer les 120.000 m2 des locaux de l'université, ce qui nécessite un gros apport de calories pour remonter la température de l'ensemble. C'est à ce moment que l'eau chaude du réservoir, via le réseau urbain, est injectée dans l'installation de chauffage de l'université. Elle représente un stockage de 2.500 MWh par an.

En soi, le stockage thermique n'est pas une nouveauté mais il est peu pratiqué à cette échelle. En France, c'est le premier à être implanté sur le parcours d'un réseau de chaleur, rapporte Dalkia. Il permet surtout de faire face à un pic de consommation avec de très faibles émissions de CO2. Comme le souligne la vidéo, Brest Métropole est alimentée à plus de 85 % par des sources d'énergie « bas carbone ».

Article rédigé par Georges Simmonds pour RT Flash

Côté Brest

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une fenêtre à acoustique active pour allier aération et insonorisation
Mercredi, 04/01/2017 - 17:34

Technal a présenté une remarquable innovation en partenariat avec le Laboratoire de mécanique et d’acoustique et le bureau d’études Gamba Acoustique : la fenêtre à acoustique active, qui allie une solution simple - ouvrir ses fenêtres - tout en gardant un confort sonore.

Sa conception repose sur deux principes de réduction sonore : l’un passif et l’autre actif. La partie passive fonctionne comme un silencieux aéraulique, où le son est atténué par absorption des ondes, au fur et à mesure de leur propagation. Cela implique cependant de créer un passage d’air plus long que large, comme dans les gaines de ventilation, ce qui n’est généralement pas le cas des fenêtres entrouvertes.

L’équipe a donc placé des parements latéraux de chaque côté de l’ouverture, sur le cadre ouvrant et le montant dormant. Grâce à ces retours, la fenêtre peut s’ouvrir sur dix centimètres tandis que les sons extérieurs doivent parcourir une distance double pour entrer dans la pièce. Ce montage permet ainsi d’atténuer l’ensemble des fréquences sonores, et plus particulièrement les zones moyennes et hautes du spectre.

La partie active de la fenêtre se concentre sur les fréquences basses. Des microphones intégrés dans le montant du cadre fixe captent le bruit résiduel et l’analysent en temps réel grâce à un processeur. Des haut-parleurs, eux-mêmes intégrés au cadre, émettent alors un contre-bruit, dirigé vers l’extérieur et de même répartition spatiale que le bruit à annuler.

Le segment actif de la solution développée est entièrement intégré dans un « bandeau acoustique ». Livré à dimension, il est prêt à être installé sur le montant vertical du cadre fixe de la fenêtre. Le retour de la partie coulissante s’y fond en position fermée, comme pour une fenêtre classique. Aucune compétence en contrôle actif du son ni de formation spéciale ne sont nécessaires pour son installation. Le tout ne requiert qu’un raccord à l’alimentation.

Les résultats menés jusqu'ici dans le laboratoire de Technal sur une fenêtre entrouverte de 10 centimètres ont permis une réduction du bruit de 25 décibels. « En clair, nous réduisons le bruit de 300 fois. Imaginez avoir 300 voitures qui passent devant votre fenêtre. Notre technologie revient à en retirer 299 ! » assure Patrick Lahbib. Si la fenêtre n'est ouverte que de 5 centimètres, c'est comme si on passait de 600 voitures à une seule.

Présentée lors du salon Batimat à Paris 2015, la fenêtre à acoustique active a fait grand bruit. Elle y a remporté la médaille d’argent du concours de l’innovation Batimat, catégorie menuiserie et fermeture. Sa commercialisation est prévue pour fin 2017.

Article rédigé par Georges Simmonds pour RT Flash

Technal

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte d'un nouveau mécanisme génétique impliqué dans l'autisme
Mercredi, 04/01/2017 - 18:42

Des chercheurs de l’Institut des cellules souches et de recherche sur le cancer à l’Université de McMaster, en collaboration avec l’Hôpital pour enfants malades, ont découvert des altérations dans le gène DIXDC1 chez des individus présentant des troubles du spectre de l’autisme (TSA). Ce gène change la manière dont les cellules cérébrales se développent et communiquent.

Cette découverte fournit de nouvelles connaissances sur les TSA qui guideront l’identification de nouveaux médicaments pour les personnes atteintes de TSA. Ces éléments sont cruciaux, car le TSA affecte un individu sur 68, et il n’existe aucun médicament ciblant les symptômes principaux de ce désordre complexe.

L’étude a été dirigée par le Docteur Karun Singh, chercheur à l’Institut de recherche sur les cellules souches et le cancer (SCCRI) et professeur adjoint de biochimie et de sciences biomédicales à l’école de médecine Michael G. DeGroote de l’Université de McMaster.

Les scientifiques ont découvert un important « bouton » d’activation sur la protéine DIXDC, qui ordonne aux cellules cérébrales de former des connexions matures appelées synapses avec d’autres cellules du cerveau pendant le développement.

En collaboration avec le généticien Stephen Scherer de l’Hôpital pour enfants malades et de l’Université de Toronto, l’équipe a identifié des changements génétiques qui conduisent à un gène DIXDC1 « désactivé » chez un groupe d’individus atteints d’autisme, prévoyant que les synapses cérébrales demeurent immatures et réduisent l’activité cérébrale.

"Parce que nous avons identifié la raison pour laquelle DIXDC1 est désactivé dans certaines formes d’autisme, mon laboratoire au SCCRI, spécialisé dans la découverte de médicaments, a maintenant l’opportunité de commencer la recherche de médicaments qui réactiveront DIXDC1 et corrigeront les connexions synaptiques", explique le Docteur Singh. "C’est très intéressant parce qu’un tel médicament aurait le potentiel d’être un nouveau traitement pour l’autisme".

"Bien que cette découverte soit prometteuse, les mutations du gène DIXDC1 ne concernent qu’un petit nombre d’individus atteints d’autisme et de troubles psychiatriques connexes", déclare le Docteur Singh. Cependant, il existe de fortes preuves que de nombreux autres gènes de l’autisme perturbent le développement de synapses d’une manière similaire à DIXDC1.

Article rédigé par Georges Simmonds pour RT Flash

Mc Master

Dépression et inflammation : le lien se confirme
Mercredi, 04/01/2017 - 18:27

Une étude de l'Inserm s'est intéressée à des patients souffrant de mastocytose, une maladie caractérisée par l'accumulation de certaines cellules immunitaires : les mastocytes.

Près de 50 % des patients atteints de mastocytose souffrent de symptômes dépressifs ; chez ces patients, les mastocytes provoquent une inflammation en libérant beaucoup de molécules inflammatoires. Les chercheurs ont étudié 54 patients souffrant de mastocytose. Les personnes les plus sujettes à la dépression avaient peu de tryptophane dans leur sang, une molécule précurseur de la sérotonine dans le cerveau.

Or, la baisse de sérotonine est associée à la dépression. Les patients souffrant de mastocytose avaient aussi plus de dérivés neurotoxiques du tryptophane comme l'acide quinolinique : cela signifie que le tryptophane ne servait pas à fabriquer de la sérotonine ; une hypothèse est que l'inflammation détournerait le tryptophane de la synthèse de sérotonine.

Cette recherche ouvre la voie à de nouveaux traitements pour la dépression, notamment pour les personnes qui ne voient pas d'amélioration avec les antidépresseurs classiques. Ainsi, la kétamine est un anesthésiant qui bloque l'acide quinolinique ; elle aurait donc des effets antidépresseurs. De même, des médicaments limitant l'inflammation pourraient être employés dans le même but.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Mémoire : le cerveau adopte de nouvelles stratégies en vieillissant
Mercredi, 04/01/2017 - 18:21

Le cerveau des personnes âgées procède-t-il de la même façon qu'un cerveau jeune lorsqu'il fait travailler sa mémoire ? Pour le savoir, des chercheurs de l'Université de Californie (Santa Barbara) et de Princeton se sont intéressés à la dynamique des connexions du cerveau au cours de la vie. Ils ont utilisé l'IRM fonctionnelle, une technique qui met en évidence les interactions, ou connexions fonctionnelles, entre des régions du cerveau.

Les chercheurs ont enregistré ainsi l'activité du cerveau de personnes en bonne santé pendant qu'elles accomplissaient des tâches mobilisant leur mémoire ou nécessitant de l'attention. Pour chacune, l'IRM fonctionnelle a permis de reconstruire un réseau des régions cérébrales et de leurs connexions fonctionnelles.

Le nombre de groupes de connexions variait d'un individu à l'autre, mais, pour les tâches mobilisant la mémoire, les variations entre les personnes étaient liées à l'âge. Les participants les plus jeunes avaient peu de groupes de connexions synchrones, mais de grande taille ; ces connexions reliaient la majeure partie du cerveau dans une activité coordonnée.

Chez les participants âgés, les groupes de connexions devenaient plus petits mais plus nombreux : il y avait une perte de cohésion dans l'activité cérébrale, même en l'absence de problèmes de mémoire. Pour compenser la perte de synchronisation du cerveau, les personnes âgées utiliseraient donc de nouvelles stratégies pour faire appel à leur mémoire de manière efficace.

Les connexions fonctionnelles entre régions du cerveau représentent donc un réseau qui évolue au cours de la vie, tout en restant efficace. Comme le souligne Kimberly Schlesinger, un des auteurs de ces travaux, "Nous avons constaté que la façon dont notre cerveau organise ses communications change à mesure que nous vieillissons. Même si nous avons vu différents modèles d'activité cérébrale chez les personnes âgées, nous n'avons pas vu de changements dans les performances de la mémoire".

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Cancer du poumon : un test sanguin pour adapter le traitement
Mercredi, 04/01/2017 - 18:14

Des chercheurs de l'Institut britannique de recherche de Manchester ont mis au point un test sanguin permettant de prédire l'efficacité d'un traitement sur un patient atteint d'une forme agressive de la maladie.

Ces recherches vont améliorer les chances de guérison des personnes atteintes d'un cancer du poumon car ces chercheurs ont mis au point un test sanguin permettant de déterminer l'efficacité d'un traitement sur un patient, et donc de choisir le meilleur. Ils ont analysé les cellules tumorales de 31 patients atteints d'une forme agressive d'un cancer bronchique à petites cellules. Ces cellules, dites « circulantes », se retrouvent dans la circulation sanguine après avoir quitté un organe et leur nombre « reflète la taille de la tumeur et le risque de propagation du cancer ».

Ces chercheurs ont pu identifier des anomalies génétiques permettant d’adapter le traitement médicamenteux à chaque patient. "Cette information permet surtout de pronostiquer l’efficacité des différentes molécules disponibles", ajoute le site spécialisé.

« Notre étude révèle comment les prélèvements sanguins peuvent être utilisés pour anticiper la réponse aux traitements des malades », explique le Professeur Caroline Dive, responsable des travaux, ajoutant : « en identifiant les différentes anomalies génétiques entre les patients, nous avons un bon point de départ pour mieux comprendre le développement des résistances aux médicaments chez les patients atteints de forme agressive ».

Article rédigé par Georges Simmonds pour RT Flash

Nature

Les autistes ont-ils contribué aux succès évolutifs des humains ?
Mercredi, 04/01/2017 - 18:04

Il y a environ 100.000 ans, l'espèce humaine voyait émerger la moralité collaborative, le fait pour une communauté de s'investir dans le bien-être de tous ses membres, ce qui aurait permis aux autistes, individus « différents » d'un point de vue cognitif et comportemental, de jouir d'une intégration totale à la société. Et en voyant leur spécificité non seulement tolérée, mais respectée et valorisée, les autistes ont pu être l'un des moteurs de la prospérité évolutive de notre espèce.

Telle est l'hypothèse d'une passionnante étude menée par trois chercheurs de l'Université d'York, au Royaume-Uni. Selon Penny Spikins, Barry Wright et Derek Hodgson, œuvrant en archéologie et en sciences de la santé, les autistes possédant souvent des capacités de mémorisation exceptionnelles, des perceptions olfactives ou gustatives supérieures à la moyenne ou encore une meilleure compréhension « innée » de certains systèmes naturels, comme les comportements des animaux, ce sont autant d'aptitudes que les groupes ont eu tout intérêt à agréger afin d'en tirer profit.

Pour les chercheurs, il est même assez probable que les autistes aient été à l'origine du processus de spécialisation des activités, des techniques et des sciences, qui aura été d'une importance cruciale pour le développement de notre espèce.

"Nous avançons que la diversité et les variations inter-individuelles ont probablement été plus essentielles aux succès évolutionnaires humains que telle ou telle caractéristique particulière", résume Penny Spikins. "C'est la diversité entre les individus qui aura permis le succès humain, en permettant notamment d'offrir à certains des rôles spécialisés. Et avec l'essor de l'éthique collaborative, la diversité de la personnalité humaine a pu s'élargir".

Pour ces chercheurs, un corpus retraçant l'histoire évolutive ... de l'autisme, et qui estime que l'autisme sans déficience intellectuelle –comme le syndrome d'Asperger– a pu être sélectionné par l'évolution voici un peu moins de 200.000 ans, ce qui lui aura permis de se maintenir dans la population humaine à une fréquence certes peu élevée, mais relativement stable. Certains traits autistiques seraient même détectables dans des peintures rupestres.

Article rédigé par Georges Simmonds pour RT Flash

JACC

Il n'est jamais trop tard pour apprendre !
Mercredi, 04/01/2017 - 17:53

Une étude de l’Université de Londres montre que l'apprentissage et le développement de certaines capacités cognitives se font mieux après l’adolescence et chez les adultes plus âgés, qui s’oppose ainsi à l’idée qu’on apprend tout mieux lorsqu’on est jeune et lorsque la plasticité cérébrale est à son maximum.

Ainsi, certaines formes de raisonnement, en particulier non verbales, peuvent très bien s’acquérir à un âge plus avancé et ne relèvent pas d'une capacité cognitive innée. L’étude a impliqué 558 élèves de 11-18 ans et 105 adultes, qui ont d’abord été testés pour différentes compétences puis ont été invités à suivre 20 jours de formation en ligne dans une compétence particulière avant de repasser les tests. Ils ont été à nouveau testés 6 mois plus tard pour vérifier si l’effet de la formation perdurait.

Parmi les tests, on trouvait un test de raisonnement non verbal, dans lequel Les participants devaient choisir la pièce correcte pour compléter le motif, les pièces pouvant varier de couleur, de taille, de forme et d’orientation ; il y avait également un autre test de discrimination rapide qui consistait à déterminer entre 2 groupes de points de couleur qui se succédaient rapidement sur l’écran, lequel comportait le plus de points.

Résultats : ces expériences montrent que ces compétences cognitives, qui illustrent la performance en mathématiques, sont mieux acquises, avec une formation, après l’adolescence que pendant l’adolescence. Des résultats qui mettent en évidence le développement plus tardif de certains types de compétences, un point important pour optimiser leur apprentissage. Ainsi et en particulier, des compétences cognitives fondamentales du même type que celles nécessaires en mathématiques peuvent être efficacement développées par un apprentissage en fin d’adolescence.

Article rédigé par Georges Simmonds pour RT Flash

Sage Journals

Les gros mangeurs de viande doivent manger plus de fruits et légumes...
Mercredi, 04/01/2017 - 16:09

Selon une étude de l'INRA des antioxydants de notre alimentation constitueraient  une piste de prévention nutritionnelle pour limiter le risque de développement de cancers induits par le fer des viandes et charcuteries.   

En 2015, le Centre international de recherche sur le cancer de l’Organisation Mondiale de la Santé classait la consommation de charcuteries comme cancérigène pour l’homme et la consommation de viandes rouges comme probablement cancérigène… 

Des travaux menés par des chercheurs Inra, toujours en 2015, avaient révélé que le fer héminique de la viande rouge était le principal facteur en cause dans l'apparition du cancer du côlon. Ils expliquaient alors cet effet via une réaction de ce fer avec des lipides alimentaires aboutissant à la formation de composés délétères pour certaines cellules. 

Sur la base de ces résultats, cette équipe Inra a développé des travaux pour proposer une prévention nutritionnelle. Ils ont vérifié chez l’animal que l’ajout de calcium ou d’antioxydants (vitamine E, polyphénols) permettait de limiter in vitro l’effet promoteur du fer héminique, de la viande bovine et de la charcuterie. 

Plus récemment, les scientifiques de l’Inra se sont rapprochés d’épidémiologistes de l'Inserm qui ont mené l’étude SU.VI.MAX pendant huit ans sur près de 13.000 personnes. Rappelons que SUVIMAX est une étude d’intervention chez l’Homme avec des antioxydants à dose nutritionnelle versus placebo. Les travaux ont permis de montrer qu’une consommation importante de fer alimentaire était associée à un risque élevé de cancer du sein dans le groupe placebo (augmentation de 67%). 

Cependant, cette association entre consommation de fer alimentaire et risque de cancer du sein disparaît dans le groupe supplémenté en antioxydants à doses nutritionnelles, c’est-à-dire proches de celles que l’on trouve dans le cadre d’une alimentation équilibrée, riche en fruits et légumes. Ces résultats mettent donc en évidence un risque pour le cancer du sein qui pourrait être maitrisé par les antioxydants de notre alimentation. 

Ils sont cohérents avec les données expérimentales de l’équipe Inra obtenues dans les modèles animaux et conforte l’hypothèse que les antioxydants de notre alimentation pourraient protéger contre le risque de promotion de cancer (du sein et du côlon) induite par le fer des viandes et charcuteries. 

En France, un quart de la population présenterait une consommation élevée de fer héminique (à savoir, plus de 500g de viande rouge par semaine). Pour cette population à risque spécifiquement, il semble donc important d’augmenter la part des antioxydants dans le régime, notamment sous forme de fruits et légumes. 

Article rédigé par Georges Simmonds pour RT Flash

INRA

Le « saut d’exon » pour lutter contre certains cancers graves
Mercredi, 04/01/2017 - 15:53

Le myélome est un cancer de la moelle osseuse qui se manifeste par la prolifération des plasmocytes. Cette catégorie de globules blancs est responsable de la fabrication de molécules d’anticorps, les immunoglobulines, qui ciblent spécifiquement les agents pathogènes, comme les microbes par exemple. 

Une équipe du CNRS vient de montrer que la technique de chirurgie des gènes « par saut d’exon », pourrait permettre de contenir la maladie. Des résultats cliniques prometteurs ont été obtenus dans le traitement de la myopathie de Duchenne. Le challenge du laboratoire Contrôle de la réponse immune B et des lymphoproliférations consiste à l’adapter aux plasmocytes tumoraux. 

Cette technique modifie artificiellement le processus de fabrication des anticorps à l’intérieur du plasmocyte. Une molécule appelée oligonucléotide antisens est insérée sur l’ARN pendant l’étape de maturation. Ces molécules modifient la traduction des anticorps et conduisent à la formation d’une protéine tronquée. Ces anticorps aberrants sont hautement toxiques pour les plasmocytes. 

Alors que les anticorps normaux, composés d’un type de chaîne légère et de chaîne lourde, ont besoin de cet assemblage pour sortir de la cellule, les anticorps tronqués, qui ne possèdent pas la bonne structure, restent majoritairement bloqués et s’accumulent dans la cellule. Cet engorgement provoque un stress protéique et conduit généralement à la mort de la cellule par apoptose. Cette autodestruction naturelle des plasmocytes inutiles laisse la place aux plasmocytes produisant des anticorps fonctionnels, ce qui rend le système immunitaire plus efficace. 

En copiant ce phénomène pour les cellules tumorales, en les forçant à fabriquer des anticorps tronqués grâce à la technique du « saut d’exon », il serait alors possible de provoquer leur mort cellulaire. Les essais précliniques devraient commencer dans trois à six mois. En parallèle, les chercheurs tentent d’optimiser l’administration de ces molécules antisens dans la moelle osseuse, niche de la tumeur. Un organe « forteresse » difficilement accessible. 

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top