|
|
Edito
Cerveau : son exploration ne fait que commencer !
Du 14 au 20 Mars, plus de 700 chercheurs en neurosciences se mobilisent pour organiser dans toute la France quelque 400 manifestations à l’occasion de la « Semaine du Cerveau » (Voir http://www.semaineducerveau.fr/2016/France.php). J’ai tenu à apporter ma modeste contribution de « passeur de connaissance » sur ce sujet essentiel.
Bien que la véritable exploration scientifique du cerveau remonte à plus d’un siècle, avec la découverte des neurones par Ramón y Cajal (1894) et qu’on puisse considérer que les sciences cognitives sont nées en 1936, avec la machine de Turing, il a fallu attendre le dernier quart du XXe siècle pour que la science dispose enfin des outils et moyens d’analyses et d’investigations qui lui permettent de commencer à comprendre l’organisation et le fonctionnement global de cet extraordinaire organe qu’est le cerveau humain.
Parmi les nombreuses avancées récentes concernant la connaissance de notre cerveau, il faut évoquer celle réalisée il y a quelques semaines par une équipe de chercheurs finlandais, américains et français qui a proposé un modèle très convaincant concernant la structure en circonvolutions de notre cerveau. Grâce à cette organisation très particulière, le cortex peut, dans un espace restreint, multiplier sa surface et augmenter à la fois le nombre de neurones qui le constituent et celui des connexions qui relient ces neurones. Et le résultat est plutôt probant puisque le volume de notre boite crânienne - 1200 millilitres en moyenne - permet de contenir environ 20 milliards de neurones et plus de 150.000 km de fibres nerveuses.
Cette morphogénèse cérébrale spécifique permet à la substance blanche de multiplier son volume par vingt et au cortex de multiplier sa surface par 30. Mais il restait à savoir si cette structuration en circonvolutions du cerveau était vraiment liée à un ensemble de contraintes mécaniques, selon une hypothèse scientifique vieille de presque un demi-siècle.
Pour le vérifier, cette équipe de recherche a utilisé des IRM cérébrales d'un fœtus de 22 semaines, âge où le cerveau est encore lisse, pour réaliser un modèle en élastomère souple figurant la matière blanche recouverte couche après couche d'un gel figurant la matière grise (le cortex). Après avoir plongé ce modèle de cerveau dans un solvant, les scientifiques ont observé que ce «cortex » gonflait beaucoup plus vite que la «matière blanche » et ont également constaté que la tension exercée obligeait ce cortex à former des plis très proches de ceux qui caractérisent notre cerveau.
En poursuivant cette modélisation numérique jusqu'à l'âge adulte, ces chercheurs ont observé une évolution très proche de celle à l’œuvre au cours de notre croissance, ce qui s’est notamment traduit par la formation très progressive de plis, puis de sillons et des bosses qui se forment perpendiculairement aux tensions de compression, avant de se diviser en différentes branches.
Fait remarquable, ce modèle élégant, qui a pu mimer le développement du cerveau jusqu'à 34 semaines de gestation, permet même de prédire où apparaîtront les circonvolutions. François Rousseau, professeur en imagerie médicale à l'Institut Mines-Télécoms, reconnaît cependant que le rapport entre croissance du cortex et croissance de la matière blanche « n'est sans doute pas la seule explication au plissement du cerveau. Il nous faudra ajouter d'autres contraintes, par exemple celle exercée par le crâne. Mais cette étude montre que le simple fait que le cortex croît un peu plus vite que la substance blanche suffit à créer des sillons ».
Mais à présent, ces chercheurs veulent aller plus loin et comprendre comment la forme et les fonctions du cerveau se régulent mutuellement. L’idée et de comparer et rapprocher ces nouvelles données avec celles concernant la localisation des fonctions cognitives et la formation des neurones et de leurs réseaux, ce qui devrait permettre de mieux diagnostiquer et de mieux traiter certaines pathologies cérébrales qui sont justement liées à des anomalies du plissement cortical, comme la lissencéphalie (cerveau lisse) ou la polymicrogyrie (cerveau excessivement plissé). Il est également possible qu’à terme ces recherches élargissent notre compréhension des bases neurobiologiques de l’autisme car des chercheurs du CNRS ont même récemment identifié qu'un pli particulier présentait une anomalie chez certains enfants atteints de troubles autistiques.
Si les scientifiques commencent à comprendre le processus remarquable de morphogenèse cérébrale, ils ont également découvert au cours de ces dernières années que notre cerveau possédait une polyvalence et une plasticité bien plus grandes qu’on ne l’imaginait. Des chercheurs Canadiens de l’institut McGill à Montréal ont par exemple découvert récemment que les astrocytes étaient capables d’évoluer et de s’adapter à leur environnement, contrairement à ce que l’on croyait jusqu’à présent.
Comme le souligne Todd Farmer, qui a dirigé ces recherches, « Nous étions face à un mystère. D’un côté nous pouvions observer la grande diversité des astrocytes dans le cerveau mais de l’autre, il était admis que ce type de cellules nerveuses n’était plus capable d’évoluer après la naissance. Mais nos travaux ont montré que les astrocytes étaient sensibles à certains signaux que leur envoyaient les neurones et que, sous l’effet de ces signaux, ils pouvaient évoluer tout au long de la vie ».
Cette découverte est considérée comme fondamentale dans le domaine de la neurobiologie et pourrait trouver d’importantes applications thérapeutiques dans les années à venir car il a été démontré que ce mécanisme d’interaction et de communication entre neurones et astrocytes était impliqué dans plusieurs maladies neurodégénératives, dont l’épilepsie.
Une autre découverte très récente est venue bouleverser la connaissance que nous avions concernant les capacités de calcul et de stockage d’information de notre cerveau. Des chercheurs américains dirigés par Terry Sejnowski, neuroscientifique du Salk Institute, ont en effet montré que cette capacité de stockage était 10 fois supérieure aux estimations précédentes et s’élevait à environ 1 pétaoctet (10 puissance 15) (Voir eLIFE).
Pour parvenir à cette conclusion tout à fait étonnante, ces scientifiques se sont appuyés sur une modélisation 3D de l’hippocampe (partie du cerveau qui est le centre de la mémoire et de la navigation dans l’espace) et ont également constaté que, dans un cas sur dix, les synapses se dupliquaient. Ces chercheurs ont également pu montrer que les synapses étaient capables de modifier leur taille et leur capacité en fonction du nombre de signaux qu’ils reçoivent.
Selon ces recherches, il y aurait au moins 26 tailles différentes de synapses, ce qui autoriserait un stockage global d’information équivalent à 4,7 milliards de livres ou encore 670 millions de pages Web. « Cette nouvelle évaluation est 10 fois plus grande que ce qui était admis jusqu’à présent et nous avons été tout bonnement stupéfaits par la complexité et le raffinement adaptatif de ce système d’interface synaptique », ajoute Terry Sejnowski.
Parallèlement à ces découvertes fondamentales sur l’organisation et les propriétés de notre cerveau, les scientifiques ont également accompli des pas de géant dans l’utilisation thérapeutique de nouveaux outils physiques, biologiques ou électroniques qui permettront demain de réparer notre cerveau lorsqu’il est endommagé par la maladie ou amoindri par l’âge.
Des chercheurs suédois du Swedish Medical Nanoscience Center ont par exemple présenté en juin 2015 le premier prototype de neurone biomimétique. "Nous voulions absolument parvenir à mettre au point un dispositif implantable dans le cerveau qui puisse délivrer des molécules, de façon non pas continue, mais contrôlée, selon les besoins », explique le microbiologiste Benjamin Libberton.
Ce prototype de neurone biomimétique combine plusieurs technologies qui parviennent à reproduire la transmission électrochimique des informations entre les neurones. Au cœur de ce dispositif figure notamment une pompe à ions qui reçoit l’influx électrique et peut, en fonction de l’intensité du signal reçu, moduler la production des principaux neurotransmetteurs nécessaires à la bonne transmission des informations à l’intérieur de notre cerveau. À terme, lorsque ce dispositif aura pu être suffisamment miniaturisé, ces neurones biomimétiques pourront être utilisés en remplacement de neurones endommagés ou détruits, comme cela est le cas dans des pathologies comme Alzheimer ou Parkinson.
Une autre équipe américaine du département de neurochirurgie de l'Université de Pennsylvanie a annoncé récemment avoir réussi à créer un réseau neuronal, in vitro. Dirigés par le Docteur Kacy Cullen, ces chercheurs ont mis au point les techniques de production d’axones en laboratoire. Selon l’étude, ces axones se mettent à pousser le long d’une structure baptisée micro-TENNS (micro-tissue engineered neural network). "Nos micro-TENNS devraient pouvoir faciliter la réparation du système nerveux en apportant simultanément des neurones de remplacement et des fibres axonales sur de longues distances. Cette stratégie de médecine régénérative sera capable un jour de faire pousser des réseaux neuronaux individualisés, adaptés à chaque patient, en fonction de la pathologie qui affecte son cerveau" précise Kacy Culle.
La recherche française est également en pointe dans ce domaine des nouveaux outils thérapeutiques destinés à traiter les nombreuses maladies qui peuvent toucher le cerveau. Le neurochirurgien français Alim-Louis Benabid a ainsi reçu le prix « 2015 Breaktrough Prize » pour ses travaux novateurs sur la maladie de Parkinson.
Ce pionnier de la recherche neurocérébrale a mis au point dans les années 90 la stimulation électrique à haute fréquence dans les zones du cerveau atteintes par la maladie de Parkinson. Cette technique repose sur l’implantation électrodes dans les noyaux subthalamiques, reliées à un dispositif de batteries installé au niveau du thorax. Elle permet de réduire de façon considérable les troubles moteurs liés à cette maladie et notamment les tremblements, très invalidants. Mais cette technique, en dépit de son efficacité remarquable, ne stoppe pas la maladie, qui provoque la destruction d’une famille de neurones spécialisés dans la production de la dopamine, situés dans la substance noire, un petit noyau de quelques millimètres à la base du cerveau.
Pour essayer d’aller plus loin et s’attaquer aux racines du mal, Alim-Louis Benabid poursuit aujourd’hui d’autres recherches visant à utiliser à des fins thérapeutiques des faisceaux lumineux proches de l’infrarouge.
Des expérimentations menées chez l’animal, dans les universités de Sidney et de Grenoble, ont montré que l'exposition des neurones dopaminergiques à cette lumière proche de l’infrarouge stimule le métabolisme de ces cellules, ce qui permet de ralentir très sensiblement les mécanismes de dégénérescence. Cette luminothérapie est délivrée grâce à une fine fibre optique implantée dans la zone adéquate. Un essai de ce nouvel outil thérapeutique est en cours depuis un an à Grenoble, au laboratoire Clinatec (CEA, Inserm, Université Joseph Fourier, CHU de Grenoble).
Mais demain, la science pourra non seulement traiter des pathologies neurodégénératives aujourd’hui incurables mais sera également capable d’améliorer le fonctionnement intrinsèque de notre cerveau. Des chercheurs italiens de l’Université catholique de Rome viennent ainsi de montrer qu’il était possible d’utiliser les effets de la stimulation transcrânienne à courant direct (tDCS) pour améliorer les capacités de mémorisation chez l’animal.
La tDCS est une technique non-invasive de stimulation cérébrale qui utilise deux électrodes placées sur le crâne pour administrer un courant électrique de très faible intensité. Depuis plusieurs années, cette technique très prometteuse est utilisée pour traiter des patients souffrant de différents troubles, comme la dépression ou le trouble bipolaire.
Dans ces expérimentations, les chercheurs italiens ont soumis des souris à plusieurs séances de stimulation transcrânienne d’une durée de 20 minutes chacune. Résultat : les souris ont amélioré leurs performances dans différents tests d’orientation et de cognition, comme l’épreuve du labyrinthe. Selon ces chercheurs, cette stimulation électrique agirait directement sur l’hippocampe en augmentant la production d’une protéine, la BDNF (brain-derived neurotrophic factor), essentielle au développement neuronal et au contrôle de la plasticité synaptique. Claudio Grassi, qui dirige ces travaux, précise que cette technique « a déjà permis d’obtenir des résultats prometteurs dans des modèles animaux de maladie d’Alzheimer ».
Enfin, il faut signaler l'avancée remarquable qui vient d'être réalisée par des scientifiques américains de l’Université de Washington. Ceux-ci ont réussi à décoder les signaux du cerveau à peu près à la vitesse de perception, via des électrodes placées dans les lobes temporaux de patients (épileptiques). L'analyse des réponses des neurones des patients, à deux types de stimuli visuels, des images de visages et des images de maisons, a permis aux scientifiques de prédire avec 96 % de précision, le type d’images visionnées par les patients (Voir PLOS). Cette étude précise qu’il s’agit de « La première étape vers la réalisation d’une cartographie du cerveau qui permettrait d’identifier en temps réel à quel type d’information un sujet est en train d’accorder son attention ». Autrement dit, ces recherches rendent envisageable la conception d’une machine qui pourrait « lire » dans nos pensées…
On voit donc que la frontière scientifique et technologique qui sépare le concept de cerveau réparé de celui de cerveau « augmenté » s’estompe à mesure qu’apparaissent de nouveaux et puissants outils permettant de combiner des effets physiques, biologiques et chimiques, qui agissent en profondeur sur le fonctionnement de notre cerveau et peuvent en modifier durablement le fonctionnement et les capacités .
Face à ces avancées scientifiques vertigineuses dans la connaissance de notre cerveau mais également dans notre capacité d’action sur cet extraordinaire organe, nous devons veiller à ne pas céder à la tentation de mettre en œuvre de nouvelles et redoutable formes d’eugénisme ou de contrôle social. Mais si nous parvenons à éviter ces dérives possibles, grâce à un cadre législatif approprié et à une réflexion éthique collective, nous pourrons poursuivre cette exploration exaltante de notre cerveau qui recèle encore bien des mystères. Peut-être atteindrons-nous alors le niveau de l’intelligence planétaire qui ouvrira à l’Humanité une ère nouvelle…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Comme pour les PC et tablettes, les fabricants de puces mobiles dévoilent chaque année leurs nouvelles puces dotées de performances toujours plus avancées, tout en tentant de réduire l'impact sur la durée de vie de la batterie et en augmentant constamment la capacité de la mémoire vive. Mais ce modèle pourrait changer car, à l'occasion de la conférence International Solid State Circuits, des chercheurs du MIT ont conçu un design de puce pour mobile avec un réseau de neurones artificiels.
Baptisée « Eyeriss », celle-ci est constituée de 168 cœurs et consommerait 10 fois moins de batterie que les GPU actuellement embarqués au sein des smartphones. Dans un réseau de neurones artificiels, chaque nœud traite les données qu'il reçoit avant de les transférer vers un autre nœud, un processus qui s'étend à chacun des cœurs pour diviser la réalisation d'une tâche et la traiter plus rapidement.
Chacun des cœurs présente la particularité de posséder sa propre mémoire et de communiquer avec les autres cœurs ; ils n'ont donc pas besoin d'accéder en permanence à une source de mémoire plus importante. Or, pour amoindrir les effets sur l'autonomie de la batterie, les chercheurs ont réussi à optimiser les transferts d'un nœud à l'autre et chacun compresse les données avant de les envoyer.
Un réseau de neurones artificiels au sein d'un smartphone offrirait plusieurs possibilités nécessitant aujourd'hui un calcul déporté sur un serveur externe. C'est par exemple le cas d'une application de traduction, de reconnaissance d'objets ou encore de détection de visages.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
BioButterfly. C’est le nom de code du projet de recherche lancé en 2012 à Lyon par Michelin et l’Institut français du pétrole Energies nouvelles (IFPEN). Le projet est maintenant entré dans sa phase de développement. L’industrialisation pourrait commencer en 2022.
Pour Michelin, l’enjeu est stratégique. Il s’agit de sécuriser son approvisionnement en butadiène et de limiter sa dépendance au pétrole. Le butadiène est un produit tiré du pétrole. Il est spécialement utilisé dans la fabrication des caoutchoucs synthétiques dont 60 % de la production mondiale est destinée au secteur des pneumatiques. Michelin s’attend, pour des raisons économiques, à des tensions durables en matière d’approvisionnement de butadiène. C’est pourquoi il cherche à diversifier les ressources et les modes de production de ce produit dérivé du pétrole. « A long terme, il y a une réelle nécessité de limiter la dépendance au pétrole », explique Jérôme Fournier, directeur de la recherche et du développement élastomères de Michelin.
Le projet BioButterfly a donc pour vocation de produire du butadiène non plus à partir du pétrole, mais à partir de la biomasse, c’est-à-dire de matières organiques d’origine végétale ou animale. Lancé en 2012, le projet de recherche est désormais dans sa phase de développement. Il associe Michelin, l’IFPEN et sa filiale Axens et l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). Les partenaires de BioButterfly prévoient la mise en service d’une unité d’expérimentation pré-industrielle en 2018 et l’ouverture d’une unité industrielle en 2022, sur un site, basé en France, qui n’est pas choisi.
Le projet comprend plusieurs enjeux, à commencer par la production d’un biobutadiène économiquement compétitif et par la réduction des impacts environnementaux, et notamment des émissions de CO2, sur l’ensemble de la chaîne de production par rapport à la voie fossile équivalente.
Article rédigé par Georges Simmonds pour RT Flash
Michelin
|
|
|
|
|
|
|
|
Les puces RFID se répandent dans tous les objets de notre quotidien mais elles présentent des failles en matière de sécurité, les rendant vulnérables à certains types d’attaques malveillantes. Pour le moment, les puces RFID telles qu’on les connaît peuvent facilement succomber à deux types d’attaques.
Les attaques par canaux auxiliaires (side-channel attacks) et les attaques par panne électrique (power glitch). Le premier type d’attaque consiste essentiellement à enregistrer les fluctuations électriques d’un terminal lorsqu’il interagit avec une puce, afin d’en déduire la clef de chiffrement, et ainsi accéder aux données de la puce. Il faut néanmoins être en mesure de répéter l’opération plusieurs fois afin de compiler la totalité de la clef de chiffrement, chaque attaque ne permettant de récupérer qu’une infime partie de cette clef. Le second type d’attaque est utilisé pour les puces RFID un peu plus évoluées qui possèdent une clef de chiffrement fluctuante.
Dans ce cas, il faut que la puce puisse travailler avec un serveur central qui fonctionne sur le même principe et qui est donc capable de valider la clef de la puce, envoyée à chaque nouvelle transaction avec un terminal. L’attaque par panne électrique vise alors à couper l’alimentation de la puce afin d’empêcher la modification de la clef. Dès lors, une attaque par canaux auxiliaires répétée permet de briser la clef de chiffrement.
Afin de lutter efficacement contre ces deux types d’attaques, les chercheurs du MIT ont planché sur des contre-mesures parfaitement ciblées. En premier lieu, ces chercheurs ont intégré aux puces RFID des cellules de mémoires « non volatiles ». Comprenez par-là qu’une partie de la puce RFID sera capable de stocker en permanence toutes les données de la puce, y compris en cas de perte de puissance. Ensuite, ces mêmes puces sont désormais pourvues d’une alimentation dédiée afin qu’il n’y ait jamais d’interruption entre l’alimentation en courant et les circuits de la puce. Texas Instruments, partenaire du MIT sur ce projet, a d’ailleurs déjà construit et éprouvé plusieurs prototypes intégrant ces modifications.
Article rédigé par Georges Simmonds pour RT Flash
Extreme Tech
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Virginie et de plusieurs universités américaines, dont le Sandia National Laboratory, travaillent sur un projet d’éolienne offshore géante. L’idée est simple : plus le “moulin” est grand, plus il pourra produire d’électricité. En chiffres, cela donne des pales de plus de 200 mètres de long (soit deux terrains de foot) pour une puissance maximum de 50 mégawatts (MW), de quoi alimenter eniron 50 000 foyers en électricité (hors chauffage). Actuellement, la plus grande éolienne au monde tourne au large des côtes danoises. Conçue par Vestas, elle est déjà considérée comme gigantesque. Mais ses pales ne font pourtant que 80 mètres de long et la puissance plafonne à 8 MW.
La machine américaine sera donc plus de deux fois plus grosse et plus de six fois plus puissante. Ce gain de puissance ne réside donc pas que dans la taille des pales puisque pour passer de 8 à 50 MW, il aurait fallu des lames de 500 mètres de long ! C’est plus dans leur design et leur conception que se trouve le secret de la puissance annoncée. Les chercheurs du fameux laboratoire national Sandia (Nouveau Mexique) qui pilotent la conception des lames sur ce projet, restent assez évasifs sur les moyens d’atteindre les 50 MW.
Ils précisent seulement que leurs calculs montrent qu’un allègement réduit considérablement les efforts et le stress mécanique sur les pales, de quoi envisager la conception de pales assez grandes pour des éoliennes ultrapuissantes. Sans nier toutefois que certains verrous techniques doivent être levés !
Le laboratoire de Sandia travaille aussi sur l’aérodynamique et teste donc différentes géométries pour déterminer celles qui seront les plus efficaces. Enfin, les chercheurs mettent à l’épreuve de nombreux matériaux (matériaux composites à base de fibre de verre, de carbone etc…) avec, là encore, pour objectif d’améliorer les performances, mais aussi de réduire les coûts. Selon le ministère américain de l'Energie, ce type de machine devrait permettre au pays d’atteindre les 20 % d’énergie éolienne d’ici 2030.
Article rédigé par Georges Simmonds pour RT Flash
Cleantech Canada
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des chercheurs français du CNRS, des universités de Toulouse, Pierre-et-Marie-Curie, Paris-Diderot ainsi que l’Université d’Arizona ont publié une étude qui montre que la croûte et le manteau de Mars auraient basculé du nord vers le sud il y a de 3 milliards à 3,5 milliards d’années, soit durant l’enfance de cette planète âgée alors d’un milliard d’années, une époque considérée comme propice à l’apparition de la vie. Cette rotation est loin d’être mineure : la surface a bougé d’environ 20 à 25 degrés de latitude. Sur Terre, ce serait comme déplacer Paris au niveau du tropique.
Ce n’est pas l’axe de rotation de la planète qui a changé mais bien la position de la croûte et du manteau de Mars, autour de son noyau. Ce phénomène appelé « obliquité » n’avait jamais été démontré avant la publication des travaux de l’équipe du CNRS, publiés le 2 mars 2016 dans la revue Nature.
« C’est comme si la chair d’un abricot tournait autour de son noyau », résume joliment Sylvain Bouley (université Paris-Sud, laboratoire de géosciences Geops), premier auteur de l’étude publiée par Nature.
Ce grand basculement est en réalité la conséquence du développement d’un volcan, appelé Tharsis. « C’est un dôme énorme qui fait 5000 km de diamètre, 12 km d’épaisseur et pèse 1 milliard de milliards de tonnes ». Naturellement, la planète a cherché à compenser ce déséquilibre en cherchant à positionner cette excroissance imprévue sur son équateur. « C’est comme si vous mettiez un gros poids sur votre tête. Elle va vite basculer d’un côté », poursuit le chercheur.
Une fois le point d’équilibre trouvé, la planète s’est stabilisée, avec des conséquences à long terme que les scientifiques tentent d’analyser. Ce mouvement majeur offre aussi une réponse à quelques mystères que les scientifiques se pressent d’analyser : « On sait que cela a déformé les rivières et on sait pourquoi elles sont là où on les observe aujourd’hui » indique Sylvain Bouley. Cela explique aussi pourquoi certains réservoirs souterrains de glace se situent loin des pôles de Mars, puisque ceux-ci ont bougé.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
La puissante Food and Drug Administration (FDA), l’équivalent américain de l’Agence du médicament en France, vient d'autoriser une nouvelle molécule efficace dans le traitement du syndrome de l’X-fragile, ce qui représente une avancée majeure dans la prise en charge de cette maladie rare qui ne dispose aujourd’hui d’aucun traitement spécifique.
L'autorité de santé américaine vient en effet d'autoriser la molécule BMS-204652, candidat médicament pour le traitement du syndrome de l’X-fragile. "Cette autorisation va faciliter le développement et la commercialisation de cette molécule prometteuse" explique le Centre national de la recherche scientifique (CNRS). En France, une demande de brevet pour cette molécule a été déposée en 2011.
Cette maladie génétique rare touche 1 nourrisson sur 4 000. Les principaux symptômes répertoriés sont un déficit intellectuel la plupart du temps associé à des troubles du comportement. Des signes physiques sont aussi caractéristiques du syndrome de l’X-fragile : « visage étroit et allongé, oreilles et front proéminents, hyperlaxité des doigts, pieds plats et macro-orchidie chez le garçon après la puberté ».
A ce jour, les patients diagnostiqués ne bénéficient d’aucun traitement spécifique. Mais la molécule BMS-204652 est porteuse d’espoir. Son efficacité a été prouvée in vitro sur des cultures de neurones du syndrome de l’X-fragile. Résultat, elle active des canaux potassiques (sièges de la maladie).
En poursuivant les essais in vivo sur un modèle de murin de la maladie, les chercheurs ont également obtenu de bons résultats. Au terme de l’étude, « les souris modèles du syndrome de l’X-fragile possèdent un comportement cognitif, émotionnel et social similaire à ceux des souris sauvages, témoins de l’étude ».
Article rédigé par Georges Simmonds pour RT Flash
FDA
|
|
|
|
|
|
|
|
Une étude française, menée sur 15 ans à l'Institut de cancérologie Gustave Roussy de Villejuif (Val-de-Marne) sur 67.634 femmes françaises âgées de 42 à 72 ans, révèle qu'un cancer du sein sur deux après la ménopause serait provoqué par des facteurs comportementaux comme une alimentation déséquilibrée, l'alcool ou le surpoids.
Selon ces travaux, plus de la moitié (53,5 %) des cas de cancer auraient pu être évités avec un comportement adapté à cette période de la vie. Manger sainement et équilibré, se limiter à un verre d'alcool par jour, surveiller son poids (indice de masse corporel inférieur ou égal à 25kg/m²) réduirait le risque de développer un cancer du sein de 50 % après la ménopause.
Des chercheurs français de l'Inserm (Institut national de la santé et de la recherche médicale) se sont rendus compte que ces différents facteurs de risque dits "comportementaux" étaient déterminants dans le déclenchement de la maladie après la ménopause. Autrement dit, en agissant sur leur comportement, les femmes pourraient considérablement accroître leur chance d'éviter la maladie à cette période de la vie.
En cause également, les traitements hormonaux de la ménopause qui sont aujourd'hui beaucoup moins utilisés et qui ont subi, comme le rappellent les spécialistes, des modifications dans leur composition.
L'étude précise qu'avant la ménopause, les cancers du sein sont pour 61,2 % attribuables à des facteurs de risque non-comportementaux et seulement 39,9 % au comportement. "Les cancers du sein diagnostiqués avant la ménopause ne sont statistiquement attribuables à aucun facteur de comportement pris isolément", indique Françoise Clavel-Chapelon, directrice de recherche à l'Inserm. Par contre, "après la ménopause, plus de la moitié (53,5 %) des cas de cancer auraient pu être évités avec un comportement adapté", explique la chercheuse. Ces nouvelles données suggèrent que la prévention de ces comportements entraînerait la réduction du nombre de cancers du sein à la ménopause.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
|
|
|
|
|
|
Des chercheurs toulousains ont annoncé que la progression du redoutable cancer du pancréas pourrait être empêchée par la simple élimination d'une enzyme. Le plus étonnant est que cette découverte a été faite par hasard, selon le Docteur Pierre Cordelier, directeur de recherche INSERM au Centre de recherche en cancérologie de Toulouse (CRCT).
L'équipe menait alors une étude sur la cytidine désaminase (CDA), une enzyme déjà bien connue des cancérologues. Ces travaux ont permis, selon lui, de prouver qu'il était faisable et sans danger de modifier la CDA en vue de sensibiliser les cellules cancéreuses à la chimiothérapie.
En éliminant la CDA, l'équipe a observé que "la prolifération des cellules cancéreuses est sévèrement réduite, sans même aucune chimiothérapie". "On ne s'y attendait pas du tout. On croyait qu'enlever la CDA ne faisait qu'aider la chimiothérapie. Mais, ce qui était totalement inattendu, c'est qu'en éliminant la CDA, on bloque la progression de la tumeur", résume le chercheur.
Cette percée, qui reste à valider, "ouvre la possibilité d'un nouveau traitement" pour l'un des cancers les plus mortels, souligne Pierre Cordelier qui précise qu'il reste toutefois encore beaucoup de travail avant que la découverte de son équipe puisse éventuellement aboutir à un traitement. Il faudra "entre cinq et dix ans "avant une application auprès du grand public, avertit le chercheur, qui souligne que cette découverte fortuite pourrait "ne pas être limitée au cancer du pancréas", mais être étendue aux autres formes de la maladie.
Article rédigé par Georges Simmonds pour RT Flash
Oncopole
|
|
|
|
|
|
|
|
L'étude CARDIA, conduite par Michael Miedema (Minneapolis Heart Institut), a mesuré le score calcique des artères coronaires à l'aide de la tomodensitométrie haute résolution, qui permet de mesurer la quantité de plaques calcifiées et le niveau d'athéromatose. Plus le score est élevé, plus grande est la surcharge calcique vasculaire.
Cette étude a pris en compte la consommation de fruits et légumes, dans le cadre d’interviews centrées sur les habitudes alimentaires. La cohorte étudiée, constituée aux Etats-Unis, se compose de 2 506 sujets jeunes, blancs ou noirs (dont 67,5 % de femmes).
Le score calcique, pour sa part, a été calculé en 2005-2006, soit vingt années après, selon les techniques en vigueur. Le risque relatif d’un score jugé élevé, en fait l’odds ratio (OR), a été calculé après ajustement (ORA) en fonction des variables pertinentes au moyen d’une analyse multivariée de type régression logistique multiple. La consommation de fruits et légumes a été estimée et représentée par une distribution découpée en tertiles selon le nombre total de prises quotidiennes de fruits et légumes. Une telle représentation, malgré ses limites, s’impose pour exploiter statistiquement des données semi-quantitatives.
Après un premier ajustement en fonction des variables démographiques et des grands indicateurs corrélés au mode de vie, une association inverse significative a été établie entre la consommation de fruits et légumes et la charge calcique coronarienne. Les plus gros consommateurs de fruits et légumes sont ceux dont le score calcique s’est avéré le plus faible, comme l’indique la comparaison entre les tertiles précédemment définis.
Cette étude de cohorte longitudinale de longue haleine établit une relation inverse entre la consommation quotidienne de fruits et légumes, d’une part, la prévalence des scores calciques coronariens élevés, d’autre part. Cette étude confirme donc le bénéfice d'une consommation précoce et régulière de fruits et légumes pour la bonne santé des artères…
Article rédigé par Georges Simmonds pour RT Flash
Circulation
|
|
|
|
|
Une étude américaine vient de révéler que les patients précédemment traités par octréotide pour des tumeurs neuroendocrines de l’intestin moyen inopérables auraient un risque de progression de la maladie ou de mortalité réduit de 79 % après traitement par Lutathera, un peptide thérapeutique radio-marqué. Une analyse préliminaire de la survie montrerait également une moindre mortalité, de près de 50 %, dans le groupe traité par Lutathera par rapport au groupe traité par octréotide. Ces résultats ont été présentés à l'occasion d'un congrés de cancérologie à San Fransisco.
Lutathera appartient à une famille émergente de molécules utilisées dans un traitement appelé Peptide Receptor Radionuclide Therapy (PRRT) qui cible les tumeurs carcinoïdes à l’aide de peptides marqués radioactivement. Cette nouvelle thérapie est prometteuse pour traiter les tumeurs neuroendocrines inopérables.
Article rédigé par Georges Simmonds pour RT Flash
ASCO
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Pasteur de Paris, sous la direction du professeur Arnaud Fontanet, viennent de montrer pour la première fois que le virus Zika, qui sévit en Amérique du Sud, peut provoquer un trouble neurologique grave, le syndrome de Guillain-Barré (SGB).
L'étude a été réalisée à partir de données recueillies en Polynésie française, où une épidémie Zika, entre octobre 2013 et avril 2014, a touché les deux-tiers de la population.
Ce syndrome neurologique rare est observé à la suite d'autres infections virales (grippe, dengue, virus du Nil occidental...) mais également de façon non négligeable, à la suite d'une infection bactérienne (Campylobacter).
Avec plus de 1,5 million de cas au Brésil, et plusieurs milliers ailleurs, dont déjà plus de 40.000 cas en Colombie, les chercheurs mettent en garde sur les risques de voir les capacités de soins intensifs dépassées, en particulier en dehors des cités urbaines. Toutefois, dans la grande majorité des cas, l'infection par le virus Zika, contre laquelle il n'existe ni vaccin, ni traitement curatif, est bénigne, rappelle l'épidémiologiste.
Le syndrome de Guillain-Barré (SGB), pouvant entraîner à la fois une paralysie des membres et une atteinte respiratoire, a été diagnostiqué chez 42 patients, dont 16 sont passés en réanimation pour avoir une assistance respiratoire. Aucun n'est mort.
L'affirmation repose sur trois évidences, dit-il, citant l'augmentation des cas du syndrome pendant l'épidémie polynésienne - leur nombre a été multiplié par vingt par rapport aux taux habituels - et les signes évocateurs d'infection Zika une semaine avant le début des signes neurologiques. Et, ajoute-t-il, parce qu'"on a retrouvé la présence récente du virus Zika chez 100 % des patients atteints de Guillain-Barré" avec des tests sanguins à la recherche d'anticorps et "que chez 93 % de ces patients, ces anticorps étaient d'apparition récente".
Pour le Professeur Fontanet, les liens sont aussi forts que lorsque l'on dit que "le tabac cause le cancer du poumon", même si l'étude ne permet pas d'expliquer le mécanisme par lequel le virus entraîne le syndrome neurologique. L'étude est saluée par certains experts. "Cette étude fournit la preuve la plus convaincante à ce jour d'un lien causal entre l'infection par le virus Zika et le syndrome neurologique de Guillain-Barré", déclare Jeremy Farrar, directeur du Wellcome Trust en Grande-Bretagne.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
Les médecins le savent bien : chaque cancer est spécifique et évolue différemment selon le patient touché. Mais une nouvelle étude vient de démontrer que sous cette terrible variabilité, il existerait une constance modélisable par une formule mathématique relativement simple et déjà connue des physiciens. Elle permettrait de prédire véritablement l’évolution du cancer chez un patient, et ainsi de pouvoir mieux anticiper et personnaliser le traitement.
Globalement, un cancer résulte de la multiplication chaotique de cellules ayant muté et perdu leur capacité à “jouer le jeu” de l’organisme qui les habite, envahissant peu à peu celui-ci jusqu’à sa défaillance globale. Néanmoins, cette description générale cache le véritable visage du cancer, à savoir son hétérogénéité absolue : une cellule cancéreuse n’est génétiquement identique à aucune autre, même à l’intérieur d’une même tumeur chez un patient. Cette variabilité a empêché jusqu’ici de pouvoir développer des traitements véritablement ciblés.
Mais selon une étude réalisée par des chercheurs de l’Institute of Cancer Research et du Queen Mary University de Londres, cette diversité apparemment chaotique dissimulerait une forme d’ordre modélisable et prévisible.
Ces travaux ont en effet montré, sur la base de 900 tumeurs de 14 types différents de cancer, que plusieurs d’entre eux – cancer du côlon, des poumons, de l’estomac… – suivent une loi d’évolution unique qui permet d’anticiper, individuellement, comment et à quelle vitesse la tumeur cancéreuse d’un patient va muter et s’étendre.
Selon les chercheurs, le profil génétique des cellules cancéreuses dans une tumeur, ou plutôt le profil des allèles (soit les différentes mutation d’un gène), suit un processus dit en “loi de puissance” : au cours des divisions successives à partir d’une cellule initiale, le taux d’accumulation de ces mutations est inversement proportionnel à leur fréquence d’apparition – dit plus simplement, elles apparaissent d’autant moins qu’elles accumulent beaucoup de variations.
L’intérêt de cette loi est qu’elle s’exprime par une formule mathématique bien précise dont les paramètres peuvent être quantitativement mesurés pour un patient donné en séquençant les gènes de cellules de sa tumeur, ce à plusieurs stades de son évolution – ce qui peut se faire durant les premiers stades du cancer, avant que celui-ci ne soit trop développé.
Une fois ces paramètres mesurés, la formule fournit aux médecins des connaissances essentielles : la vitesse d’expansion et le taux de mutation de la tumeur, et les principaux gènes responsables de cette évolution cancéreuse – identifiés ainsi parmi la multitude de gènes mutants qui n’ont pas de rôle dans cette évolution.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude américaine, le test immunochimique fécal (TIF) est simple, pratique et surtout particulièrement efficace pour détecter le cancer colorectal. Cette recherche a été menée sur une grande étude rétrospective de cohorte. Pour évaluer l’efficacité de ce test, quatre rounds de dépistage annuel ont été menés. Au total, 323 349 patients suivis au centre de santé Kaiser Permanente de Californie étaient éligibles pour participer au premier examen. L’âge moyen des participants au moment de celui-ci était de 58,5 ans.
Pendant l’étude, les patients ont cessé d’être éligibles au dépistage à partir du moment où ils devaient subir une sigmoïdoscopie, une coloscopie ou si leur état de santé se détériorait. Des résultats positifs au TIF (20μg d’hémoglobine/g) sont obligatoirement suivis d’une coloscopie afin de confirmer le diagnostic.
Ce moyen de dépistage a permis de diagnostiquer 80,4 % des personnes atteintes d’un cancer colorectal, dont 84,5 % dès le premier cycle, et entre 73,4 % et 78 % au cours des trois suivants. D’autres études soulignent que ce test a conduit récemment à la diminution de l’incidence des cancers colorectaux et de la mortalité associée.
Article rédigé par Georges Simmonds pour RT Flash
AIM
|
|
|
|
|
|
|
|
La cirrhose, maladie chronique du foie, touche près de 700 000 Français, dont plus de 10 000 décèdent chaque année, suite à des complications. La pathologie constitue également l’un des facteurs de risques les plus importants du cancer du foie, et se développe souvent en raison d’une consommation élevée d’alcool ou d’une infection à l’hépatite C.
Des chercheurs britanniques de l'Université de Southampton, dirigés par le Docteur Kennedy, ont passé en revue neuf publications scientifiques parues avant juillet 2015 et incluant plus de 430 000 participants. Ils se sont penchés sur le taux de prévalence de la cirrhose dans cette population, les chiffres de la mortalité par cirrhose et les habitudes alimentaires, notamment la consommation de café de ces individus. Les études ont aussi été analysées afin de prendre en compte les possibles biais. Les résultats révèlent que le café a un effet protecteur.
Deux tasses de café par jour pourraient ainsi réduire le risque de cirrhose de 44 % et diminuer le nombre de décès de moitié. Ces résultats sont à rapprocher d'autres études qui montrent qu'une consommation régulière de café semble également réduire sensiblement le risque de cancer du foie.
Un bon moyen de limiter les risques de cirrhose consiste à adopter une consommation d'alcool responsable. Les doses journalières maximales sont de 30g/jour pour les femmes et 40/g jour pour les hommes. Enfin, se faire vacciner contre l'hépatite B, se protéger contre les infections sexuellement transmissibles et utiliser des seringues à usage unique, pour les usagers de drogue, sont des méthodes de prévention efficaces. En effet, les cirrhoses peuvent aussi être la conséquence d'hépatites virales.
Article rédigé par Georges Simmonds pour RT Flash
Wiley
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|