RTFlash

RTFLASH Recherche & Technologie
NUMERO 890
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Mars 2017
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Une méthode révolutionnaire pour sélectionner les nanoparticules à visée médicale
Cassie, le robot bipède qui va livrer vos colis
Matière
Un nouveau matériau refroidisseur
Mesurer le temps sans horloge…
Espace
La découverte de 60 nouvelles planètes relance l'hypothèse d'une vie extraterrestre
Terre
La fonte des glaciers alpins plus rapide que prévu...
Réchauffement climatique : des impacts sous-estimés sur la biodiversité
Vivant
Vacciner les patients avec les cellules de leur propre tumeur !
Autisme : une détection avant l'âge d'un an ?
De légères différences dans le cerveau des personnes souffrant de trouble du déficit de l’attention
Une matrice bioactive et biorésorbable pour régénérer les artères
Une molécule qui pourrait alléger la prise en charge du Sida
Tranformer des bactéries en centrales électriques…
La radio-immunothérapie : une nouvelle voie thérapeutique contre le cancer
La roscovitine, une molécule aux multiples fonctions
Edito
Les émissions mondiales de CO2 stagnent mais le réchauffement climatique se poursuit !



La dernière étude internationale du Global Carbon Project montre que les émissions mondiales de dioxyde carbone (CO2) sont restées à un niveau quasi identique pour la troisième année consécutive en 2016. Les émissions de CO2 issues de combustibles fossiles et de l'industrie ont augmenté de 0,2 % en 2016 par rapport à 2015 et s'établissent à 36,4 milliards de tonnes, soit un peu plus de 50 gigatonnes d’équivalent-carbone, par an. 

Le Global Carbon Project, qui regroupe des chercheurs sur le changement climatique, se félicite de cette stagnation des émissions alors que la croissance mondiale se poursuit, même s'il estime qu'il faut rester prudent. Selon le rapport publié dans le journal Earth System Science Data, les émissions sont susceptibles de reculer de 0,5 % cette année, en raison du ralentissement de la croissance et du recul de la consommation de charbon. Mais l'année 2016 a battu un nouveau record de chaleur avec une température planétaire moyenne supérieure d'environ 1,2°C au niveau de l'ère pré-industrielle, selon l'Organisation météorologique mondiale (OMM), qui précise que le 21e siècle compte 16 des 17 années les plus chaudes constatées depuis le début des relevés à la fin du 19e siècle.

Quant à la concentration des principaux gaz à effet de serre dans l'atmosphère, elle atteint des niveaux sans précédent. En outre, en 2016, l'étendue de la banquise arctique a été la deuxième plus faible enregistrée (4,14 millions de km2 en septembre), après celle de 2012 (Voir WMO).

Même si l’on doit s’en réjouir, cette récente stabilisation des émissions mondiales ne suffira pas à atteindre les objectifs climatiques définis par l’accord de Paris issu de la COP21, à savoir contenir l’élévation de la température moyenne en dessous de 2°C par rapport aux niveaux préindustriels. Pour avoir de bonnes chances d’atteindre un tel objectif, il faudrait, selon ces travaux, parvenir à réduire de 1 % par an nos émissions humaines de GES jusqu’en 2030. Cette étude très sérieuse nous rappelle par ailleurs l’implacable réalité : l’Humanité a déjà consommé plus des deux tiers de son « budget-carbone » et à ce rythme, nous aurons entièrement épuisé notre quota d’émissions restantes dans moins de trente ans.

Quant aux effets de ce changement climatique sans précédent par son ampleur et sa rapidité, ils ne cessent d’être réévalués à la hausse et sont tout sauf abstraits. La semaine dernière, une étude réalisée par l'Université américaine de l'Oregon a par exemple révélé que le niveau de la mer pourrait augmenter de 6 à 9 mètres dans le futur. Pour arriver à cette conclusion, l’équipe de chercheurs a réalisé 104 enregistrements des températures de la mer à la surface à partir de 83 carottes de sédiments analysées. Ces dernières contenaient différents éléments chimiques liés à la température de l’eau. 

Ces travaux montrent également que la Terre avait atteint un pic de température pendant les ères glaciaires, il y a 129 000-116 000 ans. En outre, la comparaison de la température de la surface de la mer aujourd’hui et il y a 125 000 ans montre une quasi-similitude. En revanche, les océans avaient à cette époque un niveau beaucoup plus élevé qu’à présent : de 6 à 9 mètres de plus, ce qui nous donne un avant-goût du scenario de montée globale du niveau des mers qui pourrait se réaliser d’ici la fin du siècle…

Autre indicateur inquiétant : l'étendue moyenne des glaces de l'océan Arctique, qui est descendue à 6,4 millions de kilomètres carrés fin 2016, soit 28,5 % de moins que la moyenne de 1981-2010. Il s’agit de la valeur la plus faible observée depuis le début des relevés satellitaires en 1979, selon le Centre national de la neige et de la glace américain qui précise qu’en 2016, la température moyenne en Arctique a été supérieure de 3,5 degrés à ce qu’elle était à la même époque au siècle dernier. L’Agence américaine océanique et atmosphérique (NOAA), vient pour sa part de confirmer en Février que la région Arctique avait connu au cours de ces 12 derniers mois sa période la plus chaude depuis un siècle (Voir Arctic Program).

S’agissant de l’évolution des glaciers alpins, Christian Vincent, chercheur à l’Institut des géosciences de l’environnement de Grenoble (CNRS – Institut de recherche pour le développement - université Grenoble-Alpes - Institut national polytechnique de Grenoble), et ses collègues viennent de publier une étude sur six glaciers particuliers, étagés entre 2 400 et 3 500 mètres d’altitude : Sarennes et Saint-Sorlin en France, Gries et Silvretta en Suisse, Hintereisferner et Vernagtferner en Autriche (Voir Wiley). Afin de pouvoir obtenir des mesures à la fois plus précises et plus homogènes, ces chercheurs ont eu recours à un nouveau modèle statistique s’appuyant sur des mesures réalisées depuis cinquante ans sur ces six glaciers. Ces nouvelles mesures plus fiables montrent que la fonte de ces glaciers a été sous-estimée et n’était pas, en moyenne, de 1,15 mètre par an mais de 1,9 mètre chaque année ! « Nous avons été les premiers surpris par ces résultats, qui montrent une réaction plus forte que prévu au signal climatique », indique Christian Vincent qui ajoute « Ces travaux confirment qu’avant la fin du siècle, les géants blancs culminant à moins de 3 500 mètres auront disparu du paysage alpin ».

Ces recherches sont confirmées par une autre étude qui montre de manière solide que le réchauffement climatique résultant des activités humaines est très largement responsable du recul des glaciers de montagne depuis le siècle dernier. Cette étude, grâce à l’analyse de 37 glaciers dans le monde, estime notamment que le recul de 2,8 kilomètres, constaté depuis 1880, du glacier de l'Hintereisferner en Autriche est dû à 99 % aux émissions humaines de gaz à effet de serre.

Une autre étude publiée il y a quelques jours dans la revue Nature montre que 23,4 % des 1272 oiseaux placés sur la liste rouge de l’UICN et 47 % des 873 mammifères terrestres menacés sont déjà affectés par le réchauffement climatique. En se focalisant sur les impacts déjà perceptibles à notre époque alors que la plupart des travaux anticipent les effets du réchauffement climatique à un horizon plus lointain, les chercheurs ont découvert que le spectre d’espèces atteintes par le réchauffement climatique est déjà particulièrement large. 

Sur tous les continents, l’ensemble de la biodiversité est affectée par le réchauffement, y compris les grands mammifères comme les primates ou les éléphants, dont le faible taux de reproduction ne leur permet pas de s’adapter à ce changement climatique rapide. Mais ce bouleversement du climat en cours va également avoir une autre conséquence désastreuse pour l’homme, bien que peu évoquée : la diminution des rendements agricoles. Des scientifiques du Potsdam Institute for Climate Impact Research, ont publié la semaine dernière une large étude portant sur l’impact de l’élévation des températures sur les cultures végétales. Pour cela, ils ont soumis différents types de culture (le blé, le maïs, le soja) à des situations d’exposition à des températures moyennes plus élevées. Leurs conclusions sont sans appel : chaque jour qu’une culture de maïs ou de soja est soumise à une température supérieure à 30 degrés Celsius, son rendement diminue de 6 % environ (Voir Nature).

Cette diminution sensible des rendements agricoles des céréales s’explique par un phénomène bien connu : à mesure que la température monte, l’évaporation augmente. De ce fait, l’humidité contenue dans les sols diminue et les plantes ont donc plus de mal à accéder à l’eau pour se développer. En outre, pour s’adapter à la chaleur, les plantes ferment leurs pores afin de limiter l’évaporation et concentrent leur énergie à développer des racines plus profondes et plus nombreuses afin de mieux capter l’eau restant dans les sols. Mais le prix de cette adaptation est que ces plantes ont moins d’énergie disponible pour produire des graines, ce qui se traduit par une diminution inexorable des rendements agricoles.

Dans le Middle-West américain, on observe déjà 62 jours par an au-dessus de 30 degrés, et 12 jours par an au-dessus de 38 degrés. Si cette hausse des températures se poursuit au même rythme, les scientifiques ont calculé que les rendements du maïs, du soja et du blé pourraient diminuer respectivement de 50 %, 40 % et 20 % dans ces régions agricoles. Autre sujet d’inquiétude, dans les grands deltas asiatiques comme le Mékong, où est cultivée une bonne partie du riz mondial, la sécheresse a déjà entraîné une diminution de 6 % de la production de riz et une réduction de 10 % des espèces de poissons qui vivaient dans ces écosystèmes.

Une autre étude récente de l’INRA est également à méditer. Elle commence par rappeler que, selon la FAO, quelque 1,5 milliard d'ha de terres sont utilisés pour les cultures arables et permanentes, soit environ 11 % de la superficie totale en terres de la planète. Ces recherches soulignent ensuite qu’il est envisageable de mieux utiliser les capacités de stockage de carbone dans environ un quart des terres cultivées de la planète, soit 4 000 millions d'hectares, ce qui permettrait de séquestrer plus de deux gigatonnes supplémentaires, c’est-à-dire plus d’un cinquième des émissions mondiales de gaz à effet de serre provoquées par les activités humaines. Mais un tel objectif ne peut être atteint qu’à condition de modifier de manière profonde les pratiques agricoles et pastorales au niveau mondial : extension de la pratique de la jachère et du labour profond, généralisation de l’agroécologie, primauté aux cultures de graminées notamment.

Ce que nous montrent de manière très convaincante ces études, c’est que le levier agricole est, au même titre que les cinq autres leviers majeurs d’action (production d’énergie, industrie, transports, logement et reforestation) absolument essentiel à double titre : lutter contre le changement climatique en piégeant plus de carbone, tout en maintenant des rendements suffisants pour assurer la sécurité alimentaire mondiale.

En France, un rapport du Gouvernement publié le mois dernier affirme que les émissions de gaz à effet de serre (GES), dont un tiers est émis par les transports, ont diminué de 16,2 % en France entre 1990 et 2014. La baisse sur la période 1990-2014 est à comparer avec les objectifs de la France : moins 40 % entre 1990 et 2030 et une division par 4 d'ici à 2050. Mais en dépit de cet effort réel, notre pays reste très en deçà de la moyenne européenne qui a diminué de 24 % sur la même période (Voir Chiffres de l'Environnement). Chaque Français continue à émettre 8,3 tonnes de GES par an, alors qu’il faut passer sous la barre des deux tonnes par an d’ici 2050, si nous avons la volonté de contenir le changement climatique dans de limites supportables (moins de trois degrés).

Au niveau européen, les derniers chiffres de l’UE, publiés il y a quelques jours, nous apprennent que la consommation globale d’énergie de l’Europe a été inférieure en 2015 à ce qu’elle était en 1990 (à périmètre identique), ce qui constitue une tendance très positive. Mais dans le même temps, la part des énergies fossiles dans cette consommation d’énergie n’a diminué que de 10 %, passant de 83 % à 73 %. Au niveau mondial, la situation est encore plus préoccupante puisque la consommation totale d’énergie de la planète a progressé de 50 % depuis 20 ans et que la part des énergies fossiles dans le bouquet énergétique global reste encore supérieure à 80 %. Selon les derniers scénarios de l’AIE, cette consommation mondiale d’énergie devrait inexorablement poursuivre son envolée et croître à nouveau de 50 % d’ici 2040, sous les effets conjugués de l’évolution démographique et du fort développement économique (dont il faut se réjouir) de l’Asie et de certaines régions d’Afrique et d’Amérique latine.

Même si l’efficacité énergétique de nos sociétés ne cesse de s’améliorer grâce aux avancées technologiques, il est illusoire d’imaginer que la planète va brusquement se convertir à la sobriété énergétique et se mettre à consommer moins d’énergie. La plupart des scénarios prévoient d’ailleurs que la consommation mondiale d’électricité (aujourd’hui proche de 23 000 TWh par an) pourrait atteindre les 34 000 TWh par an vers 2030.

En supposant, hypothèse réaliste, que la part du nucléaire dans la production mondiale d’électricité reste autour des 11 % et que celle de l’hydraulique reste également constante (autour des 10 %), on pourrait imaginer le scénario énergétique suivant pour 2030 : environ 250 000 éoliennes marines géantes de 10 MW pourraient suffire pour produire 20 % de la consommation électrique mondiale prévue en 2030 (34 300 TWh). Les parcs éoliens terrestres pourraient assurer, pour leur part, 5 % de cette production électrique mondiale. Un quart de cette production mondiale d’électricité (soit 8 575 Twh en 2030) pourrait être assuré par 43 000 km3 de panneaux solaires à haut rendement (l’équivalent de la superficie du Danemark). Resterait alors 30 % de la production électrique à couvrir, par quels moyens ? D’abord, la biomasse qui pourrait sans difficultés majeures assurer 5 % de la production mondiale d’électricité (contre 2,5 % aujourd’hui). Quant au quart restant (8 600 TWh par an) il pourrait être assuré essentiellement par l’ensemble des énergies marines, à peine utilisé, dont le potentiel mondial techniquement exploitable est estimé, selon les calculs les plus prudents, à au moins 14 000 TWh par an. Le solde – de 5 à 10 % de la production électrique mondiale – serait assuré par des centrales à gaz de nouvelle génération à très haut rendement, équipées de système de capture de CO2 à la source.

Mais au-delà de cette nécessaire décarbonisation de la production d’électricité, un rapport publié en 2012 par le PNUE montre que le gisement de réduction des émissions de GES au niveau mondial est d’au moins 17 Gigatonnes par an, soit plus du tiers des émissions mondiales annuelles de GES. Cette étude montre notamment que l'amélioration de l'efficacité énergétique des bâtiments permettrait, en dépit du doublement du parc immobilier mondial prévue d’ici 25 ans, de réduire d’au moins 9 gigatonnes les rejets de gaz à effet de serre liés aux bâtiments, soit deux fois les émission actuelles de CO2 de l’Europe !

Les excellents rapports publiés depuis 2009 par le cabinet McKinsey montrent également de manière très argumentée et en s’appuyant sur un ensemble cohérent de mesures pragmatiques qui n’intègrent pas de ruptures technologiques majeures, qu’il serait parfaitement possible, pour un coût annuel correspondant à moins de 0,5 % du Produit Mondial Brut, de diviser au moins par trois d’ici 25 ans les émissions humaines de CO2, qui descendraient ainsi à 16 gigatonnes par an, au lieu des 59 prévues, si aucune politique volontaire globale n’est mis en œuvre.

Il est très important de souligner que ces remarquables études montrent toutes que pour parvenir à un effort suffisant pour éviter un changement climatique aux effets dévastateurs, l’Humanité doit actionner simultanément trois leviers d’égales importance dans cette nécessaire réduction drastique des émissions de GES : l’efficacité énergétique optimisée dans le secteur des transports et du bâtiment, la décarbonisation massive de la production d’énergie et enfin, domaine pas suffisamment évoqué, la transformation structurelle des pratiques agricoles et la reforestation, ce dernier levier étant de surcroît bien moins coûteux que les deux autres, à efficacité égale, pour réduire massivement nos émissions de carbone.

Dans le domaine des transports, que j'ai souvent évoqué, il faut absolument sortir des visions idéologiques rigides et envisager un scénario réaliste qui combine de manière intelligente les véhicules entièrement électriques (en usage urbain), les véhicules à hydrogène et les voitures hybrides utilisant les différents types de bio et d’algocarburants, au bilan d’émission de CO2 neutre.

S’agissant du secteur du bâtiment, la règle doit devenir, pour tous les bâtiments neufs, une production d’énergie au moins égale à la consommation, ce qui est parfaitement réalisable, sans surcoût important, compte tenu des avancées techniques majeures réalisées dans le domaine de l’isolation et de la gestion numérique intelligente des flux d’énergie. Pour ce secteur, très énergivore, il faut par ailleurs privilégier et favoriser l’usage des piles à combustible domestique (individuelle ou collective) qui permettent une coproduction propre et décentralisée de chaleur et d’électricité.

Je le réaffirme avec force, relever ce défi immense et vital pour notre espèce, de la lutte contre le changement climatique, n’est pas hors de notre portée, à condition que nous comprenions que les obstacles à surmonter ne sont plus essentiellement techniques, ni même économiques (car le coût de production des énergies renouvelables se rapproche plus vite que prévu de celui des énergies fossiles) mais relèvent des choix politiques et sociaux fondamentaux que nous ferons pour construire le monde durable de demain.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Une méthode révolutionnaire pour sélectionner les nanoparticules à visée médicale
Jeudi, 09/03/2017 - 07:50

Des chercheurs des universités de Genève (UNIGE) et de Fribourg (UNIFR) ont mis au point une méthode permettant de sélectionner très rapidement les nanoparticules les plus prometteuses, accélérant ainsi le développement de futurs traitements. En moins d'une semaine, ils parviennent à déterminer si les nanoparticules qui leur sont soumises sont ou non compatibles avec l'organisme humain, une analyse qui nécessitait auparavant plusieurs mois de travaux. Cette découverte ouvre la voie au développement rapide, sûr et moins coûteux, de nanotechnologies appliquées à la médecine.

Les nanoparticules ont en commun de mesurer entre 1 et 100 nanomètres (soit environ la taille d'un virus). Leur taille minuscule permet dès lors d'envisager des utilisations médicales variées, telles que jouer le rôle de marqueurs lors d'un examen diagnostique, ou encore livrer une molécule thérapeutique à l'endroit exact du corps où le médicament doit agir.

Cependant, pour pouvoir être utilisées dans le domaine médical, les nanoparticules doivent d'abord prouver leur innocuité pour l'organisme humain, tout en étant capables de contourner le système immunitaire pour agir. "Il faut à un laboratoire des années pour développer une nanoparticule, sans savoir quels effets elle aura sur un organisme vivant".

Comme l'explique Carole Bourquin, professeure aux facultés de médecine et des sciences de l'UNIGE, qui a dirigé ces travaux, "La nanoparticule médicale idéale se doit de ne pas être toxique - donc de ne pas tuer les cellules-, ne pas être totalement ingérée par les macrophages afin de conserver son pouvoir d'action, et enfin doit limiter l'activation du système immunitaire pour ne pas induire d'effets indésirables".

Grâce à l'utilisation de la cytométrie en flux, l'équipe de la professeure Bourquin a réussi à obtenir un diagnostic portant sur les trois éléments essentiels de manière sûre et standardisée, en moins de trois jours. Ces recherches ouvrent également la voie à un traitement de plus en plus personnalisé de certaines pathologies : en testant les nanoparticules sur des cellules tumorales isolées d'un patient en particulier, par exemple, il serait théoriquement possible d'identifier le traitement le plus efficace pour le patient concerné.

Article rédigé par Georges Simmonds pour RT Flash

Unige

Cassie, le robot bipède qui va livrer vos colis
Mardi, 07/03/2017 - 12:10

Si de nombreuses entreprises voient le futur des livraisons dans les drones, les fondateurs de la start-up Agility Robotics ont misé sur les robots terrestres. La jeune pousse, issue de recherches menées à l'Université de l'Etat d'Oregon, vient de lever le voile sur Cassie, un robot bipède dont la morphologie et la démarche font penser à celles d'une autruche.

L'engin est une évolution du robot Atrias, capable de se mouvoir rapidement sur deux jambes, de garder l'équilibre sur un terrain accidenté et de rester stable après un léger choc. Le tout, grâce à l'utilisation de ressorts permettant de créer un mécanisme passif qui imite la capacité d'absorption des muscles humains.

Pour Cassie, le mécanisme a été amélioré et trois degrés de liberté ont été rajoutés au niveau des hanches. Grâce à cet ajout, Cassie est capable de déplacer ses jambes en avant, en arrière sur les côtés, mais aussi de les pivoter. Cassie est également doté de moteurs au niveau des chevilles, ce qui lui permet de rester stable sans avoir besoin d'avancer en permanence.

Ses créateurs précisent que les premières unités seront vendues à des instituts de recherche. A terme, ils visent des applications pour des tâches de recherches et de secours, mais espèrent aussi diminuer significativement les coûts de production afin qu'une telle plate-forme robotique puisse être utilisée pour la livraison de colis.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

^ Haut
Matière
Matière et Energie
Un nouveau matériau refroidisseur
Jeudi, 09/03/2017 - 07:43

Des chercheurs américains de l'Université du Colorado ont annoncé avoir créé un nouveau matériau qui possède la remarquable propriété de refroidir les objets même en étant exposé directement au soleil, agissant comme un climatiseur sans utiliser ni énergie ni eau. Appliqué sous forme d'un film sur une surface, ce méta-matériau qui n'existe pas à l'état naturel, reflète efficacement l'énergie solaire vers l'espace tout en permettant simultanément à l'objet qu'il recouvre de se débarrasser de la chaleur emmagasinée sous forme de radiations infrarouges.

Ce matériau écologique de 50 micromètres d'épaisseur, à peine plus épais qu'une feuille d' aluminium, est facile à produire en grandes quantités et peu onéreux. Il pourrait ainsi être utilisé pour le refroidissement des centrales thermo-électriques qui actuellement nécessitent d'importants volumes d'eau et une grande quantité d'électricité pour maintenir des températures compatibles avec le fonctionnement de leurs équipements. Ce polymère hybride de fibre de verre avec une fine couche d'argent peut également être utilisé pour la climatisation des immeubles résidentiels.

« De dix à vingt mètres carrés de ce matériau sur le toit d'une maison suffisent à bien la rafraîchir en été », précise Gang Tan, professeur adjoint d'ingénierie architecturale à l'Université du Wyoming, co-auteur de cette découverte. Ce matériau peut aussi améliorer l'efficacité et la durée de vie des panneaux solaires qui en plein soleil peuvent surchauffer, ce qui réduit leur capacité à convertir l'énergie du soleil en électricité.

« Le fait d'appliquer ce matériau sur les panneaux solaires peut permettre de gagner de 1 à 2 % d'énergie solaire, ce qui fait une différence d'efficacité à grande échelle », précise Xiaobo Yin, co-directeur de recherche à l'Université du Colorado qui a mené ces travaux. Ces ingénieurs ont déposé une demande de brevet pour leur technologie et vont explorer les applications commerciales potentielles.

Article rédigé par Georges Simmonds pour RT Flash

Science Mag

Mesurer le temps sans horloge…
Mardi, 07/03/2017 - 13:32

Lorsque la lumière frappe certains matériaux, elle suscite une émission d'électrons. Ce phénomène, appelé "photoémission", a été découvert en 1905 par Albert Einstein, ce qui lui a valu le Prix Nobel. Mais c'est seulement au cours des dernières années, avec les progrès de la technologie du laser, que les scientifiques ont pu approcher les échelles de temps incroyablement courtes de la photoémission. Des chercheurs de l'EPFL viennent de déterminer un décalage d'un milliardième de milliardième de seconde dans une photoémission en mesurant le spin des électrons photo-émis sans devoir utiliser des impulsions laser ultracourtes.

Le laboratoire de Hugo Dil à l'EPFL, avec des collègues en Allemagne, a montré que durant la photoémission, la polarisation du spin des électrons émis peut être corrélée avec les décalages de temps de la photoémission. Plus important, ils ont fait cette démonstration sans devoir recourir à quelque mesure de temps que ce soit – en d'autres termes, sans devoir recourir à une horloge. Pour y arriver, les scientifiques ont utilisé un type de spectroscopie de photoémission (SARPES) pour mesurer le spin d'électrons photo-émis par un cristal de cuivre.

« Avec des lasers, vous pouvez mesurer directement le décalage de temps entre différents processus, mais il est difficile de déterminer le moment où un processus démarre – le temps zéro », dit Mauro Fanciulli, un doctorant du groupe de Dil et auteur principal de l'article. « Mais avec notre expérience, nous mesurons le temps d'une manière indirecte, et ainsi nous n'avons pas ce problème – nous avons pu accéder à l'une des échelles de temps les plus courtes jamais mesurées. Les deux techniques -spin et laser- sont complémentaires, et ensemble elles peuvent fournir un champ d'informations complètement nouveau ».

L'information relative à l'échelle de temps de la photoémission fait partie de la fonction d'onde des électrons émis. Il s'agit d'une description quantique de la probabilité de l'endroit où un électron quelconque peut être trouvé à n'importe quel moment. Avec SAPRES, les scientifiques ont pu mesurer le spin des électrons, ce qui à son tour leur a permis d'accéder à leurs propriétés de fonction d'onde.

« Ce travail est une démonstration de principe susceptible de déclencher de futures recherches fondamentales et appliquées », dit Hugo Dil. « Il traite de la nature fondamentale du temps lui-même, et permettra de comprendre les détails du processus de photoémission, mais il peut aussi être utilisé en spectroscopie de la photoémission sur des matériaux intéressants ». Parmi ces matériaux, il y a le graphène et des supraconducteurs à haute température, que Dil et ses collègues étudieront prochainement.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Espace
Espace et Cosmologie
La découverte de 60 nouvelles planètes relance l'hypothèse d'une vie extraterrestre
Mercredi, 08/03/2017 - 16:44

Des scientifiques viennent de découvrir 60 planètes proches de la Terre. Parmi elles, une a déjà particulièrement attiré leur attention. Une super-Terre à la surface rocheuse, appelée Gliese 411-b, située dans le quatrième système solaire le plus proche de nous. Les chercheurs estiment que si des similitudes sont trouvées avec notre planète Terre, elle pourrait, tout comme d'autres, accueillir la vie.

Des résultats qui s'appuient sur 61 000 observations individuelles de 1 600 étoiles prises durant plus de 20 ans par des astronomes américains utilisant le télescope Keck-I à Hawaï. 54 autres planètes potentielles ont également été repérées : en tout, ce sont donc 114 nouvelles planètes qui auraient été découvertes.

Les résultats des chercheurs suggèrent que toutes les étoiles situées près de notre Soleil ont des planètes en orbite autour d'elles. Le docteur Tuomi, seul chercheur basé en Europe travaillant sur ce projet, y voit une avancée phénoménale : « C'est fascinant de penser que lorsque l'on regarde les étoiles les plus proches de nous, toutes ont des planètes en orbite autour d'elles, explique-t-il.

Article rédigé par Georges Simmonds pour RT Flash

The Independent

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La fonte des glaciers alpins plus rapide que prévu...
Jeudi, 09/03/2017 - 07:34

Jusqu’ici, l’évolution des glaciers alpins a été évaluée à partir d’un petit nombre de mesures, ensuite extrapolées à l’ensemble de la surface du glacier pour calculer son bilan de masse, c’est-à-dire la différence entre l’accumulation hivernale due aux précipitations neigeuses et l’ablation printanière et estivale causée par la fonte. Mais cette méthode, qui repose sur des données disparates, avec des points de mesures qui peuvent être différents d’une année à l’autre, est entachée d’incertitudes importantes et ne donne pas d’indication directe sur la fonte de surface.

Depuis la fin des années 1990, les observations satellitaires permettent elles aussi de suivre les fluctuations des formations glaciaires. Mais elles renseignent mal sur leurs variations interannuelles : elles sont surtout utiles pour des comparaisons sur une échelle de temps de cinq à dix ans.

Christian Vincent, chercheur à l’Institut des géosciences de l’environnement de Grenoble (CNRS – Institut de recherche pour le développement - Université Grenoble-Alpes - Institut national polytechnique de Grenoble), et ses collègues européens ont procédé de façon différente. Ils se sont penchés sur six glaciers particuliers, étagés entre 2 400 et 3 500 mètres d’altitude : Sarennes et Saint-Sorlin en France, Gries et Silvretta en Suisse, Hintereisferner et Vernagtferner en Autriche.

Ils ont traité, avec un modèle statistique, les mesures in situ réalisées depuis cinquante ans sur ces six formations, en se focalisant sur la langue, c’est-à-dire sur la partie en aval des glaciers. « Cette méthode nous a permis de disposer de mesures à la fois plus précises et plus homogènes », explique Christian Vincent.

Il apparaît, d’abord, que les variations de masse annuelles des six glaciers sont concordantes d’un bout à l’autre de la chaîne alpine. « En dépit des différences qui peuvent exister entre les climats régionaux, les glaciers répondent à un signal climatique commun sur l’ensemble des Alpes, sur plus de 400 kilomètres », constate le chercheur.

Ces travaux confirment la débâcle annoncée par les glaciologues : avant la fin du siècle, les géants blancs culminant à moins de 3 500 mètres auront disparu du paysage alpin. Il s’avère surtout que la fonte actuelle s’opère à un rythme nettement plus soutenu que le donnaient à penser les études antérieures. Jusqu’ici, les scientifiques estimaient qu’au cours de la décennie 2003-2012, les glaciers alpins avaient perdu en moyenne annuelle 1,15 mètre d’épaisseur de glace de plus que pendant la période de référence 1962-1982, marquée par une relative stabilité. Or, les nouvelles mesures montrent que la fonte a augmenté en réalité de 1,9 mètre de glace par an. Soit, sur la décennie 2003-2012 toujours, une fonte supérieure de 65 % à ce que l’on croyait.

« Nous avons été les premiers surpris par ces résultats, qui montrent une réaction plus forte que prévu au signal climatique », indique Christian Vincent. La fonte de surface constitue, explique-t-il, l’indicateur direct de l’impact du réchauffement sur les formations glaciaires. Ces travaux confirment qu'avant la fin du siècle, les géants blancs culminant à moins de 3 500 mètres auront disparu du paysage alpin.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Réchauffement climatique : des impacts sous-estimés sur la biodiversité
Mercredi, 08/03/2017 - 16:39

A l’heure actuelle, l’Union Internationale pour la Conservation de la Nature (UICN) estime qu’environ 7 % des mammifères et 4 % des oiseaux inscrits sur sa liste rouge sont menacés par le réchauffement climatique. Or une récente étude montre que ces statistiques pourraient avoir été largement sous-estimées. Selon ces recherches, ce serait en effet 23,4 % des 1272 oiseaux placés sur la liste rouge de l’UICN et 47 % des 873 mammifères terrestres menacés qui sont déjà affectés par le réchauffement climatique.

Cette réévaluation des dommages sur le biotope liés au changement climatique a été réalisée à partir de l’analyse de 136 études publiées entre 1990 et 2015. Ces dernières portaient seulement sur 120 espèces de mammifères et 569 espèces d’oiseaux mais, en les extrapolant, les chercheurs ont pu élaborer un modèle. Ils précisent par ailleurs que, bien que l’essentiel des études provienne d’Europe et d’Amérique du nord, les résultats restent généralisables aux autres continents.

En se focalisant sur les impacts déjà perceptibles à notre époque alors que la plupart des travaux anticipent les effets du réchauffement climatique à un horizon plus lointain, les chercheurs ont découvert que le spectre d’espèces atteintes par le réchauffement climatique est déjà particulièrement large. Sur tous les continents, la biodiversité est touchée.

Les espèces au régime alimentaire spécialisé sont « déjà beaucoup plus affectées » que les autres, tout comme celles vivant en altitude. Les grands mammifères comme les primates ou les éléphants sont aussi en danger : leur faible taux de reproduction ne leur permet pas de s’adapter aux changements suffisamment vite. A contrario, les rongeurs semblent les plus à même de survivre aux changements à venir : ils peuvent par exemple s’abriter dans des terriers pour maintenir une température stable et leur régime alimentaire est très diversifié. Les oiseaux sont quant à eux principalement concernés lorsqu’ils ont subi de grands changements de températures au cours des six dernières décennies, lorsqu’ils évoluent en altitude ou lorsqu’ils vivent dans des environnements aquatiques.

James Watson, chercheur à l’Université du Queensland en Australie, estime quant à lui que « nous avons sérieusement sous-estimé les effets du réchauffement climatique sur les deux groupes les mieux connus (les mammifères et les oiseaux), ce qui signifie que pour les autres groupes, les reptiles, les amphibiens, les poissons, les plantes, l’avenir pourrait être vraiment, vraiment plus sombre que ce que nous estimions. »

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vacciner les patients avec les cellules de leur propre tumeur !
Jeudi, 09/03/2017 - 07:56

Une équipe de chercheurs de l’Université bruxelloise de la Vrije Universiteit Brussel (VUB) a réussi à administrer des cellules qui se reproduisent de façon naturelle dans les tumeurs et agissent à la manère d'un vaccin, permettant de freiner le développement de la tumeur, a annoncé l’Institut flamand de Biotechnologie (Vlaams Instituut voor Biotechnologie - VIB).

L’étude s’est concentrée sur les cellules dendritiques, qui font partie du système immunitaire et permettent de déclencher les réponses immunitaires appropriées à un danger contre l’organisme. Les scientifiques pensaient jusqu’ici que ces cellules, chez les patients cancéreux, étaient inhibées, de sorte que le système immunitaire - qui combat les maladies dans des circonstances normales - reste bloqué.

L’équipe, menée par Professeur Van Ginderachter, a découvert deux nouveaux types de cellules dendritiques, qui activent quand même le système immunitaire chez des patients atteints d’une tumeur. Cela ouvre les portes à un nouveau traitement contre le cancer, dans lequel les cellules sont extraites de tumeurs chirurgicalement retirées, puis sont utilisées pour "vacciner" le patient.

Le système immunitaire du patient est ainsi activé, ce qui freine le développement d’une tumeur ou son apparition. Cette nouvelle immunothérapie doit encore être testée au-delà de l’étude qui a été menée. "La prochaine étape sera de voir si les vaccins marchent aussi chez d’autres patients, en dehors de l’étude. Nous pourrons ainsi découvrir si nous pouvons réduire les tumeurs existantes et empêcher l’apparition de nouvelles tumeurs", conclut le Professeur Van Ginderachter.

Article rédigé par Georges Simmonds pour RT Flash

News Medical

Autisme : une détection avant l'âge d'un an ?
Mercredi, 08/03/2017 - 16:54

Selon une étude américaine du centre de recherche sur l’autisme de l’hôpital pour enfants de Philadelphie, il serait possible de détecter l'autisme avant un an, bien avant que les symptômes n’apparaissent. Ces chercheurs pensent qu’il est possible d’identifier les enfants touchés par ce trouble en associant l’IRM cérébral et des algorithmes mathématiques. Cette détection précoce permettrait de mettre en place très tôt des thérapies, et ouvre la voie au développement de traitements préventifs.

Cette recherche s’est particulièrement intéressée aux enfants ayant déjà un frère ou une sœur atteint d’autisme, qui sont, du fait de l’implication importante de facteurs génétiques, plus à risque que les autres de développer ce trouble. Aujourd’hui, les médecins n’ont pas d’autre choix que d’attendre les 2 ans des enfants et de surveiller attentivement leur développement pour savoir s’ils sont eux aussi frappés par cette pathologie.

Mais selon les chercheurs américains, l’IRM cérébral permet de mettre en évidence des signes évocateurs de l’autisme avant cet âge fatidique. Ils ont pour cela étudié le cerveau de 106 enfants nés dans une fratrie touchée par l’autisme et de 42 enfants avec un risque faible. Les IRM ont été réalisées à 6 mois, puis un et deux ans.

A chaque fois, les scientifiques ont mesuré la surface et le volume du cerveau, ainsi que l’épaisseur du cortex. L’analyse des clichés révèle que les enfants développant un trouble du spectre autistique présentent une croissance neurologique plus importante que les autres entre 6 et 12 mois.

Or des travaux précédents ont déjà montré qu’une grande surface cérébrale est liée à un risque d’autisme. Une fois ces mesures enregistrées, il a été possible de calculer le risque d’autisme pour chaque enfant grâce à des modélisations mathématiques. Cette approche statistique a permis d’identifier avec plus de 90 % de précision les enfants atteints d’autisme à 2 ans.

« Les résultats de cette étude sont un bouleversement pour le diagnostic précoce de l’autisme, se réjouit Robert Schultz, directeur du Centre de recherche sur l’autisme et responsable de l’étude. Alors que nous savons depuis longtemps que ce trouble émerge subtilement et progressivement au cours des premières années de vie, ces travaux apportent la première preuve d’un diagnostic possible avant un an chez les enfants à haut risque ».

Les auteurs soulignent également que cette découverte ouvre la voie à de nouvelles stratégies thérapeutiques. « En utilisant l’imagerie cérébrale, nous avons pu mettre en évidence des anomalies de développement dans certaines zones cérébrales qui contribuent à l’autisme. Une meilleure compréhension de ces mécanismes pourrait nous mener à de nouvelles opportunités de développement thérapeutiques, et éventuellement des traitements préventifs à prescrire avant les premières manifestations de l’autisme », espère le médecin.

Article rédigé par Georges Simmonds pour RT Flash

Nature

De légères différences dans le cerveau des personnes souffrant de trouble du déficit de l’attention
Mercredi, 08/03/2017 - 13:53

Des chercheurs néerlandais dirigés par Martine Hoogman (Université Radboud à Nimègue, Pays-Bas) ont montré que le trouble du déficit de l’attention (TDAH) et de l’hyperactivité est bien physique et visible dans le cerveau des patients par IRM. Leur cerveau est légèrement moins volumineux et cinq de ses régions liées aux émotions sont sous-développées. Une avancée qui montre que le trouble est bien la conséquence d’une anomalie cérébrale.

Les chercheurs ont travaillé sur un échantillon de taille importante, près de 3.200 personnes, âgées de 4 à 63 ans. Parmi eux, les cerveaux de 1.713 personnes diagnostiquées du TDAH ont été comparés à l’aide d’IRM aux cerveaux de 1.529 personnes sans ce trouble. Les scanners ont montré que les cerveaux des patients atteints de TDAH présentent des différences bien physiques.

Le volume de leur cerveau était en moyenne légèrement plus petit ainsi que 5 régions associées au TDAH, dont l’amygdale qui joue un rôle dans le contrôle des émotions. L’une des auteurs de cette étude, le Docteur Martine Hoogman de l’Université de Radboud aux Pays-Bas souligne : « Ces différences sont minimes, de l’ordre de quelques pourcents ». « La taille sans précédent de notre étude était cruciale pour nous aider à les identifier » précise-t-elleElles sont cependant plus importantes chez les enfants atteints du trouble que chez les adultes.

L’étude a également écarté le fait que ces différences puissent être causées par les médicaments comme la Ritaline. La scientifique ajoute que « des différences similaires dans le volume du cerveau ont aussi été constatées pour d’autres troubles psychiatriques, particulièrement le trouble dépressif majeur ».

Mme Hoogman conclut en espérant que cette étude aidera améliorer l’image du TDAH, souvent vu comme un label pour les enfants difficiles ou comme le résultat d’une mauvaise éducation alors qu’il s’agit bien d’un trouble physique. Ces recherches pourraient bien aider à mieux identifier la maladie et ouvrir la voie à un diagnostic plus efficace. Actuellement, le trouble est souvent diagnostiqué à tort et chez des enfants qui n’en souffrent pas.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Une matrice bioactive et biorésorbable pour régénérer les artères
Mercredi, 08/03/2017 - 13:47

Les deux principales options thérapeutiques pour le traitement de l'athérosclérose (pontage coronarien et angioplastie) ont pour objet le rétablissement du flux artériel. Néanmoins, les deux options conduisent souvent à la réhospitalisation du patient. Dans le cas du pontage coronarien, les veines natives ou les greffes synthétiques s'obstruent au bout de quelques années. De son côté, l'angioplastie entraîne une récurrence de la maladie qui a tendance à affecter la perméabilité à long terme du vaisseau sanguin traité.

La couche intime synthétique (SIL, pour synthetised intimal layer) du projet THE GRAIL a été créée pour prévenir ces problèmes. Cette matrice bioactive remplace la zone malade et rigide du vaisseau sanguin par une matrice souple, compatible et intelligente qui finit par se résorber une fois sa tâche accomplie : le tissu est physiologiquement réactif et régénéré.

Élaborée à partir de biopolymères intelligents, la matrice permet une régénération de la couche intime en recrutant des cellules endothéliales circulantes. Ces biopolymères sont livrés in situ au moyen d'un cathéter spécialisé également conçu et fabriqué par l'équipe du projet.

"Grâce au soutien sur cinq ans de l'UE, nous avons pu faire évoluer THE GRAIL d'un simple schéma sur papier à un prototype fonctionnel", affirme Davide De Lucrezia, coordinateur du projet. "Nous avons démontré la biocompatibilité totale de la matrice in vitro et la sécurité in vivo et les résultats préliminaires sur l'efficacité sont extrêmement encourageants." Au final, la reconstitution intime complète devrait durer 3 à 4 mois après l'implantation de la matrice.

Article rédigé par Georges Simmonds pour RT Flash

The Grail Project

Une molécule qui pourrait alléger la prise en charge du Sida
Mardi, 07/03/2017 - 13:23

Avec 36,7 millions de personnes vivant avec le VIH dans le monde, la recherche médicale continue ses travaux pour essayer de guérir cette maladie virale sexuellement transmissible. Les laboratoires de la société de biotechnologie Abixax, basés à Montpellier, qui collaborent notamment avec le CNRS et l’Université de Montpellier, ont mis au point ABX464, une molécule qui pourrait bien révolutionner la prise en charge du Sida.

Cette molécule pourrait représenter « une amélioration significative dans le traitement du VIH », selon Abivax. Inhibant la réplication du virus, ABX464 serait administrée moins fréquemment qu’un traitement standard et permettrait un contrôle à long terme de la charge virale. Même si ce traitement pourrait changer la vie de bon nombre de patients (il faut encore qu’il soit validé par les autorités sanitaires), il n’est pas miraculeux pour autant : "Une personne atteinte par le VIH est obligée de prendre son traitement tous les jours", explique Didier Scherrer, vice-président de cette entreprise de 35 salariés. "Si le traitement est arrêté, le virus se multiplie et reprend de plus belle".

Ainsi, ce traitement ne permettrait toujours pas de supprimer le virus, mais de mieux le contrôler. Néanmoins, une étude sur des souris prouve qu’une fois la cure arrêtée, le « rebond » du VIH est moins important. Si les essais en cours sur des patients humains sont positifs, le médicament devrait être disponible sur le marché d’ici 2020.

Article rédigé par Georges Simmonds pour RT Flash

Abivax

Tranformer des bactéries en centrales électriques…
Mardi, 07/03/2017 - 12:05

Dans la nature, une bactérie « électrogénique » génère de l’électricité avec son métabolisme. Des chercheurs de l’Université de Californie (UCSB) ont trouvé un moyen de conférer cette capacité à des bactéries non électrogéniques. Cette technique possède des applications pour une production d’électricité autonome et pour le traitement de l’eau selon les résultats publiés dans la revue Chem.

Le concept est de fermer le couvercle d’une citerne d’eau et qu’en donnant une électrode à la bactérie, elle pourra produire de l’électricité et nettoyer l’eau selon Zach Rengert, un étudiant diplômé en chimie. La quantité d’électricité produite sera minimale, mais ce sera suffisant pour couvrir les coûts du nettoyage de l’eau. La bactérie qui a inspiré cette étude, la Shewanella oneidensis MR-1, vit dans des environnements sans oxygène et elle peut respirer dans les minerais métalliques et les électrodes via des protéines conductrices dans ses membranes de cellule.

La plupart des espèces de bactéries ne possèdent pas ces protéines et elles ne produisent pas le courant. En s’inspirant de ces membranes, l’équipe s’est demandée si on ne pouvait pas conférer cette électrogenèse à d’autres bactéries en utilisant un additif moléculaire biocompatible.

Les chercheurs ont développé une molécule appelée DFSO+ qui contient un atome de fer dans son noyau. Pour ajouter le DFSO+ à la bactérie, les chercheurs ont dissous une petite quantité de poudre rouillée et ils ont ajouté cette solution à la bactérie. En quelques minutes, la molécule synthétique s’est frayée un chemin dans les membranes de la cellule et elle a commencé à conduire l’électricité via son noyau de fer. Et étant donné que la forme de la molécule DFSO+ reflète la structure des membranes des cellules, elle s’est glissée facilement dans les membranes et elle y est restée pendant des semaines.

Cette approche nécessitera une amélioration pour avoir une production sur le long terme, mais ces premiers résultats sont encourageants et pourraient permettre, à terme, de produire du courant à partir de mécanismes biochimiques inspirés de la nature.

Article rédigé par Georges Simmonds pour RT Flash

Chem

La radio-immunothérapie : une nouvelle voie thérapeutique contre le cancer
Mardi, 07/03/2017 - 11:54

En association avec l'Institut Curie, la biotech française Oxeo va développer une nouvelle façon de traiter les cancers, en associant radiothérapie, immunothérapie et des inhibiteurs bloquant la réparation des ADN tumoraux. L'objectif est de s'attaquer à des cancers pour lesquels on ne peut trouver des solutions thérapeutiques satisfaisantes.

Dans cette perspective, Onxeo développe une molécule en partenariat avec l'Institut Curie : l'Asidna (en phase I pour les mélanomes et en phase préclinique pour les tumeurs solides, NDLR). Elle vise à inhiber, empêcher les processus de réparation qui sont mis en place par les cellules tumorales.

Cette molécule lutte contre les agents cancéreux qui vont réparer l'ADN tumoral. Car si une telle réparation survient, la tumeur poursuit son développement. Les inhibiteurs font partie aujourd'hui des domaines à la pointe de la recherche contre le cancer. Ces mécanismes marchent dans la prise en charge de la pathologie, mais présentent un certain nombre de limites cliniques et thérapeutiques.

Ces recherches visent à démontrer que la molécule Asidna peut accéder à des tumeurs par voie générale, par administration intraveineuse. Cela permettrait de cibler des tumeurs n'étant pas accessibles localement, pour s'attaquer à un plus grand éventail de types de cancers. Mais ces travaux ont aussi pour but d' associer cette molécule à la radiothérapie, servant à dégrader l'ADN tumoral et à l'immunothérapie, de manière à obtenir une synergie qui débouche sur une efficacité thérapeutique plus grande.

L’association de la radiothérapie et de Dbait a déjà montré des résultats très prometteurs chez l’Homme. L’essai DRIM, effectué chez des patients atteints de mélanome avec  métastases cutanées, a montré la bonne tolérance d’AsiDNA (forme clinique de Dbait acquise en 2016 par la société Onxeo) administrée par voie locale, et des taux de réponse complète 4 fois supérieurs à ce qui avait été observé avec la radiothérapie seule.

Article rédigé par Georges Simmonds pour RT Flash

Institut Curie

La roscovitine, une molécule aux multiples fonctions
Mardi, 07/03/2017 - 11:46

Le biologiste Laurent Meijer est parvenu à isoler, à partir d’un œuf d’étoile de mer, des enzymes très intéressantes, les kinases. Ces enzymes jouent le rôle de messager de la cellule en assurant la distribution et le bon adressage des milliers de protéines qui y circulent. Notamment, ce sont elles qui régulent la division cellulaire et elles sont fréquemment impliquées dans le cancer.

En cherchant dans un répertoire de molécules pharmacologiques, Laurent Meijer et le chimiste Hervé Galons (université Paris-Descartes), tous deux cofondateurs de la start-up Manros Therapeutics (en l’honneur de Manhattan et Roscoff), ont identifié une molécule de synthèse qui bloque l'action de ces kinases et qu’ils ont un peu modifiée pour obtenir la roscovitine.

Cette dernière, qui a été brevetée, fait actuellement l’objet d’essais cliniques, à l’étranger, contre certains cancers (poumon, nez et pharynx), la maladie de Cushing (tumeur des glandes surrénales), et la polyarthrite rhumatoïde (maladie auto-immune s’attaquant aux articulations). Enfin, la roscovitine est aussi active contre la formation de kystes dans les reins.

Ces recherches ont également montré que la roscovitine avait un effet antibactérien. D’où l’idée de l’utiliser pour "lutter contre les bactéries qui, souvent, infectent les patients atteints de mucoviscidose, une maladie génétique rare où bronches et tube digestif sont encombrés de mucus, un milieu favorable aux bactéries pathogènes", explique Laurent Meijer. La roscovitine n’agit pas directement, mais stimule le système immunitaire contre les bactéries, cause majeure de mortalité.

La roscovitine a déjà fait l’objet de tests précliniques chez l’animal. Depuis avril 2016, elle est évaluée sur 36 patients, dans un essai clinique multicentrique de phase II (mesure de la tolérance, des effets bénéfiques et secondaires) souffrant de mucoviscidose et infectés depuis longtemps par une bactérie.

"La roscovitine est vraiment intéressante car elle s'attaque à la mucoviscidose par plusieurs voies", explique le Docteur Gilles Rault, du Centre de ressources et de compétences sur la mucoviscidose (CRCM), à Perharidy (fondation Ildys), qui coordonne cette étude nationale. Elle « corrige » en partie la principale mutation génétique responsable de la mucoviscidose, renforce les capacités bactéricides des patients, agit comme un anti-inflammatoire et un antidouleur.

Article rédigé par Georges Simmonds pour RT Flash

La Croix

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top