RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 830
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Janvier 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un ordinateur quantique sur silicium serait envisageable
Matière
Vers une puce 3D mille fois plus puissante !
Un papier qui stocke l'énergie
Terre
Première étude à cartographier les eaux souterraines de la Terre
Vivant
Sucre et cancer : le lien se confirme
Le dépistage systématique du cancer de l'ovaire pourrait réduire la mortalité
Maladie d'Alzheimer : enfin un médicament efficace
Cancer de la prostate : une thérapie génique à l'essai
Les bienfaits de la musique contre la maladie d'Alzheimer
Notre cerveau fait-il ses choix à notre insu ?
SIDA : une nouvelle molécule porteuse d'espoir
Une thérapie génique prometteuse contre la drépanocytose
Un micro-intestin sur puce ouvre la voie vers les traitements sur mesure
Vers des tests à base d’ADN chez le médecin...
Découverte d'un nouveau gène lié à l'hypertension
Edito
Après la COP 21, tout reste à faire !



Le 12 décembre dernier, à Paris, les 195 états participant à la COP21 sont parvenus à un accord qui peut être qualifié d’historique pour lutter contre le réchauffement climatique sans précédent en cours. Dans le texte, l’accord est plus ambitieux que l’objectif initial de la COP21, qui visait à contenir le réchauffement sous le seuil des 2°C. Il prévoit de le maintenir « bien en dessous de 2°C par rapport aux niveaux préindustriels » et de « poursuivre les efforts pour limiter la hausse des températures à 1,5°C ». Et ce « en reconnaissant que cela réduirait significativement les risques et impacts du changement climatique ».

A plus long terme, « dans la seconde moitié du siècle », l’objectif est de parvenir à « un équilibre » entre les émissions d’origine anthropique et leur absorption par des puits de carbone (océans, forêts ou, sans que le texte le formule explicitement, enfouissement du CO2). Rappelons que le Groupe d’Experts Intergouvernemental sur l’Evolution du Climat (GIEC) a confirmé, après plusieurs études convergentes, l’objectif de baisser de 40 % à 70 % les émissions mondiales d’ici à 2050, pour éviter un emballement climatique incontrôlable.

L’accord final est bien sûr le fruit d’un inévitable et difficile compromis entre pays développés et pays émergents et précise que les efforts doivent être accomplis « sur la base de l’équité », et qu’« un soutien doit être apporté aux pays en développement » par les nations économiquement plus avancées.

Pour prendre en compte la « dette climatique », les pays du Nord ont promis à ceux du Sud, en 2009, de mobiliser en leur faveur 100 milliards de dollars (91 milliards d’euros) par an, d’ici à 2020. Le texte confirme ce montant mais en fait un plancher, qui est donc appelé à être relevé. De plus, « un nouvel objectif chiffré collectif » d’aide financière devra être présenté « avant 2025 ». 

L’accord trouvé à Paris souligne que les contributions initialement prévues et déterminées au niveau national préalablement annoncées par les Etats, c’est-à-dire leurs promesses de réduction d’émissions de gaz à effet de serre, étaient nettement insuffisantes pour contenir le réchauffement à un maximum de 2°C, puisqu’à ce jour, l’ensemble de ces promesses de réduction nous placerait sur une trajectoire de réchauffement d’environ 3°C, au lieu des 1,5° prévus par l’accord comme seuil maximal de réchauffement supportable.

Pour entrer en vigueur en 2020, l’accord devra être ratifié, accepté ou approuvé par au moins 55 pays représentant au moins 55 % des émissions mondiales de gaz à effet de serre. Mais, « à tout moment après un délai de trois ans à partir de l’entrée en vigueur de l’accord pour un pays », celui-ci pourra s’en retirer, sur simple notification. Soulignons que pour la première fois, le devoir des États à « respecter, promouvoir et prendre en compte les droits humains » est inscrit dans le préambule de l’accord.  

Au-delà de son contenu, qu’on pourra toujours trouver décevant ou insuffisant, cet accord marque véritablement un tournant car il pousse chaque pays à repenser sa politique dans tous les sujets : transports, logement, agriculture, industrie, écosystèmes, en y intégrant l’objectif d’adaptation et de réduction des émissions. Cet accord a également enclenché une dynamique économique, scientifique, sociale et industrielle qui est irréversible et va bien au-delà de sa dimension politique. 

Au niveau des Etats, les gouvernements s’engagent ainsi à doubler, sur cinq ans, le budget alloué à la recherche et développement dans ce secteur. La France, par exemple, concentrera ces moyens supplémentaires sur les technologies de stockage de ces énergies propres et les innovations en matière de captage et de stockage de CO2, gaz à effet de serre dont les émissions sont la cause principale du réchauffement planétaire.

Autre changement tout à fait considérable et pas assez souligné, le secteur privé a également décidé de s’engager massivement dans ce combat climatique : Bill Gates a ainsi présenté à Paris la « Breakthrough Energy Coalition » (Coalition pour des avancées majeures dans l’énergie) qui regroupe déjà une trentaine d’investisseurs influents, parmi lesquels les grands noms de l’économie numérique comme les Américains Jeff Bezos (Amazon) et Mark Zuckerberg (Facebook), le Chinois Jack Ma (Alibaba) ou le Français Xavier Niel (Iliad). Le montant précis du fonds de la Breakthrough Energy Coalition n'est pas encore connu mais ses objectifs sont clairs « Une énergie largement disponible et fiable, à un prix abordable et qui ne produit pas de carbone ». 

L’initiative privée de Bill Gates s'est associée avec Mission Innovation, une initiative de 20 pays s'engageant à doubler leurs investissements dans la recherche pour des énergies propres d'ici à 2020, pour atteindre un niveau de 20 milliards de dollars. Cinq secteurs seront privilégiés : l'électricité, les transports, l'industrie, l'agriculture et l'efficacité des systèmes énergétiques. « Les énergies renouvelables que nous avons actuellement ont beaucoup progressé, mais au vu de l'ampleur du défi qui nous attend, nous avons besoin d'explorer de nombreuses autres options, et inventer de nouvelles approches », estime Bill Gates. 

Ce basculement du secteur économique et financier est confirmé par de nombreux acteurs, comme Benoit Leguet, directeur général d’I4CE, un think tank dédié à l’économie du climat, qui souligne « Jamais je n’ai vu autant d’acteurs financiers majeurs qu’à Paris, non seulement dans les événements externes mais aussi dans la zone consacrée aux négociations ». Pierre Ducret, président d’I4CE et en charge de la COP21 pour la Caisse des dépôts, souligne pour sa part que la finance mondiale a bien reçu le message de la COP21 qui est « qu’à la fin du siècle, la planète doit être neutre en carbone ». 

Pour Pascal Canfin, futur directeur du WWF France, « Le prix du carbone doit être différencié selon les zones géographiques et les secteurs pour avoir vraiment de l’effet. Il souligne que « 75 % de l’économie mondiale sera couverte par une tarification du carbone en 2018. Cela prend des formes aussi variées que la taxe charbon en Inde, le (futur) marché carbone en Chine ou d’autres dispositifs règlementaires sur le charbon comme aux Etats-Unis. C’est un bon moyen de mesurer la transformation en profondeur de l’économie ». Charlie Thomas, responsable de la stratégie d’Investissement Environnemental et Durable chez Jupiter AM, confirme également la rupture que constitue l’accord de Paris en matière d’intégration de la « valeur-carbone » dans la finance et l’économie. 

Selon l’Agence Internationale de l’Energie notamment, entre 8 000 et 14 000 milliards de dollars (soit 550 milliards dollars par an) seraient investis au niveau mondial d’ici 2035 pour répondre à la demande croissante et pour atteindre les objectifs de décarbonisation. « Au final, cela devrait faire croître l’utilisation des énergies renouvelables à près de 60 % des sources mondiales d’énergie, l’utilisation des énergies fossiles tombant à 40 », souligne le gérant.

Il faut également mettre en avant les 2 000 engagements d’entreprises et les 400 engagements d’investisseurs qui figurent sur la plate-forme NAZCA (pour Zone des Acteurs Non-étatiques pour l’Action pour le Climat) qui centralise et simplifie l’information sur les engagements climat des villes, des régions, des entreprises et des investisseurs. NAZCA regroupe déjà 1 158 entreprises engagées volontairement à réduire leurs émissions de gaz à effet de serre ou à améliorer leur efficacité énergétique.

Au total, le Plan d’Actions Lima-Paris (LPAA) et sa plate-forme NAZCA ont déjà réorienté les engagements climatiques de plus de 7 000 villes, y compris les plus vulnérables au changement climatique, dans plus de 100 pays avec une population totale de 1,25 milliard de personnes et environ 32 % du PIB mondial (12 500 milliards de dollars). Du coté des acteurs économiques, ce sont plus de 5 000 entreprises provenant de plus de 90 pays qui représentent ensemble une majorité de la capitalisation boursière mondiale et plus de 38 billions de chiffre d’affaires qui se sont résolument engagées dans le combat contre le réchauffement climatique en affichant des objectifs précis et en annonçant des plans d’actions.

Parallèlement à cette dynamique très encourageante, le mouvement de décrue des investissements en faveur des énergies fossiles s’accélère : selon l'association Divest-Invest, il concernait en septembre dernier 2 600 milliards de dollars d’actifs à travers le monde, 50 fois plus qu'il y a seulement un an. Evoquant ce mouvement de grand ampleur, Christiana Figueres, Secrétaire exécutive de la CCNUCC, a déclaré « La reconnaissance des mesures prises par les entreprises, investisseurs, villes et régions est l’un des résultats clés de la COP 21. Associée au Plan d’Actions, la vague d’actions montre que le monde prend la direction inévitable d’un monde durable et bas carbone. »

Cette rupture économique et financière visant à pénaliser les énergies fossiles et à les rendre moins attractives a été très bien soulignée lors de la COP21 par John Key, le Premier ministre néo-zélandais, qui a rappelé à Paris que « Plus d'un tiers des émissions mondiales de CO2, entre 1980 et 2010, ont été causées par les subventions aux combustibles fossiles. Leur élimination représenterait un septième de l'effort nécessaire pour atteindre notre objectif de 2°C ». 

Depuis deux ans, une trentaine de pays à travers le monde ont entrepris de réduire leurs soutiens au pétrole, au charbon et au gaz. Parmi les exemples les plus récents, on peut citer l’Inde où les subventions au diesel ont été supprimées en 2014 avec à la clé une économie de 10 milliards de dollars. Outre-Atlantique, le Mexique a également supprimé son système d’aides variables aux carburants, économisant 16 milliards de dollars entre 2012 et 2014. L’Égypte a aussi augmenté les prix du carburant de 78 % en 2014 et va doubler les prix de l'électricité au cours des cinq prochaines années. Enfin l'Iran a augmenté les prix de l'essence de 75 % en avril dernier.   

Début 2015, une étude britannique a fait sensation au niveau mondial en montrant que l’homme, pour maintenir le réchauffement climatique dans la limite des deux degrés, doit absolument limiter ses émissions de CO2 à environ 1 100 milliards de tonnes (gigatonnes), après en avoir déjà consommé 2 000. Les émissions que générerait l’usage des réserves d’énergies fossiles encore disponibles et techniquement récupérables sont évaluées par l’étude à 2 900 gigatonnes. L'originalité de l'étude des deux chercheurs, Christophe McGlade et Paul Ekins, de l'University College London, est d'avoir quantifié le « sacrifice » nécessaire, en fonction des pays ou ensembles de pays.

Ces travaux montrent que la Chine et l’Inde devront éviter d’exploiter près de 70 % de leurs réserves de charbon, et l’Afrique presque 90 %. L’Europe renoncera à 78 %, les Etats-Unis à 92 %. « Ces résultats montrent qu’il faut transformer complètement notre compréhension de la disponibilité des énergies fossiles », insiste l’étude qui souligne que 35 % des réserves de pétrole, 52 % de gaz et 88 % de charbon doivent rester sous terre (Voir Nature).

Au total , et traduit en équivalent-carbone, ce sont donc 80 % des réserves exploitables de combustibles fossiles qu’il faut laisser sous terre, comme le souligne avec force le climatologue et Nobel Jean Jouzel qui ajoute que l’Humanité doit absolument parvenir à diminuer de moitié ses émissions globales de gaz à effet de serre d’ici le milieu de ce siècle pour avoir une chance d’éviter un dérèglement incontrôlable du climat mondial.

Et pour ceux qui ont encore des doutes sur la réalité du réchauffement climatique et son rythme sans précédent depuis au moins 800 000 ans, l’agence atmosphérique et océanique américaine (NOAA), dont le sérieux scientifique est reconnu, vient d’annoncer que la température moyenne à la surface des terres avait excédé cette année de 0,87 degré la moyenne du XXème siècle (14°), atteignant le plus niveau de température jamais enregistré depuis 1880. Au même moment, une autre étude révélait que la température moyenne de l’air en Arctique avait augmenté de trois degrés depuis 1900 et que la surface moyenne de la banquise arctique avait régressé de 29 % au cours des 30 dernières années…

Heureusement, certaines inflexions récentes montrent qu’une rupture énergétique et économique au niveau mondial a bel et bien commencé : l’AIE a ainsi révélé le 18 décembre dernier que la consommation mondiale de charbon, énergie fossile la plus émettrice de CO2, va fortement ralentir jusqu'en 2020 en raison d'une diminution de la demande chinoise et de la montée en puissance des énergies renouvelables.

Selon l’AIE, le monde devrait consommer 5,8 milliards de tonnes de charbon en 2020, ce qui représente une baisse de plus de 500 millions de tonnes par rapport aux estimations précédentes. Après avoir atteint 3,3 % par an entre 2010 et 2013, la croissance de la demande mondiale va ainsi ralentir à une moyenne annuelle de 0,8 % jusqu’en 2020, et la part relative du charbon dans la production d’électricité va diminuer, passant de 41 à 37 %. L’AIE souligne que « Pour la première fois depuis les années 1990, la croissance de la demande mondiale de charbon a été stoppée en 2014 », constate l’agence, estimant même « probable » un repli cette année.

Le cabinet Bloomberg New Energy Finance (BNEF) se montre encore plus optimiste et, dans son dernier rapport, prévoit une croissance des nouvelles énergies renouvelables encore plus rapide que celle imaginée par l’AIE. Selon ce cabinet très réputé, en 2030, les capacités en renouvelables dépasseront largement le parc installé en énergies fossiles, leur part passant de 40 à 60 %. Cette rupture énergétique majeure, rendue possible par une baisse accélérée des coûts de production des énergies propres, se traduira, au niveau des investissements : sur les 7700 milliards de dollars investis dans les capacités de production, 5100 milliards le seront dans les énergies vertes ! 

Parallèlement à l’action des états et des entreprises, le rôle des villes dans la lutte contre le réchauffement climatique est déterminant : les zones urbaines abritent plus de 50 % de la population mondiale – les deux tiers en 2050 – et génèrent 70 % des émissions de carbone. Un millier de maires et d'élus locaux du monde entier réunis le 4 décembre dernier à Paris se sont déclarés prêts, dans une déclaration commune, à œuvrer pour un objectif de 100 % d'énergies renouvelables dans leurs villes d'ici à 2050.

A l’issue du sommet qui se tenait en marge de la COP21, les élus se sont engagés à « réduire de 3,7 gigatonnes les émissions annuelles de gaz à effet de serre dans les zones urbaines d’ici 2030 », ce qui représente 30 % de la différence prévue entre les engagements nationaux actuels et les niveaux d’émissions recommandés par la communauté scientifique pour limiter le réchauffement à 2°C. Ils se sont aussi engagés à « soutenir des objectifs ambitieux en faveur du climat, telle la transition vers une énergie 100 % renouvelable ou une réduction de 80 % des émissions de gaz à effet de serre d’ici 2050 ».

Autre indication d’une mutation économique majeure au niveau mondial, le 10 octobre dernier, Christine Lagarde, Directrice du FMI, a rappelé avec force qu’au-delà de ses effets environnementaux, une taxe carbone est économiquement intéressante car les montants ainsi recouvrés peuvent être mobilisés pour combattre la précarité énergétique ou pour alléger d’autres prélèvements obligatoires néfastes pour la croissance.

Christine Lagarde rappelle avec raison que de récentes études économiques ont montré que la redistribution judicieuse du produit d’une taxe carbone équivalent à 1 % du PIB sous forme de baisses de cotisations sociales plutôt que de dépenses publiques supplémentaires, permettrait de dégager entre 0,1 % et 0,5 % de PIB supplémentaire, sans aggraver le déficit public. 

Le prix Nobel d’économie Joseph Stiglitz propose pour sa part la mise en place d’une tarification mondiale du carbone, que chaque pays pourrait mettre en œuvre sur son territoire comme il l’entend : par des réglementations contraignantes, par un marché d’émissions ou par une taxe carbone… En parallèle, Stiglitz préconise également de mettre en place une taxe carbone aux frontières, afin que les pays fassent payer le coût en carbone des biens qu’ils importent. En outre, les pays qui ne répondraient pas à ces exigences de réduction des émissions verraient leurs produits taxés aux frontières, en fonction de leur coût excessif en carbone.

Ces propositions de Joseph Stiglitz rejoignent celles formulées en juin dernier par la commission de réflexion, présidée par Pascal Canfin et l'économiste Alain Grandjean, qui propose notamment de mettre en place un "corridor carbone" avec une fourchette de prix cible comprise entre un minimum de 15 dollars la tonne de CO2 avant 2020 et augmentant jusqu'à atteindre 60 à 80 dollars en 2040. Cette solution aurait l'avantage de permettre une souplesse suffisante d’adaptation pour des pays présentant des niveaux de développement différents. Cette commission  demande également, de manière cohérente, la sortie progressive des subventions massives aux énergies fossiles, en profitant de l' « opportunité historique » de la baisse récente des prix du pétrole.

L’accord international trouvé à l’issue de la COP21 marque donc, j’en suis convaincu, le début d’une mutation majeure de civilisation qui pourrait être beaucoup plus rapide que prévu et va nous faire basculer dans un nouveau monde avant le milieu de ce siècle. Cette perspective me semble d’autant plus réaliste que les « feuilles de route » et scénarii des différentes instances économiques et gouvernementales reposent sur les extrapolations des évolutions énergétiques en cours et n’intègrent pas les très probables ruptures technologiques de premier ordre qui risque de bouleverser encore davantage notre paysage énergétique mondial au cours de ces 20 prochaines années.

Mais le signe le plus encourageant et le plus indicateur de l’irrésistible transformation mondiale qui se déroule sous nos yeux est bien qu’à présent cette problématique de la lutte contre le réchauffement climatique a cessé d’être l’apanage de quelques experts gouvernementaux et d’un aéropage de scientifiques et a été prise à bras-le-corps par la société civile tout entière et par l’ensemble des responsables et décideurs économiques, financiers, sociaux et culturels de la planète. C’est sans doute ce changement décisif dans l’échelle de la prise de conscience et de la prise de décision qui va nous permettre, même si ce défi climatique reste immense et que rien n’est joué, de jeter les bases d’une nouvelle civilisation durable dans laquelle l’environnement sera à la fois le moteur du développement économique et le patrimoine commun de l’Humanité à préserver.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un ordinateur quantique sur silicium serait envisageable
Mardi, 12/01/2016 - 12:02

Selon des chercheurs de l’Université de Nouvelle Galles du Sud (UNSW), à Sydney, et de l’Université Keio, au Japon, il serait possible de réaliser une puce quantique sur silicium, sans rupture technologique majeure. Ces chercheurs ont en effet réussi à créer un pont logique entre deux qubits en utilisant du silicium, le matériau de base de l’informatique classique. « Nous avons réalisé ce pont en utilisant les mêmes technologies que celles employées pour réaliser des puces en silicium », souligne Andrew Dzurak.

Les chercheurs ont utilisé et transformé des transistors habituellement présents dans les semi-conducteurs pour qu’ils manipulent un électron unique. Ce qui a permis de créer un bit quantique ou qubit, contrôlé par micro-ondes. Le codage de l’information étant assuré par le spin (la rotation sur lui-même) de l’électron.

L’équipe est ensuite parvenue à bâtir un système renfermant deux qubits de ce type, mettant ainsi au point le premier calcul quantique sur substrat en silicium. Selon ces scientifiques, cette approche permettrait de produire des millions de qubits, sur la base de technologies de fabrication actuelles. Une échelle qui permet, en théorie, d’aboutir à un supercalculateur à la puissance de calcul inconnue jusqu’à présent, les caractéristiques des qubits (comme la superposition d’états permettant au qubit d’être à la fois 0 et 1) débouchant sur une explosion des capacités de calcul parallèle.

« Cela rend la construction d’un ordinateur quantique beaucoup plus faisable, dans la mesure où elle repose sur la même technologie de fabrication que celle utilisée dans l’industrie aujourd’hui », ajoute Andrew Dzurak.

Signalons qu’il existe déjà un producteur d’ordinateurs quantiques, D-Wave, dont la dernière génération de systèmes rassemble plus de 1 000 qubits. Mais les systèmes bâtis par cette start-up canadienne ne sont pas des ordinateurs quantiques universels, capables de traiter tous types de problèmes, ils se limitent aux problèmes dits d’optimisation.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Matière
Matière et Energie
Vers une puce 3D mille fois plus puissante !
Mardi, 12/01/2016 - 12:08

Selon une équipe  de l’Université de Stanford, dirigée par Subhasish Mitra et H.-S. Philip Wong, il est envisageable de multiplier par 1000 la puissance de la prochaine génération de plate-forme informatique.

Pour atteindre un tel gain de performances par rapport à l’existant, les deux scientifiques entendent repenser l’architecture des plates-formes informatiques. Ils proposent d’adopter un modèle « vertical », pour empiler processeurs et puces mémoire en couches dans un seul composant électronique, par opposition au modèle « horizontal » actuel où les processeurs sont reliés aux modules mémoire par des « circuits » à l’origine des goulets d’étranglement de l’échange des données qui font perdre temps et énergie aux plates-formes informatiques actuelles.

Une approche « empilée » aujourd’hui proposée avec la technologie 3-D où les composants électroniques de silicium sont produits séparément et assemblés à l’aide de milliers de liens. Si la longueur des liens est raccourcie, les puces 3-D restent dépendantes des embouteillages des données à cause du faible nombre de canaux de liaison déployables entre les composants (quelques milliers).

Avec Nano-Engineered Computing Systems Technology (N3XT), les chercheurs pensent lever ces limites de circulation des données. L’approche verticale de N3XT va transférer davantage de données, beaucoup plus rapidement, en utilisant beaucoup moins d’énergie, que ce qui serait possible en utilisant des circuits horizontaux. Une amélioration qui serait de l’ordre d’un facteur 1000, assure H.-S. Philip Wong.

Reste que cette nouvelle architecture en 3D n'est pas réalisable en silicium, le matériau de base qui compose la structure des transistors des puces électroniques, à cause des hautes températures (proche des 1000°C) nécessaires à leur fabrication. Pour pallier ce problème, les chercheurs se tournent vers les nanomatériaux, des transistors en nanotubes de carbone en l’occurrence, dont la fabrication nécessite moins de chaleur. Ce qui permettra d’empiler les composants les uns sur les autres sans risquer de les endommager.

Article rédigé par Georges Simmonds pour RT Flash

Stanford

Un papier qui stocke l'énergie
Dimanche, 10/01/2016 - 19:36

Des chercheurs suédois ont mis au point un matériau composé de nano-cellulose et d’un polymère conducteur. Cette feuille de papier d’une quinzaine de centimètres de diamètre et de quelques millimètres d’épaisseur est capable de stocker de l’énergie et peut être, en outre, rechargée des centaines de fois en seulement quelques secondes.

Le matériau se présente sous la forme d'une matière plastifiée noire ou une gelée rigide avant séchage. Les scientifiques ont testé sa résistance en réalisant un cygne en origami avec une seule feuille, pliée comme il se doit. Pour fabriquer ce papier, des nano-fibres de cellulose sont plongées dans une solution aqueuse contenant le polymère conducteur.

Il se fixe alors en une fine couche autour des fibres et comble les espaces vides entre elles, jouant le rôle d’un électrolyte. Le principe du film électrique n’est pas nouveau : "Les films minces qui fonctionnent comme des condensateurs existent depuis un certain temps. Ce que nous avons fait est de produire un matériau en trois dimensions. Nous pouvons produire des feuilles épaisses" explique Xavier Crispin, un des auteurs de ce travail. Grâce à sa structure tridimensionnelle, ce nouveau papier a établi un nouveau record du monde de la conductivité simultanée pour les ions et les électrons, ce qui explique sa capacité exceptionnelle pour le stockage de l'énergie. 

Article rédigé par Georges Simmonds pour RT Flash

Wiley

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Première étude à cartographier les eaux souterraines de la Terre
Dimanche, 10/01/2016 - 19:22

Une étude, dirigée par le Docteur Tom Gleeson de l’Université de Victoria et associant des chercheurs de l’Université du Texas à Austin, l’Université de Calgary et l’Université de Göttingen, a permis, pour la première fois de calculer la première estimation des eaux souterraines fondée sur les données de l’approvisionnement total de la Terre de l’eau souterraine.

La plus grande partie de l’étude représente l’histoire « moderne » de la nappe phréatique. Le rapport montre que moins de six pour cent des eaux souterraines dans les deux kilomètres supérieurs de la masse de la Terre sont renouvelables dans la durée de vie humaine. Selon le Professeur Gleeson, « Nous savons déjà que les niveaux d’eau dans de nombreux aquifères sont en baisse et nous utilisons nos ressources en eaux souterraines trop rapidement cependant pour qu’elles se renouvellent ».

Utilisant plusieurs bases de données (y compris les données de près d’un million de bassins versants), et plus de 40.000 modèles d’eaux souterraines, l’étude estime un volume total de près de 23 millions de kilomètres cubes d’eau souterraine dont 0,35 million de kilomètres cubes a moins de 50 ans.

Certains des plus grands gisements se trouvent dans le bassin de l’Amazone, le Congo, l’Indonésie, et dans le Nord et l’Amérique centrale longeant les Rocheuses et la Cordillère occidentale à la pointe de l’Amérique du Sud. La prochaine étape pour avoir une image complète de la rapidité avec laquelle nous appauvrissons les eaux souterraines anciennes et récentes sera d’analyser les volumes d’eau souterraine en relation avec la quantité utilisée. « Puisque nous savons maintenant combien l’eau souterraine est en voie d’épuisement et quelle est sa quantité, nous allons être en mesure d’estimer combien de temps il reste jusqu’à ce que nous en manquions, » explique le Professeur Gleeson.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Sucre et cancer : le lien se confirme
Jeudi, 14/01/2016 - 18:57

Selon une équipe américaine de l’Université du Texas MD Anderson Cancer Center, il y aurait bien un lien de causalité entre la consommation de sucre et le risque de certains cancers. Certes, ce rapprochement n’est pas nouveau. Mais cette fois, les scientifiques sont parvenus à identifier avec précision le mécanisme par lequel le saccharose ou le fructose alimentaires, très présents dans l’alimentation surtout outre-Atlantique, facilitent chez les rongeurs la croissance de tumeurs mammaires et la survenue de métastases pulmonaires.

Les chercheurs ont élevé différents groupes de souris et les ont soumis à un régime alimentaire plus ou moins riche en sucre. Après six mois, plus de 50 % du groupe ayant suivi un régime enrichi en sucre, équivalent au régime américain moyen, avaient développé des tumeurs mammaires contre moins d’un tiers des souris nourries normalement. Ce régime était tout particulièrement riche en fructose, un sucre très utilisé par l’industrie alimentaire et entrant notamment dans la composition de la plupart des boissons sucrées.

L’équipe texane est parvenue à identifier une voie moléculaire, dite 12-LOX (12-lipoxygénase), en cause dans le processus de croissance tumorale. Cette voie pourrait, selon les auteurs, favoriser l’inflammation des tumeurs et par conséquent leur croissance. Cette hypothèse reste cependant à valider chez l'homme.

Article rédigé par Georges Simmonds pour RT Flash

MDACC

Le dépistage systématique du cancer de l'ovaire pourrait réduire la mortalité
Jeudi, 14/01/2016 - 08:54

Selon une vaste étude britannique, le dépistage systématique du cancer de l'ovaire pourrait réduire la mortalité à long terme. "Les résultats de l'étude font état d'une réduction de mortalité attribuable au dépistage allant de 15 à 28 %", précise le Professeur Ian Jacobs, de l'University College de Londres, qui a dirigé l'étude réalisée sur plus de 200.000 femmes britanniques âgées de 50 à 74 ans. Recrutées entre 2001 et 2005, elles ont été suivies jusqu'en 2014 dans treize centres répartis à travers tout le Royaume-Uni.

La moitié d'entre elles a bénéficié d'un dépistage : un peu plus de 50.000 ont été surveillées grâce à une échographie pelvienne transvaginale annuelle, tandis que 50.000 autres ont été soumises à un dosage annuel d'un "marqueur" spécifique du cancer de l'ovaire appelé CA-125 en plus de l'échographie. Les 100.000 autres femmes n'ont fait l'objet d'aucun dépistage.

À l'issue du suivi, d'une durée moyenne d'une dizaine d'années, 1.282 femmes avaient développé un cancer de l'ovaire dont 649 en sont mortes. En comparant les décès, les chercheurs ont montré une mortalité légèrement inférieure (allant de 11 à 15 %) chez les femmes qui avaient bénéficié d'un dépistage.

Mais ils ont surtout découvert qu'une détection précoce du cancer grâce au dépistage permettait de réduire la mortalité "de manière significative" à long terme avec une mortalité réduite de 28 % au-delà de sept ans de suivi, contre seulement 8 % avant sept ans. "C'est la première preuve que le dépistage peut réduire le nombre de décès par cancer de l'ovaire", relève le Professeur Ushah Menon, co-auteur de l'étude.

le cancer de l'ovaire est le plus meurtrier des cancers gynécologiques. Il est à l'origine d'environ 150.000 décès chaque année dans le monde, selon des chiffres de l'Organisation mondiale de la santé (OMS). En France, il touche environ 4.400 femmes par an dont plus de 3.000 en meurent.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Maladie d'Alzheimer : enfin un médicament efficace
Jeudi, 14/01/2016 - 08:48

Des recherches réalisées par le Columbia University Medical Center (CUMC-New York) et conduites par le Docteur Natura Myeku, ont montré que l’antidépresseur "Rolipram", qui active l’élimination de protéines endommagées du cerveau, pourrait être à l’origine d’un traitement de la maladie d’Alzheimer et des autres troubles neurodégénératifs.

Normalement, un petit cylindre moléculaire du cerveau appelé "protéasome" broie les protéines endommagées, vieilles ou usées du cerveau afin de le garder en bonne santé. Seulement quand le cerveau est affecté par les maladies neurodégénératives comme Alzheimer, Huntington, Parkinson ou la démence frontotemporale, les protéines censées être détruites s’accumulent dans les neurones, suggérant l’altération du protéasome.

Lors d’une recherche sur la souris, les scientifiques ont découvert que la protéine "tau", présente lors de la maladie d’Alzheimer et autres maladies neurodégénératives, bloquait le protéasome et ralentissait le processus de broyage. Cependant, après la prise du médicament Rolipram, développé à l’origine comme antidépresseur (non utilisé cliniquement à cause de ses effets secondaires comme la nausée), le protéasome des souris a été à nouveau opérationnel, réactivant l’élimination des protéines. "Pour la première fois, nous avons prouvé qu’un médicament peut activer le système d’élimination neuronale et ralentir la maladie", a déclaré le Docteur Karen Duff, professeur de pathologie et biologie cellulaire au CUMC. Cette découverte pourrait conduire à un nouveau traitement pour aider les personnes atteintes de démences.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Cancer de la prostate : une thérapie génique à l'essai
Jeudi, 14/01/2016 - 08:42

Des scientifiques du Houston Methodist Hospital aux Etats-Unis ont testé une nouvelle thérapie génique qui a obtenu des résultats très encourageants face au cancer de la prostate : les patients traités par cette technique ont un taux de survie à 5 ans de 94 à 97 %. Un taux très nettement supérieur à celui observé avec les traitements habituels pour ce type de cancer.

Cette thérapie est appelée "thérapie génique suicide" par les chercheurs qui l’ont développée, car les cellules cancéreuses génétiquement modifiées émettent elles-mêmes un signal pour être détruites par les traitements et le système immunitaire du patient.

Les chercheurs ont suivi 66 patients entre 1999 et 2003 au cours d’un essai clinique de phase II, répartis en deux groupes. Le premier groupe (groupe A) souffrait d’un cancer de la prostate localisé (sans métastases) et a été traité par radiothérapie puis par cette thérapie génique (à deux reprises). Le second groupe (groupe B) souffrait d’un cancer de la prostate métastatique et a été soigné par radiothérapie, hormonothérapie puis thérapie génique (à trois reprises).

Cette thérapie génique consiste en l’utilisation d’un adénovirus (virus très commun qui provoque le rhume) comme vecteur pour amener un gène du virus de l’herpès spécifiquement dans les cellules cancéreuses. Ce gène permet la production d’une enzyme appelée thymidine kinase ou TK. "Une fois que le gène du virus de l’herpès a été inséré dans les cellules cancéreuses et que ces dernières commençaient à produire de la TK, nous avons administré aux patients un médicament très commun contre l’herpès, le valaciclovir, explique le Docteur Brian Butler, chef du service de Radiologie oncologique au Houston Methodist Hospital et principal auteur de cette étude. "La molécule a attaqué directement l’ADN de l’herpès et les cellules tumorales produisant la TK se sont autodétruites." D’où le nom de "thérapie génique suicide".

L’effet de cette thérapie est double. Une fois que le valaciclovir commence à détruire les cellules tumorales, le système immunitaire du patient est alerté et déclenche lui aussi une réponse pour s’attaquer au cancer. Avant l’émission de ce signal, le système immunitaire n’avait pas repéré les cellules cancéreuses. Les chercheurs estiment que cette technique s’apparente à un "vaccin" qui utilise les propres cellules tumorales du patient. Une technique qui peut améliorer les résultats obtenus avec les traitements traditionnels par radiothérapie et hormonothérapie.

En effet, les résultats obtenus dans cette étude sont impressionnants. Sur les 62 patients qui ont pu terminer l’étude, le taux de survie à 5 ans dans le groupe A était de 97 %, celui dans le groupe B de 94 %.

Ces résultats sont un immense espoir pour les patients qui souffrent d’un cancer de la prostate. D’autant plus que cette thérapie génique provoquerait très peu d’effets secondaires, voire aucun, selon les chercheurs américains. Un essai clinique de phase III, essai final pour déterminer l’efficacité et la sûreté de cette thérapie, est déjà en cours aux Etats-Unis.

Article rédigé par Georges Simmonds pour RT Flash

Springer

Les bienfaits de la musique contre la maladie d'Alzheimer
Jeudi, 14/01/2016 - 08:33

Une étude finlandaise, publiée dans le « Journal of Alzheimer’s Disease », explique les bienfaits thérapeutiques de la musique. Selon ces travaux, la musique serait bénéfique pour notre cerveau, à la fois d’un point de vue cognitif mais aussi d’un point de vue émotionnel. Ecouter de la musique et pratiquer au quotidien du chant, même sous la douche, permet à votre cerveau de lutter contre la maladie d'Alzheimer.

Dans cette étude, les sujets ont été divisés en deux groupes. Le premier groupe s’est inscrit dans un programme musical de dix semaines à base de chant et d’écoute de chansons célèbres. Le deuxième groupe a subi les mêmes tests sans avoir été membre du programme.

Au bout de 9 mois, les deux groupes ont subi une batterie de tests d’évaluation de leur bonne humeur et de leurs facultés cognitives. Les chercheurs ont mesuré les bienfaits d’une thérapie musicale pour les personnes souffrant de la maladie d’Alzheimer ou de démence légère. Le résultat est sans appel. Les individus du premier groupe ont eu de biens meilleurs résultats que ceux de l’autre groupe, pourtant lui aussi composé uniquement de binômes : d’un soignant et d’un patient atteint de démence légère à modérée. Les compétences cognitives des individus du premier groupe ont été augmentées : la mémoire, notamment dans le cadre du travail. Chez les individus atteints de démence plus sérieuse, l’écoute de la musique influence leur humeur de façon significative.

Article rédigé par Georges Simmonds pour RT Flash

MNT

Notre cerveau fait-il ses choix à notre insu ?
Mardi, 12/01/2016 - 11:12

Selon une étude canadienne, nos décisions seraient liées à une zone de notre cerveau qui piloterait ces choix, à notre insu, indépendamment de nos jugements de valeur rationnels. Il s'agit du cortex préfrontal, responsable de la planification et des fonctions d'exécution. "Notre recherche confirme ce que les publicitaires calés savent déjà. Quand vous regardez deux objets, votre choix va se porter sur celui que vous regarderez le plus longtemps, même si vous avez initialement préféré l'autre. Nous sommes allés plus loin et avons identifié une région du lobe frontal impliquée de manière déterminante dans ce phénomène", explique le Docteur Fellows, neurobiologiste spécialisé dans le processus de décision.

Ces travaux confirment donc que certaines régions de notre cerveau peuvent être manipulées par des facteurs que nous ne maîtrisons pas. Dans cette étude, les chercheurs ont suivi 60 personnes, dont la moitié avaient subi une tumeur dans ce lobe préfrontal. Elles ont observé des centaines d'œuvres d'art en notant à chaque fois leur degré de préférence. Le but étant de donner une estimation de la valeur subjective donnée à chaque objet. Dans un deuxième temps, elles ont été invitées à choisir parmi des paires de ces objets.

D'après les premiers résultats de ce test, les participants ont choisi les œuvres regardées le plus longtemps et non celles qu'elles avaient notées le plus favorablement. Les participants au lobe frontal endommagé ont montré, quant à eux, une tendance exagérée à se saisir de l'objet à portée de main. Pour les chercheurs, cette expérience apporte la preuve que le dorsomedial PFC joue un rôle crucial dans l'arbitrage entre le jugement de valeur et l'attrait direct pour l'objet. 

Article rédigé par Georges Simmonds pour RT Flash

Mc Gill

SIDA : une nouvelle molécule porteuse d'espoir
Mardi, 12/01/2016 - 11:05

Le VIH présente la particularité de s’attaquer au système immunitaire. Le virus prend ensuite le contrôle des T CD4, les cellules qui assurent la coordination de la réponse immunitaire en présence d’agents pathogènes. Le VIH se sert aussi des T CD4 pour se propager et détruire le système immunitaire de l’intérieur, laissant l’organisme humain sans défense.

S’il n’existe pas encore de guérison possible, les traitements contre le SIDA permettent de prolonger l’espérance de vie des sujets infectés et malades. Différentes classes de médicaments antirétroviraux existent actuellement. Leur association dépend de l’évolution de l’infection et des médicaments déjà pris par les séropositifs ou les malades pour optimiser l’efficacité des traitements.

L’ABX464 est une molécule innovante développée par la société de biotechnologie ABIVAX avec le CNRS et l’Institut de génétique moléculaire de l’Université de Montpellier. Celle-ci se démarque des autres médicaments par son mode opératoire. La molécule a la faculté d’inhiber la multiplication du virus à l’intérieur des cellules infectées et de réduire ainsi la charge virale.

L’ABX464 n’agit pas sur l’activité enzymatique de la transcriptase inverse virale, le principe de la trithérapie rétrovirale ou ART. Contrairement à l’ART, la molécule ne nécessite pas de prise journalière de médicaments. L’ABX464 n’entraîne pas ainsi de résistance au traitement. Encore mieux, aucun rebond viral n’a été constaté chez les sujets infectés deux mois après l’arrêt du traitement. Le mode d’action particulier de cette nouvelle molécule permet non seulement de réduire la durée et la fréquence des prises de médicaments mais réduit également les  coûts du traitement.

Article rédigé par Georges Simmonds pour RT Flash

Business Wire

Une thérapie génique prometteuse contre la drépanocytose
Mardi, 12/01/2016 - 11:00

Une équipe de chercheurs dirigée par Marina Cavazzana a réalisé fin 2014, à l’Hôpital Necker-Enfants malades, Assistance Publique-Hôpitaux de Paris, et à l’Institut Imagine, une thérapie génique sur un adolescent atteint de drépanocytose. Les résultats obtenus par le Département de biothérapie du Professeur Marina Cavazzana, avec la contribution du Docteur Jean-Antoine Ribeil, en collaboration avec le service clinique du Professeur Stéphane Blanche, confirment l’efficacité de cette stratégie thérapeutique d’avenir.

La thérapie génique a permis au patient de produire de l’hémoglobine normale, le libérant ainsi des échanges transfusionnels mensuels et surtout des épisodes vaso-occlusifs. Ces résultats extrêmement prometteurs ont été présentés à l’American Society of Hematology le 5 décembre.

Le jeune patient s'est vu prélever des cellules souches hématopoïétiques dans lesquelles on a introduit une copie normale du gène de l’hémoglobine. Neuf mois après avoir reçu cette greffe de cellules corrigées, le patient se porte bien et produit environ 51,5 % d’hémoglobine normale.

La drépanocytose est la maladie génétique la plus fréquente au monde (environ 50 millions de malades). Cette maladie de l’hémoglobine se traduit par des globules rouges en forme de faucilles entravant la circulation sanguine et causant ainsi de multiples souffrances chez les malades : crises vaso-occlusives, susceptibilité aux infections, accidents vasculaires cérébraux, anémie sévère par hémolyse des globules rouges…

Cette avancée majeure pourrait améliorer radicalement la qualité et l’espérance de vie de très nombreux malades. « Nous espérons étendre très rapidement cette stratégie à tous les patients dont l’état clinique nécessite une greffe allogénique mais qui n’ont pas de donneur familial compatible » a d’ailleurs déclaré le Professeur Cavazzana.

Article rédigé par Georges Simmonds pour RT Flash

APHP

Un micro-intestin sur puce ouvre la voie vers les traitements sur mesure
Mardi, 12/01/2016 - 10:53

Des scientifiques du Wyss Institute ont mis au point une technologie de reproduction et de culture sur puce du microbiome intestinal, « gut-on-a-chip », qui pourrait  révolutionner la recherche et conduire à de nouvelles thérapies pour les maladies inflammatoires de l'intestin (MICI).

Cette avancée permet, pour la première fois, aux scientifiques, d'analyser comment les microbes intestinaux et les bactéries pathogènes contribuent aux MICI, sur un modèle réduit et contrôlé qui reproduit exactement la physiologie de l’intestin humain. Bref, un micro-laboratoire révolutionnaire qui va permettre de découvrir comment les communautés microbiennes qui fleurissent à l'intérieur de nos intestins contribuent à la santé humaine et à la maladie.

L’équipe de l'Institut Wyss de l'Université Harvard a pu reconstituer sur puce un modèle d'inflammation intestinale humaine et de prolifération bactérienne dans l’intestin humain. Ce modèle permet aux scientifiques d'analyser comment les microbes intestinaux et les bactéries pathogènes du microbiote intestinal contribuent à déclencher ces réponses immunitaires à partir d’un modèle réduit et contrôlé qui reproduit exactement la physiologie de l’intestin humain.

Cette innovation a déjà permis de découvrir quatre petites protéines, appelées cytokines, qui stimulent l'inflammation. Cette seule découverte ouvre déjà une nouvelle voie thérapeutique potentielle pour le traitement des MICI par inhibition de ces cytokines. Le « gut-on-a-chip » ouvre également la voie à une médecine de précision des MICI, avec la possibilité de cultiver les propres cellules et le microbiote intestinal du patient pour tester différentes thérapies et identifier la meilleure stratégie de traitement.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Vers des tests à base d’ADN chez le médecin...
Dimanche, 10/01/2016 - 19:31

Le professeur Alexis Vallée-Bélisle de l’Université de Montréal et ses collègues ont conçu un détecteur portatif peu coûteux qui rend possible la détection de plusieurs cibles moléculaires permettant d’établir un diagnostic médical en moins de 10 minutes. Le principe de détection est simple : la cible moléculaire pertinente aux fins de diagnostic, si présente, se lie à la séquence d’ADN électro-active et restreint la capacité de celle-ci à s’hybrider à sa séquence complémentaire située sur la surface d’une électrode en or. La réduction du signal électrochimique qui en découle peut être facilement mesurée à l’aide d’appareils peu coûteux semblables aux lecteurs de glycémie utilisés à la maison.

Leurs résultats pourraient contribuer à concevoir des appareils assez simples pour pouvoir être utilisés dans le cabinet du médecin, ou même à la maison, et qui permettent de diagnostiquer rapidement diverses maladies, telles que le cancer, les allergies, les maladies auto-immunes, les infections transmissibles sexuellement (ITS) et de nombreuses autres.

Selon l’équipe de chercheurs, cette nouvelle technologie pourrait également avoir une incidence considérable sur la santé mondiale en raison de ses faibles coûts et de sa facilité d’utilisation. Ces tests de diagnostic, à base d’ADN rapides et faciles à utiliser, utilisent l’une des forces les plus simples en chimie : l’effet stérique, une force de répulsion qui survient lorsque des atomes sont amenés trop près les uns des autres – pour détecter des cibles moléculaires, telles des protéines, liées à diverses maladies.

Les chercheurs ont démontré que ce test à base d’ADN permet de détecter plusieurs cibles moléculaires de manière simultanée directement dans le sang entier en moins de 10 minutes, même si la concentration de ces cibles est un million de fois inférieure à celle du glucose dans le sang. « Un des grands avantages de ce test électrochimique à base d’ADN est que son principe de détection peut être généralisé à de nombreuses cibles moléculaires. Nous pouvons donc créer des appareils abordables permettant de détecter des dizaines de marqueurs de maladies en moins de cinq minutes dans le bureau du médecin ou même à la maison », conclut M. Vallée-Bélisle.

Article rédigé par Georges Simmonds pour RT Flash

Université de Montréal

Découverte d'un nouveau gène lié à l'hypertension
Dimanche, 10/01/2016 - 19:15

Une équipe de chercheurs canadiens de l’Université d’Ottawa a fait le lien entre l’hypertension et un gène dont le rôle dans la régulation de la tension artérielle était insoupçonné jusqu’à présent. Cette découverte pourrait mener à de nouvelles cibles pour améliorer les traitements offerts aux patients souffrant d’hypertension.

L’hypertension artérielle, qui touche 20 % des adultes au Canada, compte parmi les principaux problèmes de santé affectant la population au pays. En Amérique du Nord, les problèmes d’hypertension mal contrôlés entraîneraient la mort de quelque sept millions de personnes par année. Ils représenteraient également 64 millions d’années de vie corrigées du facteur invalidité, ou années perdues en raison de mauvaise santé, de handicap ou de mort prématurée.

Dans leur nouvelle étude, les chercheurs de l’équipe dirigée par Mona Nemer, professeure de biochimie et vice-rectrice à la recherche de l’Université d’Ottawa, ont découvert que le facteur de transcription GATA5, protéine régulant de nombreux gènes dans les cellules cardiaques, jouait un rôle stratégique dans la régulation de la tension artérielle au même titre que bon nombre de gènes et autres convoyeurs des hormones et des nutriments dans le sang.

Ils ont observé une relation entre l’absence de GATA5 dans le modèle en question et l’augmentation de la tension artérielle, l’altération des parois artérielles et l’usure du cœur et des reins liée à l’âge, états symptomatiques de l’hypertension artérielle chez les êtres humains.

« Ce que nous avons constaté chez les souris sans GATA5 rappelle beaucoup les caractéristiques de l’hypertension chez l’être humain. Nous avons donc examiné le statut de ce gène chez les personnes vivant avec l’hypertension artérielle. Dans deux grands groupes d’essais cliniques indépendants, des variantes du gène GATA5 ont été décelées chez les personnes souffrant d’hypertension. Notre étude ouvre donc de nouvelles pistes de recherche sur la prévention de cette maladie et ses complications », explique la professeure Nemer.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top