RTFlash

RTFLASH Recherche & Technologie
NUMERO 853
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Juin 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le mobile devient un outil de contrôle médical
Avenir
Un robot médical qui s'avale comme une capsule
Quand deux robots s’entraident pour surmonter des obstacles…
Matière
Des cellules solaires en pérovskite qui s’auto-réparent
Nouveau record d'efficacité pour des cellules solaires sans silicium
Espace
Ondes gravitationnelles : et de deux !
Vivant
Un champignon hallucinogène contre la dépression
Infections nosocomiales : quand le smartphone remplace les cultures
Démences et Alzheimer : nouvelle théorie impliquant le système immunitaire
IBM dévoile sa molécule tueuse de virus
Le stress pendant la grossesse peut être favorable à l'enfant
Une nouvelle étape vers une possible guérison du SIDA
Une activité physique régulière réduirait le risque d'une grande variété de cancers
Des chercheurs américains mettent au point une peau synthétique
Le daclizumab HYP fait mieux que l’interféron dans la sclérose en plaques
Edito
La Mer : un prodigieux et inépuisable réservoir de richesses matérielles et énergétiques



La soif d’énergie de l’Humanité ne cesse de croître et aujourd’hui, le monde consomme chaque année 13,5 gigatonnes d’équivalent-pétrole, dix fois plus d’énergie qu’il y a un siècle. Et malgré les progrès considérables attendus dans le domaine de l’efficacité énergétique, cette consommation mondiale d’énergie devrait, selon les estimations les plus prudentes, au moins doubler d’ici 2050, pour atteindre les 27 Gteps. Quant à la consommation mondiale d’électricité, elle progresse encore plus vite que la consommation globale d’énergie et a été multipliée par trois depuis 1975 (contre un doublement pour la consommation globale d’énergie), pour atteindre le chiffre colossal de 24 000 TWh en 2015, c’est-à-dire 24 000 milliards de kWh ! Cette consommation électrique mondiale devrait, selon la plupart des prévisions, encore doubler d’ici 2050 pour atteindre les 50 000 TWh, ce qui devrait représenter une consommation moyenne par terrien (tous usages confondus) de plus de 5000 kWh par an…

Aujourd’hui, encore les deux tiers de l’électricité consommée dans le monde sont issus des énergies fossiles et cette production électrique galopante est responsable de plus du tiers des émissions humaines de CO2 (au total 40 gigatonnes par an). Or, l’explosion attendue de la consommation électrique mondiale d’ici 2050  risque d’être encore plus fort que prévue, notamment à cause de la montée en puissance du transport électrique. Il n’est en effet pas exclu que 20 % du parc automobile mondial qui roulera en 2050 soit propulsé à l’électricité, ce qui représentera plus de 200 millions de véhicules composés de véhicules électriques qui consommeront plus près de 400 TWH par an, c’est-à-dire l’équivalent de la production électronucléaire de la France… Il n’est pas besoin d’être polytechnicien pour comprendre que si nous voulons respecter nos engagements internationaux de réduction d’émissions de CO2 et éviter une accélération insupportable du rythme du réchauffement climatique, la production électrique mondiale, qui va encore doubler d’ici 2050, devra absolument être décarbonée à 70 ou 80 % pour ne pas aggraver nos émissions de CO2.

Concrètement, cela signifie, sur une base de consommation prévisionnelle de 50 000 TWh par an en 2050, que le monde va devoir produire à cet horizon environ 37 500 TWh par an en recourant uniquement à des énergies renouvelables et faiblement émettrices de CO2, principalement le solaire et l’éolien, tant sur terre que sur mer. Si nous retenons l’hypothèse prudente d’une production de 20 % de l’électricité mondiale par l’éolien (terrestre et maritime) en 2050 (30 % de cette électricité étant produite par l’énergie solaire), cela veut dire qu’il va falloir mettre en service d’ici le milieu du siècle environ 50 000 « mégaéoliennes » de 8 à 10MW de puissance, produisant chacune 20 à 30 millions de kWh par an.

Un tel développement de l’éolien mondial n’est pas envisageable sur terre, compte tenu de la taille gigantesque des machines et de leur impact. En revanche, il est tout à fait possible de réaliser de nombreuses fermes éoliennes marines et d’implanter des milliers d’éoliennes géantes sur les mers et les océans, sans impact majeur sur les populations et l’environnement. A cet égard, il faut rappeler que le potentiel énergétique renouvelable de l’océan mondial est énorme, de l’ordre de 100 000 TWh, dont 20 000 sont exploitables, soit sous forme éolienne, pour 12 000 milliards de kWh, soit en tirant l’énergie de la houle, des courants, de l’énergie thermique des mers, ou de l’énergie osmotique pour le solde énergétique (8000 TWh).

On distingue 6 ressources marines valorisables technologiquement en électricité : l'énergie marémotrice (différence de hauteur entre marée haute et marée basse), l’éolien marin, l’hydrolien (courants sous-marins), l’énergie houlomotrice (énergie des vagues et de la houle), l'énergie thermique des mers (valorisation de la différence de température entre des eaux de surface et de profondeur) et enfin l'énergie osmotique (différence de salinité entre eau douce et eau salée).

Selon Maxime Bousseaud, chercheur à Grenoble Energie, les différents potentiels techniquement exploitables (PTE) de ces énergies marines sont pour notre pays d’environ 100 TWh pour l’énergie marémotrice, 90 TWh pour l’éolien offshore, 40 TWh pour le houlomoteur, 10 TWh pour l’hydrolien, 7 TWh pour l’ETM, soit au total près de 250 TWh, c'est-à-dire 45 % de la production totale d'électricité en France !

Il y a quelques semaines, l’exploitation de l’énergie des courants marins est entrée dans sa phase active, avec la mise en eau, par EDF et DCNS-OpenHydro, de la deuxième hydrolienne qui va constituer le premier parc au monde à produire de l’électricité issue de cette forme d’énergie marine. Après avoir expérimenté depuis 2014 la productivité des courants au large de Paimpol-Bréhat, les acteurs de cette nouvelle filière énergétique viennent de franchir un nouveau pas vers l’exploitation industrielle à grande échelle de cette source d’énergie prometteuse. La première turbine de 16 mètres de haut a été installée en début d’année par 40m de profondeur. Elle devrait être bientôt rejointe par une seconde machine du même type. Ces hydroliennes seront reliées à un convertisseur sous-marin commun élaboré par General Electric qui va transformer l’énergie en courant continu et l’acheminer jusqu’à la côte sur la commune de Ploubazlanec. Ce site breton de Paimpol-Bréhat devient ainsi le premier au monde à exploiter à une large échelle l’énergie issue des courants marins. Un deuxième parc devrait entrer en service prochainement dans la baie de Fundy au Canada, un site qui présente la particularité d’avoir des marées de très grande amplitude (jusqu’à 21m).

DCNS a par ailleurs décidé de réaliser son atelier de construction d’hydroliennes sur un site de 25 hectares appartenant au port de Cherbourg. Cette unité de production sera achevée en 2017 et devrait produire sept hydroliennes de 14 MégaWatts (MW) de puissance programmées sur le Raz Blanchard à l’horizon 2018. À l’horizon 2020, cette usine assemblera 25 puis 50 hydroliennes par an qui iront équiper les futures fermes hydroliennes d’Aurigny et Raz Blanchard.

Cette nouvelle aventure technologique et industrielle s’accompagne également d’une évolution de notre cadre réglementaire. L’arrêté du 24 avril dernier sur les investissements en matière d’énergie renouvelable devrait faciliter et accélérer les investissements dans ce domaine stratégique des énergies marines. L’État a par ailleurs décidé que la puissance installée des parcs d’éoliennes marines devra atteindre 6000 MW (l’équivalent de quatre EPR) à l’horizon 2023.

Mais à ces énergies marines renouvelables « classiques », bien qu’encore très sous-exploitées (marémotrice, thermique, houlomotrice, hydrolienne, éolienne et osmotique) pourrait s’ajouter l’énergie thermochimique intrinsèque contenue dans l’eau de mer et que les scientifiques apprennent à récupérer. Au Japon, une équipe de l'université d'Osaka vient ainsi de mettre au point un nouveau procédé photocatalytique permettant de transformer - grâce à la lumière du soleil - de l'eau salée en peroxyde d'hydrogène (H2O2). Un composé chimique qui permet ensuite de produire de l’électricité. Ces chercheurs, dirigés par le professeur Shunichi Fukuzumi, sont parvenus à mettre au point une nouvelle cellule photoélectrochimique qui, sous l’effet de la lumière solaire, absorbe les photons. Cette énergie est ensuite utilisée pour amorcer une réaction chimique qui transforme l’eau salée en eau oxygénée (H2O2), un composé que le professeur Fukuzumi qualifie de véritable "combustible solaire" et qui présente l’avantage d’être, sous sa forme gazeuse ou liquide, moins dangereux à stocker et à manipuler que l’hydrogène.

Mais en attendant que cette énergie marine du futur tienne toutes ses promesses, les choses avancent à grands pas dans le domaine stratégique de l’éolien marin : l'Allemagne, la Belgique, le Danemark, la France, l'Irlande, le Luxembourg, la Norvège, les Pays-Bas et la Suède se sont engagés, le 6 juin dernier, à renforcer leur coopération dans l'énergie éolienne offshore. Ils ont signé, avec les commissaires européens en charge de l'Union de l'énergie et du climat, un plan d'action spécifique aux "mers du nord du continent". Cette coopération va permettre une exploitation coordonnée, tant sur le plan technologique que réglementaire, du potentiel éolien considérable des mers qui bordent le Nord de l’Europe. L’enjeu économique, technologique et environnemental est considérable quand on sait que l’association européenne de l’énergie éolienne prévoit une production d’électricité provenant de l’éolien marin de l’ordre de 562 TWh à l’horizon 2030, ce qui pourrait couvrir environ 15 % des besoins en électricité de l’Union européenne à cette échéance, tout en réduisant de 300 millions de tonnes par an les émissions européennes de CO2.

Parallèlement, les principaux acteurs industriels de l'éolien en mer, dont E.ON, General Electric, Vattenfall, RWE, Adwen et Siemens, se sont fixé l’objectif de ramener le coût de production moyen en-dessous de 8 centimes d’euros le kWh, un seuil à partir duquel cette forme d’énergie deviendra compétitive par rapport aux énergies fossiles, surtout si l’on intègre dans la fiscalité  le « coût-carbone » de ces dernières.

Et parmi les facteurs qui peuvent permettre d’atteindre plus rapidement le seuil de compétitivité pour l’éolien marin, il y a naturellement l’efficacité énergétique des machines. Dans ce domaine, il n’est pas exagéré de dire qu’une véritable rupture est en cours avec l’arrivée d’éoliennes géantes extrêmement performantes. La société Adwen, coentreprise fondée par Areva et Gamesa, teste actuellement à Bremerhaven (Allemagne), sa turbine géante d'une puissance de 8 MW, pour 205 m de haut. Cette éolienne géante AD 8-180 est destinée à équiper le parc éolien de Saint-Brieuc en 2020 et ceux de Dieppe-Le-Tréport et Yeu-Noirmoutier en 2021.

Mais d’ici la fin de cette décennie, une nouvelle génération d’éoliennes marines va peut-être venir complètement bouleverser les perspectives de production énergétique marine au niveau mondial. Des chercheurs américains de l’université de Virginie travaillent en effet sur une éolienne marine d’un nouveau type qui pourrait permettre à terme de produire jusqu’à 6 fois plus d’électricité que les plus puissantes et les plus grandes éoliennes marines en activité, qui affichent déjà une puissance de 8 MW et possèdent des pales de 80 mètres de long. La machine que préparent ces chercheurs devrait avoir des pales de plus de 200 mètres de long et une puissance de 50 mégawatts (MW). Pour parvenir à une telle puissance, ces « mégaéoliennes » auront des pales révolutionnaires en structure composite qui pourront plier vers l’avant, comme le font les palmiers et absorber ainsi l’énorme quantité d’énergie cinétique frappant leur surface.

Avec l’arrivée de ces monstres de puissance, l’exploitation de l’énergie du vent sur les océans changera de dimension puisque chacune de ces machines pourra produire, sur les sites marins plus favorables, jusqu’à 150 millions de kilowatts heure par an, de quoi couvrir les besoins en électricité de 50 000 foyers…

Il faut également évoquer les perspectives très prometteuses de développement des éoliennes marines flottantes qui n’ont plus besoin d’être implantées à proximité des côtes et peuvent être installées en haute mer. La première éolienne flottante française devrait entrer en service d'ici mi-2017 au large du Croisic. Après trois ans d'études, les différents éléments pour le montage de cette éolienne de deux mégawatts, baptisée « Floatgen », viennent d’être présentés à Saint-Nazaire, début juin. Ce projet Floatgen réunit Bouygues TP et Centrale Nantes et a le soutien d’investisseurs privés et publics (Région Pays-de-la-Loire, Ademe, Banque publique d'investissement, fonds européens). Il devrait permettre d’étendre considérablement les zones potentielles d’implantations des éoliennes marines, tout en réduisant les conflits d’usage entre usagers de la mer et en exploitant de manière optimale les vents plus forts et plus réguliers du grand large.

Mais une autre source d’énergie marine beaucoup moins connue que l’éolien marin ou même l’énergie des courants et des vagues, pourrait venir faire son entrée dans le paysage énergétique mondial d’ici 20 ans : l’énergie osmotique. Cette énergie, découverte par le chimiste néerlandais et Nobel van't Hoff en 1886, provient de la différence de pression qui se manifeste entre un milieu moins salé et un autre plus salé, ce qui se traduit par la transformation de l’énergie chimique présente en énergie mécanique.

Depuis des décennies, chercheurs et ingénieurs tentent d’exploiter la différence de salinité entre l'eau douce et l'eau de mer pour produire de l'énergie renouvelable. Néanmoins, les faibles rendements des techniques actuelles, de l’ordre de 3 watts du m2, constituent un frein à son utilisation. La première centrale osmotique au monde a été mise en service à Hurum en Norvège fin 2009. D’une surface de 2000 m2, elle produit environ 1 MW par an. Au niveau mondial, le potentiel exploitable de cette énergie osmotique a été évalué à au moins 1 600 TWh par an, ce qui est considérable et représente 15 % de la production mondiale d’électricité ou encore trois fois la production électrique totale de la France.

Reste que les surfaces très importantes nécessaires – de l’ordre de 250 000 m2 pour produire seulement un MWh par an constituent un sérieux frein au développement à grande échelle de cette énergie peu connue. Mais cet obstacle pourrait être levé grâce aux remarquables travaux d’une équipe de physiciens de l'Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l'Institut Néel (CNRS). Ces chercheurs explorent une nouvelle voie pour récupérer cette énergie : l'écoulement osmotique à travers des nanotubes de Bore-Azote permet de générer un courant électrique géant avec une efficacité plus de 1 000 fois supérieure à celle atteinte jusqu'ici. En février 2013, cette équipe a présenté dans la prestigieuse revue Nature son dispositif expérimental de transport osmotique des fluides à travers un nanotube unique (Voir Nature) qui montre que l’'intensité du courant traversant le nanotube de Bore-Azote est de l'ordre du nanoampère, soit plus de mille fois celui produit par les autres méthodes cherchant à récupérer l'énergie osmotique.

Les nanotubes de Bore-Azote permettent donc de réaliser une conversion extrêmement efficace de l'énergie contenue dans les gradients salins en énergie électrique directement utilisable. En extrapolant ces résultats à une plus grande échelle, une membrane de 1 mètre carré de nanotubes de Bore-Azote aurait une capacité d'environ 4 kW et pourrait alors produire 30 MWheure par an, c’est-à-dire 1000 fois plus d’énergie que les centrales osmotiques en service aujourd'hui. Avec un tel rendement, il suffirait alors d’une centrale d’environ 250 000 m2 pour produire chaque année autant d’électricité qu’un réacteur nucléaire moyen actuel (7 TWh par an).

Une autre source considérable d’énergie est présente dans les océans sous forme d’énergie thermique qu’il est possible d’exploiter et de récupérer dans certaines zones marines tropicales qui se caractérisent par une très grande différence de température entre les eaux de surface et les eaux profondes. Le potentiel global de production de l’énergie thermique des mers dans le monde pourrait atteindre 10 000 TWh/an selon une étude de l’AIE-OES, soit plus de 40 % de la consommation mondiale actuelle d’électricité.

Il était impossible de faire ce rapide tour d’horizon des énergies marines sans évoquer également l’énergie marémotrice qui utilise le mouvement de l’eau provoquée par les marées pour produire de l’électricité. La France, avec la célèbre usine marémotrice de la Rance, mise en service en 1966, est en effet pionnière dans ce domaine. Mais en dépit d’un potentiel énergétique récupérable important (de 100 à 400 Twh par an selon les études), cette forme d’énergie reste complexe à utiliser au niveau industriel car les sites rentables et exploitables sont assez peu nombreux dans le monde et nécessitent en outre des centrales de très grande dimension ayant un impact non négligeable sur l’environnement.

On le voit, les mers et les océans recèlent, sous différentes formes renouvelables, des quantités absolument phénoménales d’énergie que l’homme commence à peine à apprivoiser. À ce défi que représentent l’ampleur et le rythme de la transition énergétique que le monde va devoir réaliser pour parvenir à maîtriser le changement climatique en cours, nous devons élargir notre vision et comprendre que l’avenir énergétique et économique de la planète se jouera aussi sur les mers. Les grandes puissances, qu’il s’agisse des États-Unis, de la Russie du Japon et surtout de la Chine, sont d’ailleurs parfaitement conscientes de cet enjeu maritime majeur et s’affrontent de manière de plus en plus rude depuis quelques années dans le but avoué d’étendre leur espace maritime souverain et d'en exploiter toutes les ressources.

Après avoir pendant des millénaires permis la circulation des hommes et des marchandises, la mer deviendra au cours de ce siècle un prodigieux et inépuisable réservoir de richesses matérielles et énergétiques et se transformera également en lieu de travail et de vie pour des dizaines et peut-être des centaines de millions d’hommes. Notre pays, avec son domaine maritime tout à fait exceptionnel de plus de 11 millions de kilomètres carrés et son savoir-faire technologique et industriel, ne doit pas laisser passer cette opportunité unique et doit prendre la tête de cette mutation de civilisation qui aura le grand large comme nouvel horizon.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le mobile devient un outil de contrôle médical
Vendredi, 17/06/2016 - 13:39

Pour rendre l’e-health accessible au plus grand nombre, les chercheurs de l’Université de Washington ont créé SpiroCall, un service de mesure de ses fonctions pulmonaires par téléphone. Le patient compose le 1-800 puis inhale et exhale le plus fort possible, comme lors d’un test chez le médecin. Le microphone enregistre le son et la pression de la respiration, puis envoie ces données vers un serveur. Utilisant algorithmes et machine learning, le serveur convertit l’enregistrement en mesures standard. Le patient reçoit par la suite ses résultats par sms.

Testé en Inde, au Bangladesh mais aussi à Seattle et Tacoma, le processus répond aux normes de précisions médicales avec une marge d’erreur de 5 à 10 %, « acceptable » selon les chercheurs. Un spiromètre classique, outil de mesure de la respiration, ne comporte finalement qu’un micro et un traiteur de mesures. Tous les téléphones (fixe, mobile, cabines téléphoniques…) disposant d’un microphone, ils peuvent se transformer en spiromètres. Pour rendre le test plus précis et réduire la marge d’erreur, SpiroCall a également imprimé un sifflet en 3D qui aide les patients les plus gravement atteints à réaliser le test.

Les maladies respiratoires chroniques comme l’asthme exigent un suivi régulier qui n’est pas toujours possible dans certaines zones peu médicalisées. La technologie SpiroCall cherche les autres mesures possibles par téléphone afin d’apporter une solution aux déserts médicaux.

Article rédigé par Georges Simmonds pour RT Flash

News Medical

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot médical qui s'avale comme une capsule
Jeudi, 23/06/2016 - 10:58

Des chercheurs du MIT ont mis au point un micro robot qui, une fois ingéré par le patient, se déploie et permet de réaliser une opération chirurgicale. Ces scientifiques ont pour le moment testé leur robot sur un modèle de l’œsophage et de l’estomac réalisé en élastomère silicone. Le micro robot s’est révélé capable de déplacer une petite pile bouton…

L’expérimentation est en fait une retombée des recherches menées par une équipe spécialisée dans les micro robots dits "origami", qui se mettent en forme tous seuls, par exemple quand on les chauffe. C’est ce que fait le petit dispositif inventé au MIT, plié dans un volume de la taille d’une capsule pharmaceutique, et qui se déploie quand la capsule le libère dans le corps.

Le robot est constitué de 3 couches, dont l’une, celle du milieu, se contracte quand on la chauffe. Le matériau contient aussi un petit aimant, et c’est en utilisant un champ magnétique extérieur que l’on déplace le micro robot.

Les chercheurs du MIT ont déjà réalisé plusieurs générations de ces robots origami, avec des polymères de synthèse. Mais pour cette version ingérable, ils ont dû opter pour des matériaux bio dégradables. La couche interne est un film plastique biodégradable (biolefin), tandis que les deux couches externes ont été réalisées avec des parois de boyaux de porc, comme celles utilisées pour fabriquer des saucisses.

L'un des scénarios envisagés est par exemple de commander à distance le robot miniature pour capturer des substances nocives présentes dans l'estomac - un test a été effectué avec une pile bouton par exemple - voire de soigner des blessures. Daniela Rus, professeur au MIT qui dirige le laboratoire en science de l'informatique et de l'intelligence artificielle, ajoute que « Pour des usages à l'intérieur du corps, nous avons besoin d'un petit système robotique contrôlable à distance sans fil. C'est très difficile de contrôler et de placer un robot dans le corps si ce dernier est relié à une attache ».

Article rédigé par Georges Simmonds pour RT Flash

MIT

Quand deux robots s’entraident pour surmonter des obstacles…
Vendredi, 17/06/2016 - 13:44

Des chercheurs de l’Université de Californie à Berkeley se sont inspirés du comportement collaboratif des fourmis sauteuses d’Australie pour mettre au point des prototypes de petits robots capables de s’entraider, afin de réaliser certaines tâches qu’ils ne pourraient accomplir seuls.

Baptisés VelociRoACH, pour velocity robotic autonomous crawling hexapod, ces robots de 10 cm de long travaillent par paire de manière à escalader une marche de 6,5 cm de haut, qu’ils ne pourraient gravir seuls sans avoir recours à la coopération. Dans les détails, le premier robot identifie l’obstacle puis commence à l’escalader.

Le second robot, équipé d’un connecteur magnétique et d’un treuil, va en quelque sorte "foncer" dans le premier robot pour lui donner une impulsion et l’aider à gravir le reste de la marche. Une fois que le premier robot s’est hissé sur le haut de la marche, il tire le second robot grâce au treuil. Les deux robots restent connectés en permanence grâce à la longueur du treuil qui peut être modulée selon les étapes.

Pour l’instant, plusieurs tentatives restent nécessaires, avant que les deux robots parviennent à coopérer correctement. Les chercheurs prévoient donc de renforcer la fiabilité du comportement collaboratif par des améliorations logicielles. Ils espèrent également augmenter le nombre de robots impliqués dans ce jeu de collaboration. Autre piste de développement : la coopération de robots terrestres et aériens.

A plus long terme, les auteurs de l’étude estiment que ce dispositif pourrait être particulièrement utile pour des missions de secours ou de cartographie après une catastrophe ou un désastre naturel. Les robots de petite taille ont, en effet, la capacité de se mouvoir avec aisance dans des endroits exigus. Par ailleurs, leur faible coût de fabrication permet d’envisager des déploiements à grande échelle, avec des dizaines, voire des centaines d’unités.

Article rédigé par Georges Simmonds pour RT Flash

Robotics

^ Haut
Matière
Matière et Energie
Des cellules solaires en pérovskite qui s’auto-réparent
Mercredi, 22/06/2016 - 07:20

Les performances des pérovskites diminuent lorsque celles-ci sont exposées au soleil ? une propriété peu enviable pour des matériaux que les chercheurs espèrent voir un jour se substituer au silicium au cœur des panneaux photovoltaïques ! Mais, selon une collaboration franco-américaine, incluant deux chercheurs du CNRS - Claudine Katan - et de l’INSA - Jacky Even - de Rennes, le problème pourrait se résoudre de lui-même. Leurs travaux révèlent en effet que les pérovskites s’auto-réparent et qui plus est, très rapidement. Pour obtenir cet effet, il suffit… de plonger les cellules dans le noir.

Les pérovskites, à l’image des nanotubes de carbone ou du graphène, sont de ces matériaux - à structure cristalline dont le rendement de conversion photoélectrique dépasse à présent les 22 %, ce qui permet à ce matériau de concurrencer le silicium qui reste l’acteur principal du marché photovoltaïque et dont le rendement moyen se situe autour des 25 %.

L’intérêt pour les pérovskites est d’autant plus grand qu’elles sont faciles à fabriquer et à mettre en œuvre. Ainsi, le silicium demande à être porté à quelque 3.000°C. Les pérovskites, en revanche, peuvent être mises en forme à température ambiante et à l’aide du procédé relativement simple dit d’enduction centrifuge (spin coating). De quoi réduire drastiquement les coûts de production des cellules photovoltaïques.

Néanmoins, pour qu’une filière pérovskite puisse se développer au niveau industriel, il faudra faire sauter quelques verrous. Et pas des moindres. Car il a été observé que les performances des cellules pérovskites se dégradent sous illumination, c’est-à-dire en condition réelle d’utilisation. Pour lever cet obstacle, les équipes américaines de Los Alamos ont d’abord travaillé à la mise au point d’une technique permettant d’obtenir des matériaux d’une qualité intrinsèque telle qu’elle évacue les dégradations irréversibles qui avaient pu être observées par le passé.

Dans leur étude, les chercheurs se sont intéressés à une pérovskite dite hybride, car elle est constituée à la fois d’un réseau d’atomes inorganiques et de petites molécules organiques. Pour être plus précis, ils se sont intéressés à la pérovskite organométallique de formule chimique CH3NH3PbI3. Selon ces chercheurs, ce mécanisme d’autoréparation des pérovskites serait dû à la formation de polarons qui sont des charges électriques particulières qui dégradent le courant électrique.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Nouveau record d'efficacité pour des cellules solaires sans silicium
Vendredi, 17/06/2016 - 13:55

Les panneaux photovoltaïques actuels sont assez efficaces mais restent chers à produire car ils contiennent des métaux et matières rares. Pour les remplacer, les cellules au cuivre, zinc, étain et soufre (CZTS) apparaissent comme la meilleure solution. Seul problème, jusqu’à présent leur rendement reste moins important que les cellules plus habituelles, au silicium. L’équipe du Docteur Xiaojing Hao de l’Australian Centre for Advanced Photovoltaics (ACAP) vient d’atteindre, en avril 2016, un rendement record de 7,6 % pour des cellules d’un cm². L’équipe indiquait des rendements de 5,5 % en 2013 puis de 6,6 % en 2015. Elle pense d’ailleurs pouvoir atteindre les 20 % de rendement en quelques années, ce qui permettrait la mise sur le marché mondial de cette technologie.

Les industriels se sont déjà emparés de ce type de cellules fines et ont investi dans des infrastructures d’expérimentation. Toyota a ainsi pu atteindre 9,1 % d’efficacité pour des cellules de 0,25 cm². Mais la taille des cellules joue énormément. Plus elles sont grandes, plus il est difficile d’obtenir des structures uniformes et donc de bons résultats. Les avancées de l’ACAP sont donc les plus encourageantes.

Les CZTS semblent avoir tout pour elles. Elles font partie des cellules photovoltaïques dites fines. Elles mesurent 1 à 5µm d’épaisseur face aux 200 à 350 µm de celles qui utilisent du silicium. Aujourd’hui 87 % des panneaux installés sont fabriquées avec des cellules contenant du silicium. Ils atteignent un rendement moyen de 21 %. L’un des avantages des cellules fines est qu'elles peuvent être utilisées sur tous types de supports contrairement aux précédentes, des surfaces incurvées, transparentes, ou en superposition d’autres matériaux. Les cellules CIGS et CdTE font partie de cette catégorie et sont déjà bien utilisées par les industriels. Elles restent cependant assez chères. Les CIGS sont constituées d’indium, un métal qui a vu son prix s’envoler suite à sa large utilisation dans les écrans plats LCD et par suite sa raréfaction.

Les CZTS résolvent toutes les questions de pénurie et de toxicité. Elles reviennent d’ailleurs cinq fois moins cher que les CIGS. Avec un retour de 30 ans d’expérience sur les autres cellules fines, le Docteur Xiaojing Hao est très confiante sur leur progression à venir.

Article rédigé par Georges Simmonds pour RT Flash

ACAP

Science Daily

^ Haut
Espace
Espace et Cosmologie
Ondes gravitationnelles : et de deux !
Mardi, 21/06/2016 - 12:57

Le 26 décembre 2015, les détecteurs Advanced LIGO ont enregistré un nouveau signal d'ondes gravitationnelles, trois mois après la première détection. Cette nouvelle vague gravitationnelle provient, comme la première, de la fusion de deux trous noirs.

Selon cette nouvelle observation, la masse des trous noirs était 8 et 14 fois celle du Soleil (contre 29 et 36 pour la première détection du 14 septembre 2015). Comme les trous noirs étaient plus légers, leur rapprochement a été moins rapide (le signal dure environ une seconde, contre 0,2 seconde pour le précédent).

Le nombre d'orbites observées avant la fusion est donc beaucoup plus important que lors de la première observation, ce qui permet de tester de manière différente et complémentaire la théorie de la relativité générale élaborée par Albert Einstein. Cet événement s'est produit à environ 1,4 milliard d'années-lumière de la Terre ; autrement dit, les ondes gravitationnelles se sont propagées dans l'espace pendant 1,4 milliard d'années avant d'être décelées par les deux détecteurs d'Advanced LIGO, situés en Louisiane et dans l'État de Washington (États-Unis). Ce deuxième événement confirme que les couples de trous noirs sont relativement abondants.

A terme, l'analyse de ce genre d'observation pourra permettre de comprendre l'origine des couples de trous noirs : sont-ils issus d'un couple d'étoiles ayant chacune évolué en trou noir ou un trou noir est-il capturé par l'autre ? Pour cela, il faudra un échantillon d'observations plus conséquent – ce que promettent les redémarrages d'Advanced LIGO puis d'Advanced Virgo, à l'automne 2016. En effet, comme l'a démontré la première période de prise de données des détecteurs Advanced LIGO, les ondes gravitationnelles deviennent un nouveau moyen d'explorer l'Univers et l'interaction fondamentale qu'est la gravitation.

Article rédigé par Georges Simmonds pour RT Flash

APS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un champignon hallucinogène contre la dépression
Mercredi, 22/06/2016 - 07:48

Selon une étude anglaise réalisée par des chercheurs de l'Imperial College de Londres, la psilocybine contenue dans les champignons hallucinogènes pourrait venir enrichir la panoplie thérapeutique contre la dépression.

Les champignons hallucinogènes, on les retrouve dans diverses cultures, dans des peintures datant de 7000 av. J.-C. et dans certaines présentations mayas de 500 av. J.-C. Les effets psychoactifs de ces champignons ont été découverts en 1955, la psilocybine a été mise en évidence en 1958 par Albert Hofmann, un chimiste suisse. La jeunesse européenne s’est emparée de ces champignons au début des années 2000. En France, ils sont inscrits sur la liste des stupéfiants depuis 1990.

Les premiers effets sur l’organisme après l’ingestion se font sentir au bout d’environ trente minutes et plus de 24 heures après, on peut encore en ressentir les conséquences. Les recherches actuelles se penchent sur la molécule, la psilocybine et son potentiel contre les troubles obsessionnels du comportement, l’algie vasculaire faciale et le traitement de l’anxiété, la dépression.

Dans cette étude menée sur un petit groupe de volontaires atteints d’une dépression sévère, les patients ont reçu de la psilocybine durant deux jours puis les personnes ont été suivies plus de trois mois. Les patients ont ressenti une amélioration de leur état dépressif alors que les traitements qui leurs étaient prescrits auparavant n’avaient que très peu d’effets positifs sur la maladie.

Au bout de trois mois, cinq personnes ont même été considérées comme étant en rémission. D’autres études vont être réalisées afin de persévérer après ces premiers résultats encourageants, afin d’inclure cette molécule dans de futurs traitements contre les dépressions sévères.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Infections nosocomiales : quand le smartphone remplace les cultures
Mercredi, 22/06/2016 - 07:40

Avec un patient sur vingt touché à l'occasion d'une hospitalisation, les infections nosocomiales sont le fléau des hôpitaux et provoquent au moins 4 000 morts par an en France. Une équipe de chercheurs du Massachusetts General Hospital vient de mettre au point un système innovant pour détecter la bactérie qui est à l’origine de chaque infection. D’ordinaire, trois à cinq jours sont nécessaires aux laborantins pour que les cultures puissent révéler les pathogènes. Le PAD (Polarization Anisotropy Diagnostics) permet la détection de la bactérie responsable via un prélèvement analysé dans une petite boîte reliée à un smart device (tablette, ordinateur ou smartphone).

Avec ce système, la culture de bactéries est remplacée par un autre procédé appelé anisotropie de fluorescence, dont les données finales sont communiquées au smartphone via un système optique. Pour deux dollars et en deux heures seulement, n’importe quel patient peut être soigné, même en dehors de l’hôpital. L’union de la médecine et des nouvelles technologies a de beaux jours devant elle !

Article rédigé par Georges Simmonds pour RT Flash

UPI

Démences et Alzheimer : nouvelle théorie impliquant le système immunitaire
Mercredi, 22/06/2016 - 07:35

Des chercheurs australiens ont développé une nouvelle théorie des causes de la démence et d'autres maladies neurodégénératives impliquant un « système immunitaire hors de contrôle ». Ces travaux menés par Robert Richards de l'Université d'Adelaide et ses collègues ont réuni des données suggérant fortement que le déclin neurologique commun à ces maladies est causé par une réaction inflammatoire persistante du système immunitaire qui provoque la mort de cellules cérébrales.

Les chercheurs ont, jusqu'à récemment, surtout mis l'accent sur le rôle des dépôts de protéines appelées plaques amyloïdes. Mais il est maintenant clair qu'il s'agit d'une explication inadéquate de la maladie d'Alzheimer, estiment-ils. Il y a plusieurs formes distinctes de neurodégénérescence dont la maladie d'Alzheimer, de Parkinson et la maladie de Huntington. Ces maladies se distinguent par les différents types de cellules nerveuses qui sont initialement affectées et les premiers symptômes qui apparaissent. Mais, à mesure que toutes ces maladies progressent, elles deviennent plus semblables.

Au lieu de nombreux mécanismes différents, chaque maladie a le même mécanisme sous-jacent et une voie commune de perte de cellules nerveuses, croit le chercheur. « Nous avons commencé à soupconner le système immunitaire inné d'être responsable de ces pathologies quand nous avons découvert que des agents du système immunitaire étaient activés dans un modèle de laboratoire de la maladie de Huntington », dit-il.

Le système immunitaire inné est la première ligne de défense dans les cellules. Il distingue normalement les molécules qui appartiennent au corps des molécules étrangères. Des dysfonctionnements peuvent se produire en raison de divers déclencheurs tels que des mutations génétiques, des infections, des toxines ou des blessures physiques, qui ont toutes été liées à différentes formes de neurodégénérescence. Initialement, le système immunitaire inné protège le tissu contre ces déclencheurs, mais l'activation prolongée devient auto-entretenue, entraînant la mort des cellules cérébrales.

« Nous espérons que cette nouvelle façon de comprendre la neurodégénérescence conduit à de nouveaux traitements », explique le professeur Richards. « Nous devons maintenant étudier davantage les molécules de signalisation immunitaire, identifier de nouvelles cibles pour les médicaments qui retarderont ou arrêteront la progression de ces maladies. »

Article rédigé par Georges Simmonds pour RT Flash

Frontiers in Neuroscience

IBM dévoile sa molécule tueuse de virus
Mercredi, 22/06/2016 - 07:28

On le sait, la mise au point de nouveaux traitements contre les virus se heurte à l'étonnante capacité de ces micro-organismes a muter régulièrement. C'est à cause de ces mutations que le virus contre la grippe n'est pas toujours si efficace ou que la communauté scientifique a tant peur d'Ebola.

Mais des chercheurs d'IBM et de l'Institut de bioingénierie et de nanotechnologies de Singapour affirment avoir trouvé un moyen de détruire tous les virus, en faisant fi des mutations. Pour fabriquer ce tueur de virus parfait, les chercheurs ne se sont pas attaqués au coeur même du virus (son ARN ou ADN), mais plutôt à la périphérie. Comment ? En ciblant les "glycoprotéines", qui se situent autour de tous les virus. Ce sont elles qui s'arriment aux cellules saines et permettent ainsi au virus de les contaminer.

La macromolécule (un énorme assemblage de molécules réalisé en laboratoire) créée par IBM va fonctionner en plusieurs étapes. D'abord, elle va s'attacher à ces glycoprotéines, empêchant ainsi les virus de s'attaquer à d'autres cellules. La macromolécule dispose d'une autre arme offensive, qui va réduire à néant l'acidité du virus. Grâce à cette opération, le virus aura beaucoup plus de mal à se répliquer.

Enfin, le tueur de virus a une dernière arme, défensive cette fois. Car elle peut certes s'accrocher sur un virus, mais également sur une cellule immunitaire, en utilisant un sucre bien particulier, appelé mannose. La macromolécule va alors guider la cellule immunitaire vers le virus pour le détruire, tout en empêchant la contamination de la cellule.

Les chercheurs ont essayé leur arme de destruction massive sur plusieurs virus. Celui de la grippe, du chikungunya, d'Ebola ou encore de l'herpès. Le nombre de virus a été réduit et les cellules ont bien été protégées. Bref, aucun signe de résistance de la part des virus n'a été relevé.

Reste à présent à passer aux essais cliniques sur des animaux, puis sur des hommes pour prouver que cette macromolécule est efficace en dehors des laboratoires et s'assurer qu'elle est inoffensive pour le patient. De plus, il faut bien comprendre que pour le moment, la macromolécule n'est efficace que sur un virus qui n'a pas encore contaminé une cellule, c'est donc plutôt un moyen de prévention.

A court terme, IBM voudrait utiliser cette macromolécule sur des lingettes antivirales ou avec des sprays. "Si vous avez un certain nombre de patients d'Ebola dans un hôpital et que vous voulez contrôler l'infection, vous pourriez brumiser la salle avec des macromolécules en suspension dans l'eau. Elles devraient se lier au virus et empêcher de nouvelles infections", affirme James Hedrick, l'un des chercheurs d'IBM ayant travaillé sur le projet. La société espère que d'ici 2018 à 2023, ce type de produits antivirus et des vaccins basé sur cette macromolécules pourrait voir le jour.

Article rédigé par Georges Simmonds pour RT Flash

Macro

Le stress pendant la grossesse peut être favorable à l'enfant
Mardi, 21/06/2016 - 13:52

Des chercheurs de l'Université de Bâle en Suisse viennent de montrer que le stress, s'il est ni aigu ni chronique, peut avoir des effets plutôt bénéfiques sur le bébé en l'aidant par exemple à faire face aux défis et aux adversités de la vie.

Ces psychologues ont suivi 100 mères et leurs bébés pendant et après la grossesse. Pour les besoins de l'étude, ils ont recueilli le sang du cordon ombilical de 39 nouveau-nés et évalué les niveaux de cortisol, l'hormone du stress, dans les échantillons de salive des mères. Enfin, des questionnaires ont permis d'identifier la santé mentale des mères ainsi que les événements stressants auxquels elles ont fait face.

D'après les résultats, l'augmentation des concentrations d'hormones de stress chez la mère et les symptômes dépressifs pendant la grossesse peuvent s'accompagner de changements épigénétiques chez l'enfant. Ces observations ont notamment été faites sur le gène du récepteur de l'ocytocine, une hormone impliquée dans l'attachement, le comportement social et l'adaptation au stress.

Selon l'étude, les enfants de mères qui présentent une augmentation du stress et des symptômes dépressifs montrent en effet une activation plus facile de ce gène, ce qui conduit à une production plus élevée des récepteurs de l'ocytocine. L'activation de ce gène peut conférer au bébé, dans certains cas, une plus grande résilience pour faire face aux défis et aux adversités de la vie.

Son activation favorise aussi le lien mère-enfant, le comportement social et renforce l'induction du travail et l'allaitement. En conclusion, un environnement défavorable et des émotions négatives peuvent activer certains mécanismes de protection positifs chez l'enfant.

Article rédigé par Georges Simmonds pour RT Flash

Oxford Journals

Une nouvelle étape vers une possible guérison du SIDA
Mardi, 21/06/2016 - 13:46

Des chercheurs du département de virologie moléculaire et de thérapie génique de l'Université de Louvain (KU Leuven) avaient découvert en 2010 des inhibiteurs du VIH empêchant l'intégration de ce virus dans le matériel génétique de l'être humain, où il est censé se multiplier.

Ils ont à présent démontré qu'avec un tel traitement le virus aboutissait alors dans des endroits du génome où une multiplication n'est plus possible, ce qui laisse dès lors augurer de bonnes perspectives en matière de guérison. Le virus du VIH utilise en particulier la protéine cellulaire LEDGF afin de s'implanter dans le matériel génétique, où il peut alors se propager et rendre le patient malade.

En outre, même après l'arrêt du traitement, aucun nouveau virus ne voit le jour.

Ces résultats doivent encore être confirmés durant des essais avec des souris et plus tard lors d'études cliniques sur des êtres humains. "Si cela fonctionne, nous serons alors vraiment sur le chemin d'une percée", indique le professeur Zeger Debyser, expliquant qu'un tel traitement semble faire davantage que simplement inhiber le virus du VIH.

Article rédigé par Georges Simmonds pour RT Flash

SIB

Une activité physique régulière réduirait le risque d'une grande variété de cancers
Mardi, 21/06/2016 - 13:03

Selon une étude américaine de l'Institut américain de Recherche sur le Cancer, pratiquer une activité physique, entre modérée et soutenue, permettrait de réduire sensiblement les risques intrinsèques de 13 types de cancers. On estime qu'aux États-Unis, 51 % des adultes ne font pas assez d'exercice pour rester en bonne santé, c’est-à-dire 150 minutes d’activité physique par semaine, précisent les chercheurs.

De nombreuses études ont analysé le lien entre activité physique et réduction du risque de développer un cancer du côlon, du sein et de l'endomètre - le tissu tapissant l'utérus. Mais les résultats n'ont pas été concluants pour les autres types de tumeurs en raison du trop petit nombre de participants à ces travaux, notent les auteurs de la nouvelle étude.

Ces derniers ont, eux, travaillé sur des données provenant de 1,44 million de personnes âgées de 19 à 98 ans aux États-Unis et en Europe. Les participants ont été suivis pendant onze ans en moyenne, une période durant laquelle 187.000 nouveaux cas de cancer ont été diagnostiqués.

Leur étude a non seulement confirmé le lien déjà mis en évidence entre un degré soutenu d'exercice et la plus forte baisse du risque de cancer colorectal, du sein et de l'endomètre mais aussi avec dix autres tumeurs. Les chercheurs ont ainsi détecté une réduction du risque pour les cancers suivants : œsophage (-42 %), foie (-27 %), poumon (-26 %), rein (-23 %), estomac (-22 %), endomètre (-21 %), sang (-20 %), côlon (-16 %) et sein (-10 %).

Dans la plupart des cas, le lien entre activité physique et baisse du risque de cancer a subsisté quel que soit le poids de la personne et qu'il s'agisse d'un fumeur ou non. Pour l'ensemble des cancers, la baisse du risque résultant d'un exercice régulier vigoureux a été de 7%. 

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Des chercheurs américains mettent au point une peau synthétique
Mardi, 21/06/2016 - 11:01

Des chercheurs de Harvard et du MIT (Massachusetts Institute of Technology) ont présenté un nouveau biomatériau baptisé XPL, agissant comme une sorte de seconde peau. Il s'agit d'un film transparent invisible extrêmement fin qui redonne à la peau son élasticité, lui permet de conserver son eau, ce qui revient à l'hydrater - sans crème - tout en la laissant respirer.

Ce produit se compose de deux crèmes. La première est constituée de polymères (de longues chaînes répétant un même motif moléculaire) assez libres les uns des autres. La deuxième agit ensuite comme un réactif. Elle va forcer les chaînes à s'associer entre elles pour former un maillage, donnant naissance à une fine pellicule quasi indétectable à la surface de l'épiderme.

La petite société Living Proof, spécialisée dans les biotechnologies, aurait testé une centaine de formulations différentes avant d'opter pour un type de silicone (des polymères contenant du silicium et de l'oxygène) et un réactif donné (de composition secrète).

L'adhérence à la peau était un enjeu clé. La seconde peau peut tenir en place plus d'une journée, assurent les chercheurs, et en conditions "extrêmes" : chaleur, sport, pluie, piscine, elle a résisté à tout. Un dissolvant spécial permet de l'enlever quand il devient nécessaire de la changer.

Concernant son efficacité, sa capacité à retenir l'eau est bien plus grande que celle des crèmes hydratantes ou raffermissantes classiques, selon l'étude. Et elle redonne deux fois et demie plus d'élasticité à la peau (évitant par exemple la formation de ces plis qui peinent à disparaître lorsqu'on pince la peau de personnes d'un certain âge). Le tout en laissant parfaitement l'épiderme respirer. Différents types de formulation permettraient de faire varier tous ces paramètres en fonction de l'effet désiré.

Les applications potentielles sont très nombreuses, que ce soit dans le domaine cosmétique ou médical. Les auteurs américains envisagent également de leur côté d'autres applications comme des crèmes solaires longue durée ou des dispositifs médicaux permettant d'administrer plus efficacement qu'une crème un produit actif (tel que la cortisone).

Article rédigé par Georges Simmonds pour RT Flash

MIT

Le daclizumab HYP fait mieux que l’interféron dans la sclérose en plaques
Mardi, 21/06/2016 - 10:55

Le daclizumab est un anticorps monoclonal humanisé. Son utilisation chez les patients atteints de sclérose en plaque (SEP) est basée initialement sur l’hypothèse qu’il antagonise directement les cellules T effectrices activées CD25+, longtemps impliquées en tant que médiateurs essentiels dans la pathogénie de la SEP. En se liant à CD25, le daclizumab module l’activation et la prolifération des cellules immunitaires.

Une forme à libération prolongée, le daclizumab HYP (high-yield process) a été développée, qui présente l’avantage de pouvoir être administrée seulement une fois par mois, par voie sous-cutanée. Un essai randomisé contre placebo a montré que le daclizumab était efficace en monothérapie menée pendant 1 an chez des patients atteints de SEP rémittente-récurrente.

Le New England Journal of Medicine a publié une étude randomisée contre placebo de phase 3 comparant l’efficacité du daclizumab à celle de l’interféron beta-1a. Au total, 1 841 patients atteints de SEP rémittente-récurrente ont été inclus et suivis pendant 144 semaines.

Les uns recevaient le daclizumab HYP à raison d’une injection sous-cutanée de 150 mg toutes les 4 semaines. Les autres recevaient l’interféron beta-1a à la dose de 30 μg en intra-musculaire 1 fois par semaine. Le résultat est clair : les patients ayant reçu le traitement par daclizumab HYP ont un taux annualisé de rechute inférieur de 45 % à celui qui est relevé chez les patients sous interféron.

Le nombre de lésions nouvelles ou récemment augmentées de taille est également réduit de 45 %. La différence de l’incidence de la progression de l’invalidité mesurée à 12 semaines est toutefois non significative entre les deux groupes, de 16 % sous daclizumab HYP et de 20 % sous interféron.

Reste que cette efficacité indéniable s’accompagne d’effets indésirables plus fréquents, avec un taux de 15 % pour les effets indésirables sévères chez les patients sous daclizumab HYP vs 10 % dans l’autre groupe.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top