RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 709
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Juillet 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Voir les sons grâce à des capteurs optiques
La plasmonique, future révolution de l'électronique ?
Convertir le CO2 en méthanol !
Des molécules photovoltaïques simples mais efficaces !
Espace
Découverte de trois planètes potentiellement habitables dans la proche banlieue du système solaire
Terre
Les aérosols réduiraient le rythme des tempêtes tropicales
Vivant
Le système nerveux central peut également se régénérer !
La consommation régulière de poulet réduirait le risque de cancer du côlon
Le blocage d’un récepteur cérébral préserve la mémoire des malades d'Alzheimer
Polluants alimentaires et obésité : un lien révélé
Le vaccin contre le papillomavirus confirme son efficacité en matière de protection contre le cancer du col de l'utérus
Dystrophie musculaire : identification d'un nouveau gène
Comment les cellules cancéreuses échappent-elles à la mort programmée ?
Des antibiotiques dopés à l'argent contre les bactéries résistantes
Grippe H7N9 en Chine : plus du tiers des patients sont décédés
Edito
Il serait tout à fait possible de produire la moitié de l’électricité mondiale à partir du soleil, de l’eau et du vent



Le 25 juin, le Président Obama a annoncé un plan d’une ambition et d’un volontarisme politique sans précédent pour réduire les émissions de gaz à effet de serre aux Etats-Unis et lutter contre le réchauffement climatique(Voir The White House et l'analyse du MIT).

Dans un discours historique, le Président américain a rappelé que 2012 avait été l'année la plus chaude jamais enregistrée aux Etats-Unis et que « Les Américains, partout dans le Pays, payent déjà le prix de l'inaction contre le réchauffement ». Il a poursuivi en soulignant que « La question est de savoir si nous aurons le courage d'agir avant qu'il ne soit trop tard et la manière dont nous répondrons aura un profond impact sur le monde que nous laisserons ...à nos enfants et nos petits-enfants ».

Le Président Obama a ensuite affirmé sa volonté de s'attaquer aux émissions de gaz à effet de serre produites par les centrales au charbon. Il s'est aussi engagé à promouvoir davantage les sources d'énergie propre et à agir pour mieux protéger les Américains des effets du réchauffement.

Concrètement, les Etats-Unis vont réduire leurs émissions de gaz à effet de serre de 17 % par rapport à leur niveau de 2005.

Pour atteindre ce nouvel objectif, le Président a demandé à l'Agence de protection de l'environnement (EPA) de travailler étroitement avec les Etats, l'industrie et les autres parties prenantes pour établir d’ici un an de nouvelles normes de pollution au gaz carbonique pour les centrales au charbon.

Barack Obama a également proposé huit milliards de garantie de prêts pour encourager des investissements dans des technologies innovantes dans les énergies fossiles et l'efficacité énergétique. Il a par ailleurs souhaité que six millions de foyers américains disposent d’une électricité issue des énergies renouvelables d’ici 2020.

L’ensemble de ces actions doit permettre, selon le Président américain, de réduire de moitié les émissions américaines de CO2 d’ici 2030. Ces 3 gigatonnes annuelles de CO2 en moins correspondent à 9 % des émissions mondiales de CO2 en 2012, ou encore aux trois quarts des émissions européennes de CO2.

Ce plan très ambitieux a immédiatement été salué par l’ancien vice-président Al Gore qui y voit « Le meilleur discours sur le climat jamais prononcé par un président ». Il a également obtenu un soutien enthousiaste de toutes les grandes associations américaines de protection de l’environnement et d’une très large partie de la communauté scientifique américaine

Il reste qu’au-delà des discours et des déclarations de bonne intention des responsables politiques, des états et des institutions internationales, comme l’ONU et le Giec, la réalité est tenace : au rythme actuel, le charbon deviendra la première source d’énergie mondiale d’ici 2020, dépassant le pétrole avec une consommation planétaire annuelle de 4,4 gigateps.

Mais, plus grave encore, le charbon assure aujourd’hui 40 % de la production mondiale d’électricité (70 % en Inde et 80 % en Chine) et cette part, selon les dernières prévisions de l’ONU, sera encore de 33 % en 2035, même si parallèlement, la part des énergies renouvelables dans la production électrique mondiale (en incluant l’hydraulique), qui est aujourd’hui de 20 %, devrait atteindre 25 % en 2020 et 30 % en 2035.

Actuellement, on estime que la consommation électrique annuelle dans le monde est légèrement supérieure à 20 000 TWh (pour une production de 22 000 TWh par an).

Même si l’électricité ne représente que 17 % de la consommation totale d’énergie dans le monde, loin derrière le pétrole (41,6 %), sa consommation est en forte augmentation. Au cours de 40 dernières années, cette consommation électrique mondiale a été multipliée par trois, alors que la consommation énergétique mondiale n’a été multipliée que par deux et atteint à présent 12,5 gigatonnes par an.

La consommation électrique de la Planète va continuer à augmenter fortement, sous l’effet mécanique de l’évolution démographique mondiale mais également du développement économique très important en Asie et de l’essor prévisible des véhicules électriques.

Selon l’A.I.E. (Agence Internationale de l’Energie), la production d’électricité, qui atteint aujourd’hui 22 000 TWh par an, pourrait atteindre 29 000 TWh en 2030 et devrait plus que doubler d’ici 2050, pour atteindre 43 400 TWh (pour une consommation finale de 39 000 TWh). L’AIE précise que 80 % de cette électricité supplémentaire seront consommés dans les pays émergents.

Le scénario énergétique de l’AIE montre également que la consommation moyenne annuelle d’électricité par terrien, en dépit des progrès en matière d’économie d’énergie et d’efficacité énergétique, risque d’augmenter de 64 % d’ici le milieu de ce siècle (et de 48 % par habitant, si l’on tient compte de l’augmentation de la population mondiale qui devrait atteindre 9,3 milliards d’individus en 2050).

Cette forte augmentation résultera à la fois de l’évolution de la démographie mondiale (2,3 milliards d’êtres humains en plus d’ici 2050), du développement économique et de l’augmentation du pouvoir d’achat et du niveau d’équipement ménager dans de vastes parties du monde. Ces facteurs combinés vont se traduire par une hausse du niveau d’équipement domestique dans de multiples domaines, électroménager, informatique, multimédia et climatisation… 

Mais il faut également prendre en compte un autre paramètre, souvent ignoré, dans les prévisions de forte augmentation de la production électrique mondiale d’ici 2050, celui de la montée en puissance des véhicules électriques. Or, si l’on admet l’hypothèse, relativement prudente, qu’il y aura au moins un tiers de véhicules électriques en 2050 (pour un parc mondial qui comptera au moins 2,5 milliards de véhicules à cette échéance), un rapide calcul permet d’évaluer à 1000 TWh par an les besoins spécifiques en électricité de ces véhicules.

Ces besoins en électricité peuvent sembler considérables en valeur absolue (ils représentent tout de même presque deux fois la production électrique annuelle de la France) mais ils sont en fait modestes en pourcentage, puisqu’ils ne représenteraient que 2,5 % de la production électrique mondiale prévue en 2050 par l’AIE. En revanche, ces 825 millions de véhicules électriques permettraient de réduire de plus d’un milliard de tonnes par an nos émissions de CO2 liées aux transports, ce qui contribuerait à l’indispensable réduction de nos émissions globales de carbone. 

Il faut savoir qu’aujourd’hui, en dépit d’une réelle montée en puissance des énergies renouvelables depuis 10 ans, les deux tiers de la production électrique mondiale sont encore assurés de manière thermique, à partir des énergies fossiles. Pire encore, à l’intérieur de cette production thermique d’électricité, le charbon se taille la part du lion, notamment en Chine, et représente plus de 60 % de l’énergie consommée.

Il faut également rappeler qu’au niveau mondial, contrairement à la situation qui prévaut en France, le nucléaire ne représente plus que 11 % de la production d’électricité et, sauf ruptures technologiques majeures, comme la maîtrise anticipée de la fusion thermonucléaire contrôlée et des réacteurs de quatrième génération à neutrons rapides permettant d’apporter une solution nouvelle à la question lancinante de l’élimination des déchets très radioactifs à longue vie, il est peu probable que la part du nucléaire augmente de manière sensible au cours de ces prochaines décennies.

L’utilisation de cette énergie, bien qu’elle présente l’immense avantage d’être très peu émettrice de gaz à effet de serre et de ne pas contribuer au réchauffement climatique, se heurte en effet de plus en plus à l’opposition, voire à l’hostilité des populations concernées.

En outre, la catastrophe majeure de Fukushima a notamment débouché sur l’adoption de normes de sécurité beaucoup plus draconiennes. Cette mise aux normes des centrales nucléaires a un coût très important qui constitue également un obstacle supplémentaire à son développement massif. Une étude du World Nuclear News, publiée il y a quelques jours, montre d’ailleurs que la production électronucléaire mondiale a régressé de 7 % depuis 2011, revenant à son niveau de 1999.

On estime qu’en 2012, environ 20 % de l’électricité mondiale ont été produits à partir d’énergies renouvelables (principalement l’hydraulique, avec 15 %, le solde, soit 5 % ayant été produits par la biomasse, le solaire et l’éolien).

Le problème est que, si la consommation électrique mondiale augmente en valeur absolue selon les prévisions de l’AIE, cela signifie que pour produire en 2050 la moitié de l’électricité mondiale à partir d’énergies renouvelables (hors nucléaire et hors hydraulique), il faudra, compte tenu de la très forte augmentation en valeur absolue de la demande électrique, et en supposant que les parts respectives du nucléaire et de l’hydraulique restent à peu près constantes, produire de manière propre autant d’électricité (21 700 TWh par an) que n’en consomme aujourd’hui chaque année toute la Planète !

Un tel objectif énergétique  -faire passer la production décarbonée d’électricité de 20 % à 80 % (en incluant l’hydraulique et le nucléaire) d’ici 2050- est pourtant indispensable si nous voulons réduire de moitié les émissions de CO2 au niveau mondial (ce qui suppose de les diviser au moins par trois dans les pays développés), pour redescendre à 16 gigatonnes de CO2 par an (contre 31,6 en 2011), seuil maximum que la Terre peut absorber, et éviter ainsi une catastrophe climatique de grande ampleur.

Pouvons-nous atteindre cet objectif qui suppose de passer de 4,5 tonnes d’émissions de CO2 par terrien et par an, en moyenne, à 1,7 tonne d’ici 2050 ?

La réponse à cette question n’est évidemment pas simple car elle dépend d’une multitude de paramètres technologiques, économiques, sociaux et politiques mais je crois néanmoins que ce défi n’est pas insurmontable et que nous pouvons le relever, à condition toutefois de ne pas nous enfermer dans des raisonnements et des schémas de pensée du passé et d’intégrer notamment la notion de « ruptures technologiques provoquées ».

Une étude remarquable et très argumentée réalisée en 2009 par deux éminents chercheurs de l'Université de Stanford, Mark Z. Jacobson et Mark A. Delucchi et intitulée "Assurer la totalité de l'énergie mondiale avec le vent, l'eau et l'énergie solaire (WWS)", montre qu’au milieu de ce siècle, 60 % de la consommation mondiale d’électricité pourraient être assurés par l’eau (9 %) et le vent (51 %), le solde, soit 40 %, étant fourni par l’énergie solaire.

Dans cette étude, les chercheurs ont même chiffré le nombre d’éoliennes nécessaires pour atteindre cet objectif. Il faudrait environ 3,8 millions d'éoliennes, d’une puissance unitaire de 5 MW.

S’agissant des centrales solaires, ces chercheurs ont calculé qu’il faudrait mettre en service environ 99 000 unités (d’une puissance unitaire moyenne de 300 MW), complétées par 900 installations hydroélectriques, dont les deux tiers sont déjà construites aujourd’hui.

Selon cette étude, cette vaste transition énergétique mondiale supposerait un investissement global de l’ordre de 70 000 milliards d'euros sur 20 ans, ce qui représente une dépense annuelle inférieure à 5 % du produit mondial brut pendant cette période (Voir Synthèse et article complet).

Toutefois, ces prévisions reposent sur un certain nombre d’hypothèses discutables. Elles tablent notamment sur une réduction globale de 30 % de la consommation mondiale d’électricité.

Or il n’est pas du tout certain, en dépit des progrès accomplis en matière d’économie d’énergie et d’efficacité énergétique, que la demande mondiale d’électricité augmente moins vite ou se stabilise d’ici 2050, surtout si l’on prend en compte la forte croissance démographique mondiale et la forte progression des différents équipements domestiques qui accompagnera très probablement l’augmentation du niveau de vie et du pouvoir d’achat des foyers en Asie et dans une large partie de l’Amérique latine.

Il m’a donc semblé intéressant de bâtir un scénario énergétique fictif, en partant volontairement des hypothèses les plus prudentes et les plus réalistes, pour évaluer ce que représente très concrètement la production « propre » (hors hydraulique et hors nucléaire), reposant principalement sur l’éolien, le solaire et les énergies marines, de la moitié de l’électricité mondiale en 2050, soit 21 700 TWh par an.

Bien qu’aujourd’hui la production d’électricité éolienne dépasse largement la production d’électricité solaire et marine, un nombre croissant de scientifiques s’accordent à considérer que dans 30 ou 40 ans, la majeure partie l’électricité propre pourrait être produite par l’énergie solaire (thermodynamique et photovoltaïque), si l’on intègre les ruptures technologiques majeures, déjà annoncées et en cours d’expérimentations, en matière de cellules photovoltaïques, avec notamment l’arrivée sur le marché, d’ici cinq à 10 ans de cellules souples organiques à faible coût de production et à haut rendement.

Il est donc réaliste d’imaginer un scénario énergétique mondial dans lequel, à l’horizon 2050, 30 % de la production électrique planétaire seraient assurés par l’énergie solaire, 20 % de cette production seraient assurés par l’éolien, essentiellement marin et 10 % par les énergies marines (courants marins, énergie des vagues, énergie thermique des mers et énergie marémotrice).

L’autre moitié de cette production électrique mondiale serait fournie pour 15 % par l’énergie hydraulique, pour 10 à 15 % par le nucléaire, pour 5 % par la biomasse, le solde, de l’ordre de 20 %, étant fourni par des énergies fossiles (principalement du gaz).

Dans ce scénario, qui permettrait une réduction de plus des deux tiers des émissions de CO2 liées à la production électrique, il faudrait donc produire 6 500 TWh à partir d’énergie solaire, 4 340 TWh, à partir de l’éolien et 2 170 TWh, à partir des énergies marines.

Un rapide calcul nous indique qu’il suffirait d’environ 33 000 km² de surface solaire photovoltaïque (dans des zones d’ensoleillement moyen et avec un rendement prévisible de l’ordre de 20 %) pour fournir cette électricité.

S’agissant de l’éolien, les 4 340 TWh (20 % de la production mondiale d’électricité) prévus, représenteraient, en faisant abstraction du parc éolien terrestre déjà installé, environ 1,5 million d’éoliennes marines géantes, d’une puissance unitaire de 10 MW, produisant chacune 30 millions de kilowatts heure par an en moyenne.

En supposant que ce vaste plan énergétique soit mis en œuvre à partir de 2015, il faudrait donc installer chaque année au niveau mondial environ 43 000 éoliennes marines et environ 950 km² de panneaux solaires photovoltaïques.

Quant aux 2 170 TWh (10 % la production électrique mondiale) qui seraient issus des énergies de la mer, ils représenteraient environ 16 % du potentiel énergétique mondial exploitable de l’ensemble des énergies marines (10 000 TWh pour l’énergie thermique des mers, 1600 TWh pour l’énergie osmotique, 1400 TWh pour l’énergie issue de la houle, 400 TWH pour l’énergie des courants marins et 400 TWH pour l’énergie des marées), estimé à 13 800 TWh par an, en prenant comme référence les estimations les plus prudentes.

Ce scénario énergétique, qui, pour être plus réaliste, se base volontairement sur l’hypothèse d’une forte croissance de la demande électrique mondiale et prend en compte les valeurs les plus basses du potentiel énergétique réellement exploitable des énergies solaires, éoliennes et marines, montre donc qu’il est tout à fait possible de produire d’ici 2050 la moitié de l’électricité mondiale à partir du soleil, de l’eau et du vent, énergies propres, gratuites et inépuisables.

Si l’on admet dans cette hypothèse que l’hydraulique et le nucléaire de prochaine génération puissent fournir au moins 30 % de l’électricité de la Planète, il ne restera que 20 % de l’électricité mondiale à produire à partir d’énergies fossiles. Mais encore, pour cette part difficilement réductible, faut-il préciser qu’elle pourrait être assurée essentiellement par le gaz naturel, qui émet deux fois moins de CO2 que le charbon et peut-être même par l’hydrogène qui n’émet pas du tout de gaz à effet de serre.

Toutefois, comme le montrent la plupart des études prospectives réalisées sur cette question de la transition énergétique mondiale, les obstacles à cette mutation énergétique sans précédent ne sont pas tant techniques qu’économiques et politiques.

Un basculement énergétique d’une telle ampleur en si peu de temps ne pourra être accompli qu’à condition de bénéficier d’un soutien massif et actif des opinions publiques et d’être accompagné par l’instauration progressive d’une taxe carbone universelle, qui intègre le vrai coût environnemental de l’utilisation des énergies fossiles.

Parallèlement, il faudra également supprimer l’ensemble des subventions publiques directes et indirectes dont bénéficient les énergies fossiles et qui rendent celles-ci artificiellement plus attractives sur le plan économique que les énergies renouvelables.

Nous devons également avoir bien présent à l’esprit, comme l’a montré de manière implacable le rapport de Sir Nicholas Stern, que le coût de l’inaction en matière énergétique, climatique et environnementale, serait infiniment plus important et désastreux pour l’espèce humaine toute entière que des dépenses d’investissement, certes élevées mais tout à fait supportables par l’économie mondiale.

Il appartient à présent aux citoyens de tous les pays du monde d’exercer une pression démocratique constante sur leurs dirigeants pour qu’ils se donnent enfin les moyens de relever ce défi de civilisation et laissent à nos descendants une planète vivable.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Voir les sons grâce à des capteurs optiques
Jeudi, 04/07/2013 - 09:30

Des chercheurs norvégiens du SINTEF (fondation pour la recherche scientifique et industrielle) ont mis au point un nouveau type de microphone capable d’enregistrer des sons de fréquences hyper-aiguës, non par détection de leur volume sonore mais en les visualisant directement.

Ces physiciens ont développé un capteur optique de seulement un millimètre de diamètre qui permet une détection spatiale très précise des sons hyper-aigus.

Employés dans une vidéoconférence, des micros équipés de ces capteurs peuvent "voir "précisément d'où provient le son et capter de manière très sélective, en éliminant le bruit de fond, la voix des différents interlocuteurs.

Ce système de visualisation du son exploite deux phénomènes optiques, l'interférence et la diffraction. Le capteur mis au point par les chercheurs norvégiens permet en effet d'enregistrer le son en mesurant les ondes lumineuses à partir d'un laser de taille microscopique.

Dans ce procédé, la pression acoustique est transformée en mouvements et ces derniers sont lus de manière optique, grâce à un détecteur photosensible. Il suffit alors de transformer ce signal optique en signal électronique pour reproduire le son initial.

Ce nouveau procédé technique très ingénieux permet de concevoir à un coût raisonnable des microphones bien plus sensibles et directifs que ceux disponibles actuellement sur le marché. En outre, cette nouvelle technologie permet de concevoir des microphones beaucoup plus petits, à sensibilité égale, que ceux disponibles aujourd'hui.

Cette rupture technologique pourrait donc trouver de multiples applications en matière de contrôle, de surveillance et de sécurité, notamment dans des lieux et installations sensibles, usines chimiques, banques ou centrales nucléaires.

Article rédigé par Georges Simmonds pour RT Flash

SINTEF

La plasmonique, future révolution de l'électronique ?
Mercredi, 03/07/2013 - 14:02

Les chercheurs du Centre Max Planck (Ecole polytechnique fédérale de Lausanne), dirigés par Klaus Kern, viennent de montrer que les orbitales moléculaires à la surface d’un métal se comportent comme de petits portails capables de contrôler les plasmons sur le plan spatial et énergétique.

Les plasmons sont des ondes électroniques qui se propagent à la surface d'un métal lorsque celui-ci est frappé par certains types de rayonnement lumineux.

Ces plasmons se propagent un peu à la manière des vagues et sont caractérisés par leur oscillation à différentes fréquences. L'étude de ce phénomène physique, la plasmonique, fait l'objet d'intenses recherches dans le monde car l'utilisation maîtrisée de ces plasmons pourrait permettre de combiner les signaux optiques et électroniques, tant en informatique que dans les réseaux de communication.

Néanmoins, l'utilisation de ces plasmons en électronique et en informatique est délicate et suppose une maîtrise parfaite des interfaces entre la nanoélectronique et la nanooptique. Les chercheurs du Centre Max Planck ont pu montrer que la maîtrise de ces phénomènes plasmoniques passait par les orbitales moléculaires individuelles et par l'utilisation de fonctions mathématiques qui décrivent les nuages d’électrons en formation.

Pour mieux comprendre la propagation de ces plasmons, les chercheurs ont utilisé un microscope à effet tunnel (STM) pour examiner des complexes d’iridium refroidi près du zéro absolu (5 degrés Kelvin). Ce type de microscope provoque des oscillations plasmoniques qui peuvent être observées dans un détecteur optique.

Ces expériences ont montré qu'il était possible de maîtriser le niveau d'excitation et les déplacements à l'aide d'une seule molécule. Les scientifiques ont en effet découvert que les niveaux d’énergie des particules se comportaient comme de minuscules portes qui déterminent la structure et l'évolution de ces plasmons. Ces recherches ouvrent donc la voie à un contrôle de la production de plasmons au niveau d’une seule molécule.

Ces travaux laissent entrevoir la possibilité de réaliser des nanocomposants plasmoniques à l’échelle moléculaire, ce qui permettrait de les intégrer sans difficultés techniques majeures dans les puces et circuits électroniques actuels.

Article rédigé par Georges Simmonds pour RT Flash

Nano Letters

Convertir le CO2 en méthanol !
Mardi, 02/07/2013 - 12:56

Des chercheurs de l’Université québécoise Laval, dirigés par le professeur Frédéric Georges Fontaine, ont mis au point une nouvelle méthode de conversion du CO2 en méthanol, un combustible pouvant être utilisé comme carburant automobile.

Partout dans le monde, de nombreux laboratoires cherchent à produire du méthanol à partir de dioxyde de carbone. La combustion du méthanol en présence d'oxygène produit du CO2 et de l'eau. Les scientifiques tentent donc de découvrir des catalyseurs qui produiraient la réaction inverse. "L'idée est de réduire nos émissions de CO2 liées au transport tout en obtenant un carburant qui puisse se substituer aux hydrocarbures d'origine fossile", précise le professeur Fontaine.

Le catalyseur expérimenté par ces chercheurs est composé de deux groupements. D'une part, le borane, un composé de bore, de carbone et d'hydrogène et, d'autre part, la phosphine, composée de phosphore, de carbone et d'hydrogène.

Contrairement aux catalyseurs existants utilisés pour transformer le CO2 en méthanol, ce catalyseur ne contient pas de métal, ce qui en réduit sensiblement les coûts de production.

En ayant recours à l'hydroborane (BH3), les chercheurs québécois ont pu provoquer une réaction chimique deux fois plus efficace qu'avec le meilleur catalyseur connu. Cerise sur le gâteau, cette réaction produit des déchets qui ne dégradent pas le catalyseur, qui peut donc être réutilisé.

Il reste cependant un obstacle de taille : la synthèse d'hydroborane consomme beaucoup d'énergie, ce qui en réduit sa rentabilité. Mais ces chercheurs pensent qu'il est possible de résoudre ce problème en optimisant la réaction et en faisant appel à d'autres sources d'hydrogène.

Article rédigé par Georges Simmonds pour RT Flash

JACS

Des molécules photovoltaïques simples mais efficaces !
Samedi, 29/06/2013 - 22:11

Des chercheurs de l'Institut des sciences et technologies moléculaires d'Angers sont parvenus à montrer que des molécules extrêmement simples, produites facilement, pourraient constituer des alternatives crédibles aux molécules plus complexes et aux polymères utilisés pour la fabrication de cellules solaires organiques.

Ces recherches ont permis de concevoir et de produire des molécules de faible poids moléculaire ayant un rendement électrique supérieur à 4 %. Ces travaux montrent également qu'en optimisant des molécules simples, il est possible de passer de la recherche fondamentale à la production industrielle de dispositifs solaires fabriqués à partir de molécules organiques.

Depuis 20 ans, de nombreux laboratoires dans le monde sont en compétition pour essayer de produire à faible coût et à un niveau industriel des cellules solaires constituées de molécules organiques ayant un rendement comparable à celles des cellules actuelles reposant sur le silicium.

Pour parvenir à cette rupture technologique, deux voies principales sont explorées : la première passe par l'utilisation de polymères. Le problème est que ces matériaux sont composés de chaînes de molécules de différentes longueurs, ce qui  peut entraîner des instabilités en termes de propriétés électroniques.

La seconde voie est celle empruntée par ces chercheurs de l'Institut Moltech-Anjou depuis 2005. Elle vise à utiliser des molécules organiques solubles dont la structure est précisément connue. Cette solution technique a abouti récemment à l'obtention de rendement de conversion électrique de l'ordre de 7 %, un niveau qui se rapproche du rendement des cellules à base de polymères.

Malheureusement, jusqu'à présent, ces molécules complexes nécessitaient plus d'une dizaine d'étapes différentes pour leur production. Pour surmonter cette difficulté, les chercheurs de l'Institut Moltech-Anjou ont recherché les molécules les plus simples présentant un effet photovoltaïque intéressant. Ils ont finalement décidé de concentrer leur travail sur un type de molécules à base de triarylamines, qui présentent l'avantage de pouvoir être synthétisées en peu d'étapes.

Ces scientifiques sont ensuite parvenus à optimiser certaines propriétés de ces molécules : capacité d'absorption de la lumière, niveaux d'énergie, stabilité notamment. Partant de ces "briques" très simples, les chercheurs ont ensuite effectué un travail d'ingénierie moléculaire qui consiste à ajuster et à modifier les liaisons et groupements chimiques.

Le résultat final de ces travaux a été l'obtention de molécules de faible masse moléculaire affichant un rendement de conversion électrique supérieur à 4 %, ce qui constitue le rendement le plus élevé obtenu à partir d'une structure de ce type.

Comme ces molécules peuvent être produites à faible coût, elles pourraient permettre rapidement de diminuer la complexité et le coût global de production des cellules photovoltaïques en limitant notamment le recours aux réactifs et solvants toxiques ainsi que l'utilisation de catalyseurs coûteux.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

^ Haut
Espace
Espace et Cosmologie
Découverte de trois planètes potentiellement habitables dans la proche banlieue du système solaire
Mardi, 02/07/2013 - 12:50

Une équipe internationale d'astronomes, dirigée par Guillem Anglada-Escudé de l'Université de Göttingen (Allemagne) et Mikko Tuomi de l'Université de Hertfordshire (Grande-Bretagne), a identifié autour du système Gliese 667, composé d’une étoile multiple, sept planètes dont trois planètes qui pourraient être habitables.

Les trois étoiles du système Gliese 667 sont situées dans la constellation du Scorpion à environ 22 années-lumière de la Terre, une distance très courte à l'échelle astronomique !

Gliese 667 comprend deux étoiles naines orange très brillantes et une troisième de masse plus faible, une naine rouge nommée Gliese 667c.

Cette nouvelle étude montre que trois des sept planètes que compte ce système solaire sont situées dans la zone dite "habitable", qui est représentée par une mince frange circulaire suffisamment lointaine de l'étoile pour permettre l'existence d'eau à l'état liquide.

« Cette planète est désormais la meilleure candidate pour abriter de l'eau liquide, et peut-être la vie telle que nous la connaissons » souligne avec enthousiasme Guillem Anglada-Escudé.

Selon les scientifiques, la planète Gliese 667Cc reçoit presque autant d'énergie de son étoile que la Terre du Soleil et sa température moyenne pourrait donc être comparable à la nôtre.

Article rédigé par Georges Simmonds pour RT Flash

ESO

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les aérosols réduiraient le rythme des tempêtes tropicales
Mardi, 02/07/2013 - 13:02

Depuis plusieurs décennies, les climatologue s'interrogent sur l'impact exact des aérosols en matière climatique. Ces particules modifient en effet le rayonnement solaire qui parvient à la surface de la Terre mais elles agissent également sur l'intensité des précipitations.

Des recherches effectuées par Nick Dunstone, du Met Office britannique, viennent de montrer que ces aérosols modifiaient la température de la surface de la mer dans l'Atlantique nord et avaient donc un impact important sur la fréquence et l'intensité des tempêtes tropicales qui naissent dans cette région du globe.

Pour parvenir à ces conclusions, les chercheurs ont utilisé des modèles climatiques couramment utilisés et en ont fait varier les différents paramètres. Ce travail de modélisation a montré que les tempêtes tropicales dans l'Atlantique nord étaient moins fréquentes au cours des périodes où les concentrations d'aérosols étaient importantes au-dessus de cette région.

Selon ces travaux, il existerait une nette corrélation entre la diminution de la concentration de ces aérosols, à partir de 1990, et la forte augmentation constatée depuis cette date du nombre de tempêtes tropicales.

Ce lien de causalité serait dû au fait que ces aérosols modifient la formation de nuages au-dessus de l'Atlantique nord, ce qui a notamment pour effet de diminuer sensiblement la température à la surface de la mer et de modifier la circulation atmosphérique tropicale.

L'étude souligne qu'il est nécessaire de renforcer nos connaissances sur les aérosols, surtout ceux émis par les activités humaines, pour mieux prendre en compte leur impact sur le changement climatique.

Article rédigé par Georges Simmonds pour RT Flash

MET

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le système nerveux central peut également se régénérer !
Jeudi, 04/07/2013 - 09:35

Depuis longtemps, les biologistes considèrent que la plasticité du système nerveux périphérique et sa capacité de régénération sont plus importantes que celles du système nerveux central.

Cette hypothèse s'appuie sur le fait que les axones du système nerveux périphérique peuvent repousser après une lésion alors que les axones du système nerveux central n'ont pas cette capacité, à cause de l'inhibition des cellules gliales.

Mais des recherches récentes menées sur la souris par des chercheurs britanniques du Collège impérial de Londres viennent de démontrer que la capacité de régénération des axones du système nerveux central pouvait être identique à celle observée dans le système nerveux périphérique.

Toutefois, l'étude précise que cette capacité de régénération diffère selon les types de neurones. Il semble en effet que certains axones soient intrinsèquement capables (indépendamment du rôle des cellules gliales) de reformer une densité de synapses comparable à celle qui existait avant la lésion alors que d'autres en sont incapables.

L'étude précise en effet que "De manière remarquable, les axones endommagés forment constamment de nouveaux boutons à des densités synaptiques comparables à celles qui préexistaient avant la lésion, ce qui implique l'existence d’un nouveau mécanisme subtil de régulation qui contrôle la croissance synaptique sur les axone"s.

Ces résultats confirment qu'il est envisageable de provoquer une régénération contrôlée des axones fonctionnels.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La consommation régulière de poulet réduirait le risque de cancer du côlon
Jeudi, 04/07/2013 - 09:21

Selon une étude réalisée par Katharina Nimptsch de l'Ecole Harvard de Santé Publique (Boston), la consommation régulière de poulet, de préférence à la viande rouge, pourrait réduire les risques de cancer du côlon.

Selon ces travaux, les personnes qui ont consommé le plus de poulet au cours de leur adolescence abaisseraient sensiblement leurs risques de développer des adénomes colorectaux, qui sont des tumeurs bénignes pouvant évoluer en cancer du côlon.

"Parmi les différents cancers, le cancer colorectal est le plus influencé par nos habitudes alimentaires", souligne Katharina Nimptsch, responsable de ces travaux".

L'étude précise que le développement d'un cancer colo-rectal peut prendre plusieurs décennies. Selon les chercheurs, la première étape qui aboutit à ce type de cancer se déroule au cours de l'enfance et de l'adolescence, c'est pourquoi les choix alimentaires à cet âge de la vie semblent jouer un rôle important pour prévenir ce type de tumeur.

Ces travaux ne révèlent pas de lien  entre la consommation de viande rouge pendant l'adolescence et une augmentation du risque d'adénomes colorectaux plus tard dans la vie. En revanche, il semble bien qu’une consommation importante de volaille au cours de cette période de la vie exerce un effet protecteur intrinsèque en réduisant sensiblement le risque ultérieur d'adénomes colorectaux pouvant dégénérer en cancer. L'étude précise par ailleurs que, si cette consommation importante de volaille ne débute qu’à l’age adulte, cet effet protecteur n'est plus observé.

Article rédigé par Georges Simmonds pour RT Flash

AJE

Live Science

Le blocage d’un récepteur cérébral préserve la mémoire des malades d'Alzheimer
Mercredi, 03/07/2013 - 14:09

Des chercheurs canadiens, dirigés par Édith Hamel et associant l'hôpital neurologique et l'université McGill de Montréal, ont montré qu'il était possible de rétablir la mémoire et la fonction vasculaire cérébrale de souris atteintes de la maladie d'Alzheimer en bloquant l'activité de certains récepteurs du cerveau.

Les chercheurs ont découvert que le cerveau de souris atteinte par la maladie d'Alzheimer présente une plus forte concentration du récepteur appelé bradykinine de type B1 (B1R) qui participe au processus inflammatoire.

Partant de ces observations, les scientifiques, en bloquant ce mécanisme à l'aide d'une molécule, ont constaté chez la souris une amélioration sensible dans l'apprentissage et la mémoire, accompagnée d'une restauration notable de la circulation du sang et de la fonction vasculaire.

Ces travaux sont d'autant plus intéressants qu'on sait que le facteur vasculaire constitue un risque important de développer la maladie d'Alzheimer. Les chercheurs ont pu également montrer que le blocage du récepteur B1R permettait de réduire de plus de 50 % le niveau de concentration de peptides nocifs associés à la formation de plaques de protéine bêta-amyloïde, un symptôme typique de la maladie d'Alzheimer.

Ces recherches confirment donc le rôle du récepteur B1R dans le déclenchement de cette pathologie neurodégénérative et le rôle des mécanismes inflammatoires dans l'installation de la maladie.

Cette équipe va à présent tenter d'identifier les molécules susceptibles de bloquer le récepteur B1R chez les humains, ce qui ouvre une nouvelle voie thérapeutique prometteuse.

Article rédigé par Georges Simmonds pour RT Flash

Mc Gill

Polluants alimentaires et obésité : un lien révélé
Mercredi, 03/07/2013 - 13:50

Selon une étude de l'Inserm, réalisée par le Laboratoire Lyonnais de Recherche spécialisé dans les domaines « cardiovasculaire, métabolisme, diabétologie et nutrition », un certain nombre de polluants alimentaires pourraient provoquer des troubles métaboliques ou les aggraver, notamment dans le cadre d'une alimentation trop grasse.

Pour parvenir à ces conclusions, les chercheurs ont soumis des souris rendues obèses à un régime permanent dans lequel était introduit un cocktail de polluants mélangeant de très faibles doses de dioxine, PCB, Bisphénol A et phtalates.

Les scientifiques ont alors pu constater que ces souris présentaient des perturbations métaboliques spécifiques, en fonction de leur sexe. Ces altérations sont en effet plus importantes chez les femelles et se traduisent par une aggravation de l’intolérance au glucose associée à l’obésité ainsi qu’une altération de la voie œstrogénique.

Les chercheurs ont pu montrer, par des tests de tolérance au glucose et de sensibilité à l’insuline, que ce régime modifiait l'expression de certains gènes qui jouent un rôle clé dans le métabolisme de l'énergie.

Chez les femelles, ce régime se traduit par une aggravation de l’intolérance au glucose ainsi qu’une altération de la voie des œstrogènes. Chez les mâles, cette association d'une alimentation grasse et de polluants provoque un dérèglement du métabolisme des lipides et du cholestérol. Fait intéressant, ces altérations ont lieu sans qu'il y ait modification du poids entre les souris exposées et non exposées aux polluants.

Compte tenu de ces observations, cette étude émet l'hypothèse d'un lien entre l’intolérance au glucose observée et l’altération de la signalisation par les estrogènes, qui jouent un rôle de protection avérée contre les maladies métaboliques.

Article rédigé par Georges Simmonds pour RT Flash

FASEBJ

Le vaccin contre le papillomavirus confirme son efficacité en matière de protection contre le cancer du col de l'utérus
Samedi, 29/06/2013 - 22:02

Régulièrement contestée depuis sa création, l’efficacité du vaccin anti-papillomavirus humains (HPV) vient à nouveau d'être confirmée par une nouvelle étude américaine commanditée par le Centre de contrôle des maladies infectieuses.

Cette recherche dirigée par Lauri Markowitz montre que l’introduction de ce nouveau vaccin a bien entraîné une réduction sensible des taux d’infection au HPV, chez les jeunes Américaines.

Selon ces travaux, la prévalence de l’infection aux États-Unis a été réduite de 56 % depuis 2006 chez les adolescentes de 14 à 19 ans. Chez les femmes âgées de 14 à 19 ans, la prévalence des infections à HPV (6, 11, 16 ou 18) est passée de 11,5 % en 2003-2006 à 5,1 % en 2007-2010.

Il faut rappeler qu'il existe actuellement de vaccins distincts contre les papillomavirus humains (HPV) : d'une part, le vaccin quadrivalent Gardasil, des laboratoires Merck, efficace contre les virus HPV 16, 18, 6 et 11 et, d'autre part, le vaccin bivalent Cervarix, des laboratoires GSK, qui cible, lui, les virus HPV 16 et 18.

En France, la vaccination anti HPV est recommandée aux jeunes filles âgées de 11 à 14 ans mais, selon le dernier bilan de l’Institut de Veille Sanitaire (InVS), seule une jeune fille sur 3 a reçu les 3 doses recommandées et, globalement, la couverture vaccinale reste faible.

Cette nouvelle étude devrait donc conduire à revoir les préconisations officielles dans un sens préconisant l'extension de cette vaccination.

Article rédigé par Georges Simmonds pour RT Flash

CDC

Dystrophie musculaire : identification d'un nouveau gène
Samedi, 29/06/2013 - 21:54

Des chercheurs de l’Institut de biologie du développement de Marseille, en collaboration avec des chercheurs de l'Inserm, ont montré que le gène FAT1 jouait un rôle-clé dans le développement des muscles chez les malades atteints de dystrophie facio-scapulo-humérale (FSHD).

Cette pathologie, dystrophie musculaire héréditaire, touche environ une personne sur 20 000. Son déclenchement est provoqué par une anomalie génétique sur le chromosome 4. La maladie se traduit par une atteinte musculaire de la face, des muscles de la région des épaules, puis des bras.

Ces travaux ont montré que le gène FAT1 permettait la synthèse d'une protéine, la protocadhérine FAT1, qui est fortement impliquée dans la production de cellules musculaires.

Outre les anomalies musculaires, le dysfonctionnement du gène FAT1 entraîne des défauts vasculaires dans la rétine et des malformations de l’oreille interne. Or ces symptômes sont très similaires à ceux observés dans la FSHD chez l’homme.

Ces recherches ont permis de montrer l'existence d'une diminution sensible du niveau d’expression du gène dans les muscles des patients atteints de FSHD. Fait intéressant, cette corrélation concerne à la fois la forme classique de la maladie (FSHD1), attribuée à une anomalie sur le chromosome 4 impliquant un fonctionnement excessif du gène DUX4, mais également les formes atypiques de cette affection, non associées au gène DUX4.

Ces recherches ont également permis de montrer que le gène DUX4 exerce une action de répression du gène FAT1 dans des cellules musculaires.

L'ensemble de ces découvertes convergent pour faire du gène FAT1 la véritable plaque tournante commune des différents mécanismes génétiques responsables de la FSHD, ce qui ouvre d'importantes voies thérapeutiques.

Article rédigé par Georges Simmonds pour RT Flash

PLOS Genetecis

Comment les cellules cancéreuses échappent-elles à la mort programmée ?
Vendredi, 28/06/2013 - 18:01

Une étude menée par une équipe de chercheurs américains de l'Université de Notre Dame (Indiana), dirigés par Zachary T. Schafer, a montré comment les cellules cancéreuses sont capables d'éviter l'apoptose, le processus de mort cellulaire.

La dissémination du cancer vers d'autres organes repose sur la capacité des cellules cancéreuses à se soustraire à ce processus de mort cellulaire. Mais les mécanismes par lesquels ces cellules cancéreuses parviennent à se détacher de la matrice extracellulaire restent mal connus.

Ces recherches montrent que les cellules cancéreuses, pour se propager dans l'organisme et former des métastases, ont besoin du concours de certaines enzymes capables de neutraliser le stress oxydatif.

Ces travaux ont également montré que, parmi ces enzymes antioxydantes, la superoxyde dismutase catalase semble jouer un rôle-clé pour assurer la survie des cellules cancéreuses du sein qui se sont échappées de la matrice extracellulaire.

Les résultats de cette étude laissent donc entrevoir la possibilité d'un ciblage de certaines enzymes antioxydantes pour bloquer les métastases.

Article rédigé par Georges Simmonds pour RT Flash

Cancer Research

University of Notre Dame

Des antibiotiques dopés à l'argent contre les bactéries résistantes
Vendredi, 28/06/2013 - 17:53

Des chercheurs américains de l'Institut médical Howard Hughes (Boston), dirigés par Jose Ruben Morones-Ramirez, ont réussi à rendre un antibiotique jusqu'à mille fois plus efficace contre certaines infections en y ajoutant des ions d'argent.

L’action bactéricide de certains métaux, dont l'argent et le cuivre, est connue depuis longtemps. Dans ces essais, les chercheurs ont utilisé directement l'argent pour "doper" certains antibiotiques et les rendre plus efficaces contre certaines bactéries résistantes.

Des essais réalisés sur la souris ont pu montrer que les ions argent présents dans une solution de nitrate d'argent rendent la membrane de certaines bactéries plus perméable, ce qui permet à l'antibiotique de pénétrer plus facilement ce germe pour le tuer.

L'argent s'est notamment montré efficace contre les bactéries «gram négatives», qui présentent la particularité de posséder deux membranes, ce qui les rend particulièrement résistantes aux antibiotiques classiques. Cette famille de bactéries redoutables compte notamment le vibrion du choléra, la bactérie  responsable de la peste et les salmonelles et Escherichia coli.

Les chercheurs ont pu montrer, in vitro, que des bactéries Escherichia coli résistantes aux antibiotiques devenaient sensibles à la tetramycine quand celle-ci était couplée avec des ions d'argent.

Cette technique ouvre de nouvelles perspectives en matière thérapeutique et pourrait permettre de renforcer sensiblement l'efficacité d'antibiotiques existants pour lutter contre des bactéries multirésistantes.

Article rédigé par Georges Simmonds pour RT Flash

STM

Grippe H7N9 en Chine : plus du tiers des patients sont décédés
Vendredi, 28/06/2013 - 17:46

Selon une étude associant de chercheurs chinois et américains dirigés par le professeur Hongjie Yu, la grippe aviaire H7N9 qui a frappé la Chine cette année a causé la mort de plus d’un tiers des patients hospitalisés. Elle pourrait réapparaître à l’automne, après une diminution cet été.

Ces travaux soulignent que 36 % des patients hospitalisés après une infection par le virus H7N9 sont décédés, contre 60 % des patients hospitalisés après infection par le H5N1, un autre virus aviaire apparu en Asie en 2003.

Toutefois, le taux de mortalité du virus H7N9 observé jusqu’à présent en Chine est supérieur à celui de la grippe pandémique H1N1 de 2009 qui était de l’ordre de 20 % chez les patients hospitalisés.

Selon le dernier bilan fourni par les autorités chinoises, 131 personnes ont été infectées par le virus H7N9 en Chine : 39 en sont mortes, 14 étaient toujours hospitalisées tandis que 78 avaient pu regagner leur domicile.

Pour l'instant, aucune transmission de personne à personne n’a été observée avec ce virus qui contamine les volailles, sans les rendre malades. Mais les scientifiques pensent néanmoins que ce virus pourrait se transmettre chez les mammifères.

Une autre étude également publiée dans le "Lancet" précise qu'il existe un risque important de réapparition de la grippe H7N9 à l’automne.

The Lancet

The Lancet

The Lancet

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top