RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 679
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Décembre 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Une batterie performante en papier !
Réduire à la source 90 % des émissions de CO2 liées à la production d'énergie !
Une éolienne marine de 10 MW !
Espace
La première phase de décélération de l'Univers a été mesurée
Une nouvelle molécule interstellaire découverte dans le vide galactique
Vivant
Quand les aveugles peuvent lire le braille!
Un anticorps réduit les effets de la maladie d'Alzheimer
Identification d'une protéine-clé dans la maladie de Parkinson
Vers la production transgénique d'alicaments
Glioblastome : la recherche avance !
L'activité physique est bonne pour le cerveau
La France en pointe mondiale dans la chirurgie du foie
Maladie d’Alzheimer : la piste génétique se précise
Un tissu cérébral artificiel pour tester de nouveaux médicaments
Prévention cardio-vasculaire : du poisson plutôt que des oméga 3 !
Edito
Climat : le Monde doit changer de vitesse !



Alors que vient de se terminer, dans une relative indifférence générale, la conférence mondiale de l'ONU sur le climat à Doha, au Qatar, qui ne concernera à partir de 2013 - pour l'après-Kyoto - que 15 % des gaz à effet de serre émis par l'homme et repousse à 2020 l'éventuelle entrée en vigueur effective d'un accord international contraignant incluant les plus gros émetteurs comme la Chine et les USA, plusieurs études et rapports scientifiques sont venus confirmer l'ampleur et la gravité du changement climatique en cours.

Tout d’abord, il y quelques jours, le Forum économique international pour les énergies renouvelables (IWR) a confirmé qu'en dépit de l'application du Protocole de Kyoto (qui n'a concerné en réalité qu'un tiers des émissions mondiales de gaz à effet de serre), les émissions humaines de dioxyde de carbone avaient atteint au total 34 gigatonnes en 2011 contre 23 gigatonnes en 1990, soit une augmentation de presque 50 % en seulement une vingtaine d’années.

La concentration en CO2 dans l'atmosphère, renforcée par la combustion de carburants fossiles, a augmenté de presque 40 % depuis le début de la révolution industrielle et au rythme actuel, les émissions mondiales de CO2 pourraient croître encore de 20 % pour dépasser les 40 milliards de tonnes à l'horizon 2020.

Pour espérer pouvoir stabiliser sur le long terme le stock de CO2 atmosphérique, il faudrait réduire les émissions humaines de carbone non plus de 50 % mais de 60 % au cours des 40 prochaines années puis de 80 % après 2050.

C’est dans ce cadre implacable mais malheureusement incontestable qu’une étude publiée par Science le 30 novembre et intitulée "Une ré-estimation de la fonte globale des glaces", montre que la fonte des glaces polaires s'est accélérée ces vingt dernières années sous l'effet du réchauffement climatique, surtout au Groenland, contribuant pour 20 % à la montée des océans sur cette période.

Ces travaux montrent que le niveau de la mer s'est élevé en moyenne depuis 1992 de plus de 55 mm (3 mm par an) et les chercheurs estiment à 11 mm au total l'élévation du niveau des mers résultant uniquement de la fonte des deux plus grandes calottes glaciaires de la planète. Selon cette étude, les deux tiers des glaces fondues provenaient du Groenland et le tiers restant de l'Antarctique.

Ces dernières estimations, beaucoup plus précises, confirment que l'Antarctique et le Groenland perdent ensemble aujourd'hui trois fois plus de glaces qu’en 1990 et que leur contribution à l’élévation du niveau des mers a été multipliée par quatre, passant de 0,27 mm à 1 mm par an.

Au total l'élévation du niveau des mers augmente une fois et demie plus rapidement que les prévisions du Giec, comme le confirme une autre étude publiée le 27 novembre dans la revue britannique Environmental Research Letters et intitulée "Comparaisons des prévisions climatiques", qui souligne que la progression moyenne annuelle du niveau des mers est à présent de 3,2 mm.

La hausse globale du niveau des mers qui ne devait pas dépasser, dans le pire des cas, 59 centimètres au cours de ce siècle, devrait donc dépasser un mètre, ce qui change considérablement l'échelle des dégâts et dommages que vont subir les régions et villes côtières.

Une telle élévation, rapide et brutale, signifie que de vastes régions côtières très peuplées et situées à moins d'un mètre au-dessus du niveau de la mer, comme c’est le cas en Asie, vont tout simplement disparaître. Autre conséquence de cette élévation bien plus importante du niveau des mers : le nombre de réfugiés climatiques pourrait passer de 50 millions par an aujourd’hui à 250 millions par an d'ici 2050, ce qui va engendrer des tensions et bouleversements géopolitiques majeurs.

A la lumière de ce tableau alarmant de l’évolution du climat sur notre planète et, compte tenu des politiques mises en œuvre et de l’évolution de l’économie mondiale, on peut donc se demander s’il est encore possible de rester dans le cadre de l’objectif d’une limitation à deux degrés de la température mondiale d’ici 2050 ou si ce but est devenu totalement utopique et irréaliste.

Sur cette interrogation capitale, les avis sont partagés, ce qui montre que le pire n’est jamais sûr et que l’avenir n’est pas écrit.

L'étude « Low Carbon Economy Index », du cabinet PwC, pense que l'objectif de limiter la hausse du thermomètre mondial à deux degrés est devenu intenable. Cette étude constate que l'intensité carbone de l'économie planétaire a diminué d’à peine 1 % par an, en moyenne depuis dix ans, au lieu des 4 % nécessaires pour atteindre l’objectif visé.

Ce travail montre que, même en doublant le rythme annuel mondial de décarbonisation, en 2050 le réchauffement climatique risque d’atteindre les six degrés d’ici la fin de ce siècle (Voir PwC et PwC).

La Banque mondiale, pour sa part, dans un rapport intitulé « Turn down the heat » («Baissez le chauffage»), publié le 18 novembre dernier, estime également que le niveau actuel d'émissions de C02 ne permettra pas de tenir les objectifs internationaux visant à limiter le réchauffement mondial à deux degrés.

Son rapport table sur une augmentation moyenne de la température mondiale de 4°C dès 2060, si les états mais également le secteur privé ne s’engagent pas dans des politiques plus volontaristes. La Banque mondiale souligne fort justement que la lutte contre le changement climatique et pour la préservation de l’environnement pour ralentir le réchauffement peut constituer un nouveau moteur très puissant pour l’innovation, la croissance et l’emploi.

Mais tout le monde n’a pas la même approche.

Un remarquable rapport de McKinsey montre qu’en utilisant l’ensemble des solutions technologiques existantes, il est possible, d’ici 2030, de réduire de 40 % nos émissions mondiales de gaz à effet de serre et de rester ainsi dans la limite des deux degrés d’augmentation de température.

Ce rapport précise que le coût global d’un tel plan mondial serait de l’ordre de 300 milliards d’euros par an à l’horizon 2030, soit moins de 1 % du Produit Brut Mondial, dans l’hypothèse improbable où le baril de pétrole ne dépasse pas 60$ à cette échéance mais ce coût deviendrait nul avec un baril à plus de 100 dollars, ce qui est une hypothèse beaucoup plus réaliste pour 2030.

Mais là où ce rapport est encore plus intéressant, c’est dans son évaluation économique et financière fine et très complète des mesures à prendre. Contrairement aux idées reçues, ces mesures ont un coût très faible au regard de l’immense bénéfice économique et écologique qu’elles entraînent. Elles coûteraient en moyenne seulement 4 euros par tonne de CO2 évitée et, ce qui est encore plus étonnant, 40 % d'entre elles ont même un coût négatif, ce qui signifie que les économies d'énergie qu'elles permettent produisent une valeur plus importante que leurs coûts initiaux !

Enfin, le rapport "Climate Action Tracker", intitulé, non sans humour, « Etre à deux degrés ou ne pas y être », publié le 1er décembre, montre qu’il est encore possible de limiter le réchauffement de la planète à moins de deux degrés en diminuant de 15 % d'ici à 2020 les émissions mondiales de gaz à effet de serre mais à condition qu’une volonté politique plus forte s’exprime au niveau des Etats et de la communauté internationale (Voir rapport).

Sachant que les émissions mondiales de gaz à effet de serre se montent à présent à environ 50 gigatonnes d’équivalent–carbone par an, une telle diminution, qui suppose une réduction moyenne annuelle d’un milliard de tonnes par an jusqu’en 2020, n’a en effet rien d’irréaliste. L'ONU est d'ailleurs sur la même ligne que ce rapport et souligne qu'il est encore possible de descendre à 44 gigatonnes de gaz à effet serre en 2020 si une volonté politique réelle s'exprime rapidement au niveau des plus gros pays émetteurs de CO2.

Ce rapport souligne notamment que, pour la première fois, la Chine, parfaitement consciente des dangers pour son agriculture et son économie d’un dérèglement climatique de grande ampleur, a annoncé à Doha qu’elle s’engageait, hors de tout accord international contraignant, sur une réduction des ses émissions de CO2 de 4,5 gigatonnes d’ici 2020, ce qui est considérable et correspond à 13 % des émissions mondiales annuelles de CO2 ou encore à la totalité des émissions annuelles de CO2 de l’Union Européenne !

Il n’est donc pas trop tard, si nous mettons en œuvre des politiques volontaristes et globales associant l’ensemble des acteurs publics et privés, pour éviter la catastrophe climatique annoncée. Mais pour relever ce défi, il n’y a pas de solution-miracle. Il faudra agir simultanément et bien plus vigoureusement qu’à présent, sur au moins cinq leviers, sans attendre l'hypothétique conclusion d'un nouvel accord international juridiquement contraignant de type Kyoto qui, dans le meilleur des cas, n'entrera pas en vigueur avant la fin de la décennie.

Premier levier : les économies d’énergie à la source et l’amélioration de l’efficacité énergétique pourraient permettre de diminuer d’au moins 30 % nos émissions de GES. C’est incontestablement le levier principal à actionner tant la marge de progression est importante en matière d’économie et d’efficacité énergétiques. Le bâtiment et le logement absorbent à eux seuls près de la moitié de l’énergie mondiale et émettent le quart des gaz à effet de serre ! En Chine, la seule consommation d’énergie liée à l’éclairage des bureaux et habitations produit 800 millions de tonnes de CO2 par an, deux fois les émissions totales de CO2 de la France !

En France, une remarquable étude d’EDF publiée en 2008 par la revue « Futuribles » montre qu’il serait possible, en améliorant l'efficacité énergétique et en utilisant les énergies renouvelables, de se passer pratiquement des énergies fossiles dans le bâtiment, sans augmenter la consommation d'électricité, ce qui permettrait une diminution de nos émissions de CO2 de 90 millions de tonnes par an.

Deuxième levier : la capture à la source du CO2. Selon une étude de référence du cabinet McKinsey, il est envisageable de capturer, dans une centaine de sites industriels, 4 Gigatonnes de CO2 par an d’ici 2030 au niveau mondial (0,4 en Europe), ce qui correspond à environ 10 % des émissions de CO2 attendues en 2030 et à un cinquième de l’effort de réduction de émissions de carbone décidé par l’Europe à cet horizon.

Selon McKinsey, le coût de capture de ce CO2 devrait atteindre environ 40 euros par tonne de CO2 capturée en 2030. Or, il est très probable, selon les prévisions les plus sérieuses, que le prix de la tonne de CO2 se situe autour de 100 euros à cet horizon, même s’il est aujourd’hui à un niveau artificiellement bas (autour de 7 euros), à cause d’une trop grande allocation de quotas et des effets de la crise économique mondiale.

Grâce à de nouvelles technologies comme la "boucle-carbonate" ou «carbonate-looping», qui repose sur l'utilisation du calcaire pour fixer le CO2 provenant des gaz de combustion, on peut à présent équiper les centrales thermiques actuelles sans modifications majeures et capturer à la source 90 % du CO2 produit, tout en réduisant la consommation énergétique globale.

Mais d’autres technologies plus futuristes pourraient également changer la donne. Des chercheurs de l'université d'Edimbourg ont par exemple mis au point des nanotubes possédant la propriété d'absorber le CO2 de l'atmosphère. Un seul mètre carré de ces nanomatériaux peut piéger autant de CO2 que dix arbres de taille moyenne.

Ces chercheurs envisagent sérieusement la production industrielle de ces « arbres artificiels » qui pourraient d’ici cinq ans fleurir dans nos villes.

Le troisième levier est évidemment celui du développement massif des énergies renouvelables et des biocarburants de nouvelle génération (issus du bois et des algues marines) qui peut permettre de réduire d’au moins un quart les émissions mondiales de GES d’ici 2050.

Plusieurs ruptures technologiques devraient, d’ici cinq à dix ans, permettre un essor considérable des énergies propres et notamment de l’éolien et du solaire : l’arrivée de cellules solaires souples et bon marché qui pourront recouvrir murs et surfaces immenses, la mise en service d’éoliennes marines géantes de plus de 10 MW de puissance, capables de produire assez d’électricité pour alimenter chacune 12 000 foyers et des technologies de production propre et de stockage massif de l’hydrogène.

Quatrième levier : la forêt et l’agriculture qui représentent le quart des émissions mondiales de GES. Les forêts tropicales couvrent 1 700 millions d'hectares et l’on sait à présent que les forêts primaires constituent les principaux puits de carbone. On estime que ces forêts tropicales contiennent presque la moitié des 960 milliards de tonnes de carbone stockées dans la forêt mondiale et le climatologue Philippe Ciais a calculé qu'un hectare de forêt tropicale pouvait en moyenne stocker 350 tonnes de carbone, si l’on inclut également le carbone stocké dans son sol.

A titre de comparaison, les 12 TWh éolien produits en France en 2011 n’ont permis d’éviter l’émission que d’environ 3 millions de tonnes de CO2 (25 grammes par kWh éolien), c'est-à-dire moins de 1 %  de nos émissions totales de CO2. La préservation de seulement 100 km2 de forêts tropicales permet donc d’éviter autant d’émissions de CO2 que tout le parc éolien français et la conservation de 13 000 km2 (la surface de deux départements français) de ce type de forêts évite l’équivalent des émissions totales de CO2 de la France (400 millions de tonnes par an).

Le rôle capital des forêts est un paramètre qui a été gravement ignoré et sous-estimé dans la lutte contre le changement climatique : une étude publiée par la revue Science en juin 2007 a montré que les forêts tropicales rejettent dans l’atmosphère seulement 100 millions de tonnes de CO2 et pas 1,8 milliard de tonnes, comme on le pensait jusqu’à présent.

Une autre étude publiée en avril 2007 dans le PNAS a montré que planter et préserver des forêts tropicales contribuent de manière puissante à freiner le réchauffement climatique, alors que reboiser dans l’hémisphère nord pourrait au contraire contribuer au réchauffement global de la planète. Cette étude montre que les forêts tropicales contribuent de manière essentielle à la régulation thermique du climat grâce à leur capacité considérable de stockage du CO2 et leur rôle dans la production de nuages qui refroidissent la terre.

Une étude publiée en 2008 dans le PNAS estime qu'il est possible de réduire de 10 % la déforestation tropicale pour un coût d’à peine un milliard de dollars par an, évitant l'émission d'environ un demi-milliard de tonnes de carbone par an (deux fois les émissions de CO2 de la France).

Enfin, une autre étude publiée en juin dernier dans « Science », qui s’appuie sur des observations satellitaires précises, montre que près de la moitié des destructions de forêts ont été observées dans les zones tropicales sèches mais que ces pertes n'ont représenté qu’un cinquième des émissions de CO2 issues de la déforestation, ce qui confirme que ce sont principalement les forêts tropicales humides qui stockent le carbone en grande quantité.

L’ensemble de ces études montrent donc qu’il très rentable, peu coûteux et très efficace de soutenir financièrement les pays concernés pour qu’ils préservent leurs forêts tropicales qui jouent un rôle absolument irremplaçable dans le stockage du CO2 et la régulation du climat. Ce levier doit être d'autant plus privilégié que la part des pays en voie de développement dans les émissions mondiales de CO2 représente à présent 60 %, contre seulement 40 % il y a vingt ans.

Enfin, le dernier levier mais non le moindre, est celui lié au changement de nos habitudes et de nos modes de vie. Depuis cinq ans, un basculement incontestable s'est opéré dans l'opinion publique mondiale et les trois quarts des habitants de la planète sont à présent convaincus de la réalité du réchauffement climatique et de la responsabilité humaine dans ce phénomène. Nous devons, sans attendre les ruptures technologiques annoncées, changer profondément nos comportements, ce qui ne signifie pas pour autant prendre le chemin de la « décroissance », concept creux et dangereux qui nie la réalité planétaire et les aspirations humaines.

Chacun d’entre nous, sans renoncer à son niveau de vie ni à son confort, et sans se sentir astreint à une frugalité punitive, peut facilement diviser par deux sa consommation globale d’énergie et ses émissions personnelles de CO2.

Au niveau européen, il faut tout faire pour mettre en oeuvre rapidement une taxe carbone aux frontières de l'Union car une telle taxe, même si elle est difficile à instaurer, est à la fois juste et nécessaire et dépasse les clivages politiques traditionnels : l'Europe ne peut plus accepter sans réagir l'importation massive à bas prix de produits réalisés sans tenir aucun compte des règles de bonne conduite énergétiques et environnementales. 

L'Europe doit également mettre en oeuvre sans tarder un vigoureux plan de réforme de son système d'échanges de quotas d'émissions, aujourd'hui déconnecté du nouveau paysage industriel et économique issu de la crise mondiale, afin de faire remonter à un niveau plus incitatif pour le développement des énergies et des processus de production décarbonés le prix de la tonne de CO2 (au moins 30 euros) qui est descendu à un niveau bien trop faible (autour de 6 euros la tonne).

Il faut également que les transports aériens et maritimes participent, d'une façon ou d'une autre, à l'effort européen global de réduction des émissions de gaz à effet de serre.

Au niveau international, il faut poursuivre les efforts et s'appuyer sur les résultats positifs de ces dernières années pour accélérer l'avènement d'un grand marché mondial unifié du carbone qui commence enfin à voir le jour avec la création, d'ici 2015, d'un marché Asie-Europe.

Par ailleurs, l'OMC, la Banque mondiale et le FMI, doivent, en coopération avec l'ONU et les états concernés, mettre en oeuvre un cadre cohérent et global d'écoconditionnalité des aides et prêts financiers aux pays en développement, afin de lier de manière beaucoup plus forte l'octroi de ces soutiens et la préservation constatée par satellites des forêts tropicales et des pratiques agricoles à faible intensité carbone.

Enfin, au niveau national et européen, nous devons réfléchir, en dépassant les clivages politiques et visions idéologiques d'un autre âge, sur la transition vers une fiscalité écologique qui transforme l'environnement en moteur de la croissance et de l'emploi, comme cela est le cas en Suède qui a su, en 20 ans, à la fois diminuer ses émissions de gaz à effet de serre de 20 % et augmenter son PIB de 50 % !

Rappelons inlassablement que le coût de l'attentisme et de l'inaction sera dix fois, vingt fois plus grand comme l'ont confirmé depuis le rapport Stern plusieurs études rigoureuses, que le coût certes important mais acceptable par nos économies, d'une action volontaire et vigoureuse destinée à maintenir le changement climatique dans des limites supportables pour l'homme.

C’est en faisant le pari de l’audace, de l’imagination et de l’innovation, non seulement en matière technologique mais dans le domaine social, économique, politique et démocratique, que nous parviendrons à surmonter ce défi de civilisation sans précédent et que nous pourrons poursuivre sur de nouvelles bases, plus équitables et plus durables, notre quête légitime du progrès et d’une vie meilleure pour tous.

René  TREGOUET

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Une batterie performante en papier !
Jeudi, 06/12/2012 - 09:17

Une équipe associant des chercheurs grenoblois du laboratoire LGP2 et du Politecnico de Turin, vient de mettre au point une étonnante batterie, baptisée "Papel", dont les éléments sont en papier.

Avec le soutien de ses deux directeurs de thèse, Didier Chaussy, Professeur à Grenoble INP Pagora, responsable de la recherche au département Science et Techniques graphiques et Davide Beneventi, chercheur au CNRS, Lara Jabbour, ingénieur doctorante a soutenu fin 2011 sa thèse de doctorat intitulée : « L’utilisation des procédés papetiers et de fibres cellulosiques pour l’élaboration de batteries Li-ion ».

Dans une première étape, la fabrication d'anodes a été réalisée à l'aide de microfibrilles de cellulose. Dans une deuxième phase, la production d'électrodes papier (anode et cathode) a été réalisée grâce à l'utilisation de fibres de cellulose.

Enfin, l'utilisation de séparateurs-papier par procédé de filtration en milieu aqueux a permis d'obtenir des cellules complètes à base de cellulose qui contiennent dans leurs fibres des granules de graphite et de lithium fer phosphate (LiFePO4) nécessaires à la réaction chimique. Les électrodes de cette batterie possèdent des propriétés électrochimiques équivalentes à celles des batteries classiques utilisant des polymères de synthèse.

Ce nouveau type de batterie présente plusieurs avantages majeurs : plus de  support métallique, plus de  polymère et plus de solvant pour fabriquer les électrodes. Cette batterie "Papel" est non seulement aussi performante que les batteries au lithium conventionnelles mais est souple, peu coûteuse à produire et plus respectueuse de l’environnement que ses concurrentes. Au terme de son cycle de vie, ses électrodes en papier peuvent tout simplement être dissoutes dans l’eau, ce qui permet d'en récupérer les composants.

Comme le souligne Didier Chaussy, "Nous pouvons à présent passer au stade du prototype industriel et nous recherchons des partenaires qui possèdent le savoir-faire pour intégrer notre procédé de fabrication dans une chaine d’assemblage."

Ces batteries souples et performantes pourraient trouver de multiples applications, que ce soit dans l'industrie, dans le secteur des transports ou dans celui du logement.

Article rédigé par Mark FURNESS pour RTFlash

Gravit

Pagora

Réduire à la source 90 % des émissions de CO2 liées à la production d'énergie !
Dimanche, 02/12/2012 - 00:10

Alors que les émissions mondiales de CO2 sont reparties à la hausse (+ 3 % en 2011) et atteignent à présent 34 gigatonnes par an, la capture à la source du CO2, pendant le processus de production d'énergie et d'électricité, est devenue un enjeu économique et écologique majeur car les énergies renouvelables ne suffiront pas, à elles seules, à satisfaire la demande mondiale qui ne cesse d'augmenter.

En Allemagne, l'institut des systèmes d'énergie et de technologie de la TU de Darmstadt a mis en oeuvre une installation-pilote destinée à capturer le CO2 par la technologie de la "boucle-carbonate" ou «carbonate-looping».

Cette technologie repose sur l'utilisation du calcaire pour fixer le CO2 résultant des gaz de combustion. Ainsi concentré et capturé, le CO2 est ensuite  libéré dans un second réacteur et peut être stocké. Le point fort de cette technique est qu'elle peut équiper les centrales actuelles sans modifications majeures et qu'elle n'entraîne pas de perte de rendement énergétique.

L'installation-pilote de Darmstadt, après plusieurs mois de fonctionnement, a réussi à capturer plus de 90 % du CO2 produit, tout en réduisant la consommation énergétique, le tout à un coût de fonctionnement diminué de moitié par rapport aux méthodes classiques de captage de CO2.

Comme le souligne Bernd Epple, Directeur de l'institut, "Cette percée technologique constitue une étape-clé vers la production massive propre et rentable d'électricité à partir d'énergies fossiles, ce qui est un objectif fondamental à atteindre pour limiter les effets du changement climatique provoqué par nos émissions excessives de carbone".

Article rédigé par Mark FURNESS pour RTFlash

Darmstad

Une éolienne marine de 10 MW !
Samedi, 01/12/2012 - 17:11

La société norvégienne Sway Turbine AS, basée à Bergen, a présenté à Brême (Allemagne), un prototype d'éolienne marine d'une puissance de 10 MW dont le rotor aura un diamètre qui frôlera les 150 mètres.

Une des principales innovations de cet aérogénérateur, baptisé ST10, est que son alternateur est à entraînement direct et ne possède plus de boîte de vitesses. Cette chaîne de transmission directe entre rotor et générateur augmente sensiblement sa fiabilité.

Autre innovation : l'utilisation de la technologie d'induction à flux axial qui utilise un stator sans fer, uniquement composé de cuivre. Cette solution technique permet un important gain de poids et réduit en outre les forces d'attraction magnétique entre le stator et le rotor.

Par rapport aux installations éoliennes marines actuelles, ce nouveau type d'éolienne devrait permettre d'abaisser d'environ 20 % le coût de production du kilowattheure.

Cette nouvelle éolienne est prévue pour pouvoir fonctionner sur des bases fixes ou flottantes. Elle sera testée en grandeur nature près de Bergen.

Grâce aux vents marins, plus puissants et plus réguliers, un seul de ces "géants des mers" produira, en moyenne annuelle, 30 millions de Kwh, de quoi alimenter en électricité environ 12 000 foyers, hors chauffage.

Rappelons que la capacité éolienne en mer devrait atteindre en Europe les 40 GW en 2020, soit une production annuelle moyenne de 148 TWh d'électricité, l'équivalent de la production d'une vingtaine de réacteurs nucléaires ou encore plus du quart de la production annuelle totale d'électricité de la France.

Article rédigé par Mark FURNESS pour RTFlash

Sway Turbine

^ Haut
Espace
Espace et Cosmologie
La première phase de décélération de l'Univers a été mesurée
Lundi, 03/12/2012 - 00:20

Il y a près d'un siècle, deux immenses scientifiques, l'américain Edwin Hubble et le belge Georges Lemaître, ont mis en évidence, entre 1923 et 1927, l’expansion de l’Univers en procédant à deux types de mesures pour un même amas de galaxies : la distance entre ces galaxies et notre planète et la vitesse d'éloignement de ces galaxies, qui a montré le fameux "décalage spectral vers le rouge", preuve de l'expansion cosmique.

Pendant les huit premiers milliards d'années de l’histoire de l’Univers, cette expansion s'est ralentie progressivement sous l'effet de la force de gravitation. Mais depuis au moins cinq milliards d'années, l'expansion de l'Univers a repris, contre toute attente, son accélération, sous l'effet de la fameuse et mystérieuse énergie sombre, dont on ne connaît toujours pas la nature et qui semble cependant assez puissante pour contrebalancer la force de gravitation à l'échelle de l'Univers.

Pour parvenir à mesurer la première phase de décélération de l'Univers, les astrophysiciens du Sloan Digital Sky Survey (SDSS-III), ont commencé un véritable travail de romains et ont entrepris de mesurer la luminosité et le spectre d'un million et demi de galaxies et de 160 000 quasars. En mesurant la distribution du gaz intergalactique, les chercheurs ont pu reproduire à une échelle bien plus vaste les expériences d'Hubble et Lemaître sur les galaxies. Le premier catalogue qui vient d'être publié contient déjà 89 000 quasars et l'ensemble de cet inventaire et de ces mesures cosmiques sera terminé en 2014 et devrait nous permettre d'en savoir plus sur l'apparition et la montée en puissance de l'énergie sombre.

Article rédigé par Mark FURNESS pour RTFlash

Cornell University Library

Une nouvelle molécule interstellaire découverte dans le vide galactique
Samedi, 01/12/2012 - 17:44

Une équipe internationale de scientifiques vient de découvrir, dans la nébuleuse de la Tête de Cheval, située à 1 300 années-lumière de la Terre, dans la constellation d'Orion, une nouvelle molécule interstellaire, le cation propynylidynique (C3H+), appartenant, comme le pétrole et le gaz naturel, à la famille des hydrocarbures.

Sous l'effet de violentes réactions physico-chimiques entre rayonnement des étoiles et masses de gaz, la nébuleuse de la Tête de Cheval est un véritable laboratoire de chimie cosmique dans lequel se forme de nombreux éléments et molécules plus ou moins complexes.

C'est grâce au nouveau système optique et informatique du radiotélescope de l'IRAM, situé près de Grenade en Espagne, que Jérôme Pety, chercheur à l'Observatoire de Paris, a pu réaliser un inventaire beaucoup plus complet des molécules et éléments chimiques produits dans cette superbe nébuleuse de la Tête de Cheval, bien connue de tous les amoureux d'astronomie.

Les chercheurs ont ainsi répertorié plus d'une trentaine de molécules, parmi lesquelles de nombreux petits hydrocarbures qui entrent dans la composition du gaz et du pétrole. Selon les estimations assez précises de cette analyse, la quantité totale d'hydrocarbures présente dans cette nébuleuse serait 200 fois plus importante que toute l'eau sur notre planète !

Parmi les nouvelles molécules découvertes, ce cation propynylidynique (C3H+), n'avait encore jamais été observé dans l'Espace jusqu'à aujourd'hui. Cette molécule vient donc s'ajouter aux 160 autres déjà identifiées dans le vide glacé des espaces interstellaires.

Ce C3H+ serait produit par la fragmentation de macromolécules carbonées, sous l'effet de l'intense rayonnement interstellaire frappant de grandes masses gazeuses, ce qui est précisément le cas dans la nébuleuse de la Tête de Cheval qui comporte une étoile massive.

Comme le souligne Jérôme Pety, "Nous avons pu, pour la première fois, voir en direct le fonctionnement d'une raffinerie cosmique qui produit des hydrocarbures à une échelle presque inimaginable pour l'esprit humain."

Article rédigé par Mark FURNESS pour RTFlash

Astronomy & Astrophysics

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Quand les aveugles peuvent lire le braille!
Jeudi, 06/12/2012 - 10:12

Des chercheurs de l’Université de Berkeley en Californie, dirigés par Thomas Lauritzen, ont mis au point, en collaboration avec la société américaine Second Sight, un dispositif rétinien nommé Argus qui permet au patient aveugle de lire avec ses yeux. Ce système utilise une petite caméra montée sur des lunettes. L'image est convertie en stimulation électrique, puis transmise à une micropuce implantée directement au niveau de la rétine.

Mais avec ce dispositif complexe, il faut 60 électrodes pour assurer l’interphase entre l’implant et la rétine et projeter une image que le cerveau pourra alors décoder. En parallèle à cette technique, les chercheurs ont donc eu l'idée d'utiliser directement le braille qui ne nécessite que 6 points parmi les 60 électrodes. Ces six électrodes ont directement été stimulées pour dessiner les lettres en braille, sans utiliser la caméra.

Grâce à cette nouvelle méthode, 50 personnes aveugles ont pu lire des lettres en braille affichées sur leur rétine. Fait remarquable, le taux de reconnaissance a atteint 89 % pour une lettre, 80 % pour deux, 60 % pour les mots de trois lettres et 70 % pour les mots de quatre lettres.

Les participants ayant utilisé le système avec caméra intégrée ont retrouvé partiellment la perception des couleurs et de la forme des objets et l’implant Argus laisse donc espérer une restauration partielle mais significative de la vue et de la capacité de lecture chez les personnes atteintes de rétinite pigmentaire.

Article rédigé par Mark FURNESS pour RTFlash

Science

Un anticorps réduit les effets de la maladie d'Alzheimer
Jeudi, 06/12/2012 - 09:43

Des chercheurs suisses et allemands de la clinique berlinoise Berliner Charité et de l'Université de Zurich sont parvenus à réduire les effets de la maladie d'Alzheimer chez des souris en leur injectant des anticorps de la même famille que ceux utilisés dans le traitement du psoriasis, une maladie immunitaire.

On savait déjà qu'une réaction immunitaire était impliquée dans la maladie d'Alzheimer mais on ignorait jusqu'à présent si les cytokines produites par la réponse immunitaire avaient une action directe sur la gravité et le rythme d'évolution de cette la maladie qui se traduit notamment par le dépôt excessif de protéines bêta-amyloïdes dans le cerveau.

Ces recherches ont permis de montrer que les plaques de protéines bêta-amyloïdes étaient moins nombreuses dans le cerveau de souris après une injection d'anticorps qui bloquent la molécule immunitaire p40. De ce fait, les souris ainsi traitées ont moins de symptômes spécifiques de cette maladie et ont un meilleur état cognitif.

Ces résultats sont intéressants car, chez l'homme, la concentration de la molécule p40 est sensiblement plus élevée dans le liquide cérébro-spinal et le sang des malades atteints de la maladie d'Alzheimer. On peut donc émettre l'hypothèse que le blocage de la molécule immunitaire p40 pourrait prévenir l'apparition de cette maladie ou en améliorer le traitement.

Article rédigé par Mark FURNESS pour RTFlash

Nature

Identification d'une protéine-clé dans la maladie de Parkinson
Jeudi, 06/12/2012 - 09:36

La maladie de Parkinson toucherait environ 3,5 % des personnes âgées de plus de 75 ans dans les pays occidentaux. Environ 4 millions de personnes sont atteintes de la maladie de Parkinson dans le monde et on compte en France 175 000 malades et 10 000 nouveaux cas par an.

Cette maladie neurodégénérative se traduit par des troubles moteurs provoqués par la mort de neurones spécifiques. On sait à présent qu'au cours de sa progression, une protéine, l’alpha-synucléine, se concentre dans ces neurones et des chercheurs de l’Université de Pennsylvanie ont montré qu’une injection d'alpha-synucléines dysfonctionnelles entraîne bien la destruction des neurones et l'apparition des symptômes propres à cette maladie.

La maladie de Parkinson entraîne la mort de neurones particuliers qui produisent la dopamine, un neurotransmetteur (messager chimique libéré dans une synapse et qui assure la communication entre neurones) essentiel aux mouvements. L’alpha-synucléine est indispensable à la production et au transport de dopamine mais, pour des raisons génétiques et environnementales, il arrive que la structure tridimensionnelle de l’alpha-synucléine se modifie, ce qui perturbe le bon fonctionnement de cette protéine qui tend alors à s'accumuler dans le neurone.

Il restait à savoir si cette accumulation était provoquée par la maladie de Parkinson ou si, au contraire, elle provoquait la maladie.

En injectant des protéines alpha-synucléines déficientes dans l'aire cérébrale concernée de souris, les chercheurs ont pu montrer, après six mois d'expérimentation, que les protéines dysfonctionnelles s'étaient bien diffusées dans les neurones producteurs de dopamine et en avaient détruit le tiers, selon un mécanisme très proche de celui observé dans les maladies à prions qui sont également caractérisées par la présence de protéines mal repliées.

Logiquement, les chercheurs ont également observé que les souris développaient progressivement tous les symptômes de la maladie de Parkinson.

Ces protéines alpha-synucléines dysfonctionnelles seraient donc bien la cause de la maladie de Parkinson et pas sa conséquence. Reste à voir si des mécanismes similaires sont impliqués dans d’autres maladies neuro-dégénératives, comme la maladie d’Alzheimer, également liée à la présence et à l'action de protéines anormales.

Article rédigé par Mark FURNESS pour RTFlash

Science

Vers la production transgénique d'alicaments
Jeudi, 06/12/2012 - 09:28

A l'occasion du congrès annuel de l'Association américaine de Cardiologie, des chercheurs américains dirigés par le Professeur Alan M. Fogelman (directeur de l'unité de recherche sur l'athérosclérose à l'Université de Californie) ont annoncé avoir réussi une première en développant une tomate transgénique susceptible de réduire l'athérosclérose chez l'animal.

"En concevant cette tomate transgénique, nous avons pu mettre au point une technique qui permet de fabriquer un peptide ayant les mêmes propriétés que l'apolipoprotéine A1, la principale protéine du bon cholestérol". souligne le Docteur Fogelman.

Pour parvenir à ce résultat, les chercheurs ont imaginé une tomate transgénique qui puisse produire le peptide 6F, composé de 18 acides aminés. Ce peptide a une action similaire à celle de l'apolipoprotéine A1, protéine présente dans le "bon"cholestérol HDL.

Pour évaluer l'efficacité thérapeutique de leur tomate, les chercheurs ont utilisé des souris incapables d'éliminer le "mauvais"cholestérol (LDL) et qui présentent rapidement une athérosclérose en cas de consommation d'aliments gras. Ils ont divisé les souris en deux groupes. Le premier a reçu en régime des tomates normales et le deuxième des tomates contenant le peptide 6F. Résultat : les souris ayant consommé les tomates intégrant le peptide 6F avaient des niveaux plus élevés de "bon" cholestérol et deux fois moins de plaques d'athérome.

"Il s'agit du premier "alicament" intégré directement dans un fruit et qui possède une efficacité thérapeutique aussi puissante que la molécule prise seule" a souligné le Docteur Fogelman.

Celui-ci précise toutefois que « De tels produits ne pourront jamais remplacer une alimentation équilibrée et l'activité physique mais pourront dans l'avenir devenir des compléments alimentaires très précieux pour préserver la santé cardio-vasculaire. »

Article rédigé par Mark FURNESS pour RTFlash

American Heart Association

Glioblastome : la recherche avance !
Lundi, 03/12/2012 - 00:10

Une équipe de recherche associant des chercheurs de l'Institut national de la santé américain, de la Clinique Mayo et de l'Université Duke, vient de montrer qu'il était possible d'améliorer sensiblement la prise en charge du glioblastome, un grave cancer du cerveau, en agissant de façon ciblée sur les cellules souches cancéreuses avec ces cellules T reprogrammées.

Le principal défi pour traiter ce cancer très agressif est de parvenir à éliminer toutes les cellules cancéreuses pour éviter les récidives ultérieures. Les chercheurs ont donc imaginé une nouvelle stratégie thérapeutique qui repose sur l'utilisation simultanée de lymphocytes T dirigés contre 2 antigènes distincts, ce qui permet de réduire très sensiblement la dissémination des cellules malades.

Par ailleurs, Roche vient d'annoncer que l'Avastin, associé à la radiothérapie et à la chimiothérapie, pouvait réduire le risque de progression de la maladie ou de mortalité de 36 %, par rapport à la seule combinaison de radiothérapie et chimiothérapie et au placebo.

Enfin, la firme Diffusion Pharmaceuticals a annoncé le succès de son essai clinique de phase I pour le traitement du cancer du cerveau à l'aide de trans sodium crocetinate (TSC). Le trans sodium crocetinate (TSC) appartient à une nouvelle classe de molécules qui améliorent la diffusion de l'oxygène. Or, la faible teneur en oxygène des cellules malignes du glioblastome et des métastases cérébrales qu'il provoque sont l'une des causes de la résistance aux traitements actuels.

En permettant une plus grande diffusion d'oxygène dans les cellules cancéreuses, le TSC augmente donc sensiblement l'efficacité des traitements chimiothérapiques et radiothérapiques, ce qui se traduit, chez l'animal, par un triplement de la durée de vie sans effets secondaires.

Article rédigé par Mark FURNESS pour RTFlash

Liebert

PharmaTimes

Diffusion Pharmaceuticals

L'activité physique est bonne pour le cerveau
Lundi, 03/12/2012 - 00:00

Une étude réalisée pendant trois ans sur 640 personnes vient de montrer que les personnes âgées qui augmentent leur activité physique réduisent sensiblement leurs risques de maladies neuro-dégénératives. Selon cette étude, les personnes âgées peuvent réduire leur risque de démence de 40 % et leur risque de déclin cognitif de 60 %.

Plus surprenant, cet effet protecteur considérable de l'activité physique régulière qui a été vérifié par résonance magnétique (IRM) au début et à la fin de l'étude par les changements de matière blanche dans le cerveau, ne semble pas lié à l'âge, au niveau d'éducation ou aux antécédents cardio-vasculaires.

Ana Verdelho souligne par ailleurs que "L'évolution des lésions de la matière blanche cérébrale constitue chez la personne âgée un bon indicateur dans différentes manifestations de déclins cognitifs mais également d'états dépressifs".

Àu cours de cette étude, les participants ont été régulièrement interrogés sur leur mode de vie, leur humeur et leur état cognitif. À l'issue de l'étude, 90 patients avaient développé une démence, dont 60 % avec une démence vasculaire et 37 % des patients une maladie d'Alzheimer. 147 autres patients avaient pour leur part connu un déclin cognitif sans démence.

Selon Ana Verdelho qui a dirigé cette étude et travaille à l'hôpital Santa Maria de l'université de Lisbonne, "Il suffit de pratiquer une activité physique modérée d'au moins 30 minutes, 3 fois par semaine pour obtenir cet effet protecteur et prévenir les démences et déclins cognitifis". L'association américaine pour la santé cardiaque préconise pour sa part au moins deux heures et demie par semaine d'activités modérées ou une heure quinze d'activités intenses.

Article rédigé par Mark FURNESS pour RTFlash

Stroke

La France en pointe mondiale dans la chirurgie du foie
Dimanche, 02/12/2012 - 10:16

Le Professeur Karim Boudjema, chirurgien hépato-biliaire, a réalisé au CHU de Rennes une intervention unique en son genre que seules 3 équipes au monde maîtrisent.

L'opération consiste dans un premier temps à extraire le foie touché par une tumeur inopérable. Dans un deuxième temps, le foie est refroidi jusqu'à quatre degrés et sa circulation sanguine est assurée grâce à une pompe. Les chirurgiens peuvent ainsi intervenir pendant plus de huit heures sans que l'organe ne soit lésé. Dernière phase, le foie débarassé de sa tumeur est réimplanté.

A l'issue de l'intervention qui dure une douzaine d'heures, il faudra environ trois semaines au foie pour retrouver sa taille originale. Cette opération hors norme permet de traiter des tumeurs du foie qui étaient jusqu'à présent inopérables. Rappelons que le cancer du foie touche plus de 8 000 personnes par an en France et qu'il reste mortel dans 90 % des cas.

C'est également en France, et plus précisemment près de Lyon, qu'a été inventée une autre techique très prometteuse pour détruire les tumeurs du foie : le traitement par ultrasons focalisés de haute intensité (HIFU) qui permet l’ablation rapide, précise et en temps réel des métastases hépatiques.

Cette technologie, à l'essai depuis trois ans, pourrait, d'ici une dizaine d'années, se substituer à la plupart des interventions chirurgicale classiques sur les tumeurs du foie.

Article rédigé par Mark FURNESS pour RTFlash

Inserm

Maladie d’Alzheimer : la piste génétique se précise
Dimanche, 02/12/2012 - 00:00

En réalisant un séquençage complet chez 280 personnes souffrant de la maladie d'Alzheimer et 500 personnes-témoins, une équipe de chercheurs britanniques, américains et français, vient de montrer que des mutations du gène TREM2 sur le chromosome 6 multipliaient par cinq le risque de développer une maladie d’Alzheimer "tardive". Ces résultats ont été confirmés par des chercheurs islandais qui ont également pu montrer que le gène TREM2 augmentait sensiblement le risque de maladie d’Alzheimer.

Ces mêmes mutations sur ce même chromosome 6 sont également impliquées dans le déclenchement de l’ostéodysplasie polykystique lipomembraneuse, encore appelée maladie de Nasu-Hakola. Cette maladie génétique, qui touche des sujets jeunes, commence par des déformations articulaires puis se poursuit par des fractures osseuses. Mais la maladie évolue ensuite vers des troubles neurologiques puis enfin vers la démence précoce.

Cette découverte devrait permettre, d'un part, de mieux comprendre le rôle complexe du système immunitaire dans la maladie d’Alzheimer, rôle déjà éclairé par des travaux de l'Inserm de Lille. Mais, d'autre part, cette avancée a permis d'identifier un gène commun à l'origine d’une maladie rare et de la maladie d'Alzheimer, dont la fréquence est sans commune mesure avec celle de la maladie de Nasu-Hakola.

Cette découverte est très intéressante car elle montre l'extrême diversité des causes génétiques de la maladie d’Alzheimer.

La maladie d’Alzheimer se traduit par une perte progressive de la mémoire, une altération des fonctions cognitives et des troubles du comportement. En France, cette affection touche plus de 850 000 personnes et représente un coût social et économique majeur, de l'ordre de cinq milliards d'euros par an.

L’un des grands défis de la recherche médicale est d'identifier et de répertorier l'ensemble des gènes impliqués, à des degrés divers, dans le déclenchement de cette maladie. Cette connaissance fondamentale est indispensable à la mise au point de nouveaux médicaments efficaces qui puissent stopper la progression de la maladie et même la prévenir.

Article rédigé par Mark FURNESS pour RTFlash

NEJM

Un tissu cérébral artificiel pour tester de nouveaux médicaments
Samedi, 01/12/2012 - 17:33

Neurix, une société suisse, basée à Genève, a mis au point un micro-tissu humain analogue au tissu cérébral qui permet de tester l'efficacité de nouveaux médicaments. Actuellement, il faut un bonne dizaine d'années de la découverte d'une molécule intéressante aux essais sur l'homme. Mais Neurix, avec cette nouvelle biotechnologie, voudrait diviser par deux ce délai en fournissant un outil fiable permettant d'évaluer l'intérêt thérapeutique d’une molécule dès sa découverte.

Concrètement, ce système, stable et fiable dans le temps, ressemble à un "mini-œuf" de 5 millimètres de diamètre. Il se compose de cellules souches pluripotentes induites qui possèdent la capacité remarquable de revenir au stade qui était celui des cellules souches indifférenciées du tout début de l’embryon. Ce sont les travaux sur les potentialités de ce type de cellules qui ont vallu le récent Nobel de Médecine 2012 au britannique John B. Gurdon et à son collègue japonais, Shinya Yamanaka.

L'un des enjeux majeurs de la recherche en biologie consiste à reprogrammer ces cellules souches pluripotentes pour parvenir à produire exactement le type de cellules spécialisées dont on a besoin pour traiter les malades. Or, récemment, des chercheurs dirigés par les professeurs Karl-Heinz Krause et Luc Stoppini, de l'université de Genève, ont réussi l'exploit de transformer ces CSPI en différents types de cellules neurales, neurones et cellules gliales notamment.

S'appuyant sur cette percée majeure de la recherche, la société Neurix est convaincue qu'elle peut réaliser, à l'aide de sa matrice cellulaire, des artefacts tissulaires et cellulaires spécifiques correspondant à des pathologies précises.

Prochaine étape de ces recherches : mettre au point des modèles biologiques permettant d'évaluer le potentiel thérapeutique de nouvelles molécules destinées à traiter les grandes affections neuro-dégénératives, maladies d’Alzheimer, de Parkinson et sclérose en plaques.

Article rédigé par Mark FURNESS pour RTFlash

Neurix

European Pharmaceutical Review

Prévention cardio-vasculaire : du poisson plutôt que des oméga 3 !
Samedi, 01/12/2012 - 17:21

Une étude sous forme de méta-analyse portant sur près de 800 000 personnes (dont 35 800 AVC) réalisée par le département santé publique de l'université de Cambridge a examiné les liens entre le risque d’accidents vasculaires cérébraux (AVC, hémorragiques ou ischémiques, constitués ou transitoires) et la consommation de poisson et d'oméga 3.

Cette vaste analyse a repris 26 études portant sur les effets de la consommation régulière de poissons en matière cardio-vasculaire. Elle montre qu’une consommation de poisson au moins deux fois par semaine réduit de 6 % le risque d' AVC par rapport à une consommation occasionnelle. Pour les gros consommateurs (au moins cinq fois par semaine), le risque est diminué de 12 %. Cette étude montre donc qu'une augmentation de deux rations par semaine de poisson permet une diminution de 4 % du risque d’AVC. Toutefois, aucune relation n'a été trouvée entre la prise régulière de compléments d'oméga 3 et la diminution du risque d’AVC.

Cette nouvelle étude, unique par son ampleur, confirme donc que c'est bien la consommation complète de certains aliments et produits, et non la consommation de suppléments alimentaires à base d'oméga 3, qui permet une puissante protection contre certaines pathologies, notamment cardio-vasculaires. Le concept d'interaction et de synergie positive entre les multiples micro-nutriments et vitamines contenus dans les aliments se trouve ainsi validé. Mieux vaut donc, à tout point de vue, manger une bonne tranche de saumon ou de thon que prendre des gélules d'oméga 3 pour garder un coeur en pleine forme.

Article rédigé par Mark FURNESS pour RTFlash

NCBI

BMJ

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top