RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 732
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Janvier 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Li-Fi, le Wi-Fi lumineux, réalise une percée spectaculaire
Avenir
Vers la généralisation des scanners 3D sur mobile
Matière
Vers des cellules solaires flexibles, efficaces et peu coûteuses
Terre
Quand la Terre perdra-t-elle ses océans ?
Vivant
Une molécule unique pourrait prévenir plusieurs grandes pathologies !
Oxitone, la montre qui a du cœur…
Découverte d'une molécule permettant de traiter la dépendance au cannabis
Cancer : un nouveau gène identifié
L'anxiété : facteur de risque d'AVC !
Une méthode révolutionnaire pour coller les tissus biologiques
L'ADN délivre les plans mais aussi le mode d'emploi…
Démence liée au vieillissement : le poids des modes de vie !
Des molécules de synthèse capables de bloquer la réplication du virus du SIDA
Une neuroprothèse pour améliorer la mémoire !
Recherche
En 2019, Skylon volera à Mach5 !
Edito
Le stockage massif de l'énergie : un enjeu majeur



Aujourd’hui, les énergies fossiles (pétrole, charbon et gaz) dominent le paysage énergétique mondial et resteront encore majoritaires dans le mix énergétique mondial pendant plusieurs décennies, puisque l’Agence Internationale de l’Energie (AIE) prévoit qu’elles devraient encore représenter près des trois-quarts de la consommation énergétique de la planète à l’horizon 2035.

Mais en dépit de cette persistance des énergies fossiles, liée à des facteurs économiques et technologiques, la part des énergies renouvelables ne cesse de croître et cette tendance devrait s’accélérer dans les années à venir car le coût moyen d’exploitation de ce type d’énergie a continué à diminuer et rejoindra dans une dizaine d’années celui des énergies conventionnelles.

En outre, face au défi environnemental et climatique et à la nécessité absolue de réduire drastiquement les émissions humaines de CO2 d’ici le milieu de ce siècle, tous les grands pays industrialisés mais également les pays émergents se sont à présent engagés dans la transition énergétique, même si celle-ci se déroule à des rythmes très différents en fonction du niveau de développement et des contraintes économiques et sociales de chaque État.

Aujourd’hui, il faut savoir que plus de 20 % de l’électricité mondiale est déjà produite à partir de sources d’énergie peu émettrices de CO2 (hydraulique, biomasse, éolien et solaire), y compris le nucléaire. Cette production électrique mondiale qui est l’ordre de 22 000 TWh par an va, selon toute probabilité, continuer à croître deux fois plus vite que la production énergétique mondiale et la plupart des experts s’accordent à penser que les énergies renouvelables pourraient assurer environ un tiers de la production électrique de la planète à l’horizon 2035.

L’AIE souligne d’ailleurs dans son rapport 2012 que le développement des énergies renouvelables va s’accélérer dans les deux prochaines décennies et que celles-ci répondront à près de 50 % des nouveaux besoins liés à la croissance de la production électrique dans le monde d’ici à 2035. 

S’agissant de l’Union européenne, les derniers chiffres dont nous disposons nous indiquent que l’ensemble des énergies renouvelables représente à présent environ 13 % de la consommation totale d’énergie en Europe, contre seulement 8 % il y a 10 ans et les pays de l’Union se sont fixé comme objectif de monter cette part des énergies renouvelables à 20 % de leur consommation énergétique totale à l’horizon 2020 (23 % pour la France).

Mais face à cette double montée en puissance, celle de la part de la consommation électrique dans le bilan énergétique global et celle de la forte progression de l’ensemble des énergies renouvelables dans la production électrique, la question du stockage massif et efficace de l’énergie est en train de devenir tout à fait capitale et mobilise les chercheurs et les industriels du monde entier.

Intrinsèquement, l’électricité ne se stocke pas ; il est donc nécessaire d’ajuster en temps réel sa production à sa consommation. Tant que la majorité de cette production électrique est assurée par des sources d’énergie fossile qui, par définition, sont stables et prévisibles, cette caractéristique reste facilement maîtrisable. Mais à partir du moment où la part des énergies renouvelables et notamment de l’éolien et du solaire devient significative (au-delà de 10 %), les choses se compliquent singulièrement.

Les énergies solaires et éoliennes restent en effet soumises à l’évolution météorologique et, de ce fait, elles peuvent connaître de brusques chutes de production, ce qui peut tout simplement entraîner un effondrement du réseau de distribution électrique si des solutions massives de stockage de l’énergie n’ont pas été prévues. Un tel scénario catastrophe s’est déjà produit en Allemagne par exemple, pays où la part de l’énergie éolienne dépasse à présent, en moyenne, les 8 % de la consommation électrique totale.

Mais dans le domaine de la production électrique, un pic de production est également très difficile à gérer, comme le montre l’exemple récent de la tempête Xaver en Allemagne le 5 décembre 2013. Ce jour-là, grâce aux vents exceptionnels résultant de cet événement météorologique extrême, le parc éolien allemand a assuré pendant quelques heures 40 % de la consommation électrique totale outre-Rhin. Au cours de cette journée « historique », la production éolienne d’électricité a été 50 fois plus importante que la production moyenne journalière constatée le mois précédent ! Comme l’Allemagne a peu de barrages et de grandes installations hydrauliques pour lisser ses fluctuations de production électrique, elle a dû fermer en catastrophe de nombreuses centrales thermiques et se résoudre à vendre à perte de l’électricité à ses voisins…

On voit donc à quel point le développement massif des énergies renouvelables est lié à la mise au point de nouvelles solutions technologiques permettant de stocker pour un coût raisonnable de grandes quantités d’énergie pour les redistribuer plus tard, en fonction de la demande. 

Mais dans ce domaine les solutions miracles n’existent pas et chaque moyen industriel de stockage de l’énergie présente ses avantages et ses inconvénients : les accumulateurs géants ou les batteries liquides ont un coût d’utilisation qui reste trop élevé ; quant au stockage par air comprimé, son rendement reste faible et son coût énergétique important.

C’est pourquoi, jusqu’à présent, ce sont les barrages et les stations de transfert d’énergie par pompage qui représentent la quasi-totalité des outils massifs de stockage de l’énergie dans le monde. Cette solution hydraulique présente en effet l’avantage d’avoir un excellent rendement et d’être économiquement rentable. Mais elle présente également un très gros inconvénient : elle n’est évidemment réalisable que sur certains sites, ce qui en réduit sensiblement les possibilités d’utilisation.

Il y a quelques jours, les autorités, conscientes de cet enjeu, ont lancé un appel à manifestation d'intérêt (AMI) « Stockage et conversion de l'énergie » dans le cadre du programme d'investissements d'avenir piloté par l'Ademe pour le compte de l'État. Cet AMI s'appuie sur une étude récente sur le potentiel de stockage de l'énergie et sur le programme « Démonstrateurs et plates-formes technologiques en énergies renouvelables et décarbonées et chimie verte », doté de 1,12 milliard d'euros de crédits. Ce programme vise à explorer prioritairement deux vois technologiques, le stockage d’énergie et le stockage sous forme d’hydrogène, qui présentent deux atouts majeurs : elles ne supposent pas de transformation radicale des réseaux de distribution et elles n’entraînent pas d’augmentation des émissions de CO2.

Du côté des chercheurs et des industriels, des solutions innovantes à ce problème-clé du stockage massif de l’énergie commencent à apparaître. Fin décembre, Alstom a ainsi présenté une solution reposant sur le stockage de l'énergie grâce à des batteries et permettant d'optimiser l'équilibrage du réseau pour gérer la distribution d’électricité en fonction de la demande - elle aussi très fluctuante - des consommateurs.

Baptisée MaxSineTM eStorage, cette solution a été spécialement développée pour pouvoir gérer, dans le réseau électrique, l’instabilité intrinsèque induite par la part croissante des énergies renouvelables intermittentes comme l’éolien et le solaire. Concrètement, chaque module est connecté à une batterie d'une puissance de 2 MW. Ce système modulaire permet d’atteindre jusqu'à 12 MW de capacité de stockage. L'électricité ainsi stockée peut être mobilisée immédiatement pour répondre à une brusque augmentation de la demande, ce qui permet d’éviter les risques de black-out du réseau. Autre avantage de ce procédé : il permet aux consommateurs de gérer plus efficacement leur consommation d’électricité en achetant celle-ci de préférence pendant des périodes où son prix est plus bas.

Cette solution d’Alstom comprend notamment un convertisseur de puissance qui relie la batterie en courant continu et convertit l'électricité qui sera stockée ou envoyée dans le réseau en courant alternatif. Un logiciel de gestion de stockage d'énergie en temps réel permet de concevoir un plan de production d'électricité personnalisé qui va tenir compte de l’état du réseau en fonction de la demande enregistrée et des conditions météorologiques. Ce système innovant devrait être expérimenté d’ici quelques mois dans le cadre du projet européen « Nice Grid », qui vise à créer un micro réseau local reliant 200 sites de panneaux solaires.

Mais alors qu’Alstom présentait son innovation pour le stockage de l’énergie, UTRC (United Technologies Research Center), le centre Recherche et Innovation du groupe américain UTC, basé à Hartford (Connecticut) a présenté « Purestorage », une nouvelle technologie de stockage de l'énergie de batterie à flux qui a nécessité plusieurs années de recherche (Voir UTC). Cette nouvelle technologie de stockage aurait une densité 5 à 10 fois supérieure à celle des batteries à flux traditionnelles et semble particulièrement bien adaptée au « lissage » de la production de la distribution électrique issue des énergies renouvelables, par nature diffuse et intermittente, comme l’éolien ou le solaire.

Selon UTRC, sa solution technologique serait capable de répondre aux besoins spécifiques de capacité énergétique et de stockage des différents producteurs et distributeurs et permettrait de diviser par deux ce coût de stockage par rapport aux solutions de stockage concurrentes : batteries lithium-ion, les batteries à sels fondus ou encore stockage par air comprimé.

Mais il existe également une autre voie très prometteuse qui pourrait permettre de convertir et de stocker l’énergie pour la réutiliser ultérieurement, soit dans les réseaux de distribution de gaz et d’électricité, soit comme carburant dans les transports propres : la transformation en hydrogène. Du fait de sa très haute densité énergétique (33kWh/kg), l’hydrogène constitue en effet un vecteur d’énergie sans rival, à condition d’arriver à en maîtriser parfaitement la production, le stockage et l’utilisation.

Ce défi n’est pas simple à relever car l’hydrogène est d’une extrême volatilité et le stocker de manière sûre et rapide demande de grandes précautions et nécessite beaucoup d’énergie. Mais ce verrou technologique est en train de sauter. Une entreprise drômoise, McPhy Energy, a en effet réussi à stabiliser l’hydrogène à l’état solide sous forme d’hydrures métalliques facilement utilisables par les industries.

Cette solution très innovante permet de fixer l’hydrogène à du magnésium, qui se comporte un peu à la manière d’une éponge. Le résultat se matérialise sous la forme de galettes facilement transportables et utilisables sans risque. Le procédé mis au point par Mac Phy permet de produire 12 m3 d’hydrogène par heure. Mais il y a mieux : ce système est réversible et permet également de transformer l’hydrogène en électricité avec un taux de rendement énergétique de l’ordre de 90 %.

Pour l’instant, le prototype existant est limité à une puissance de 3,3 MWh mais McPhy pense pouvoir, d’ici quelques années, proposer des stations de stockage de 16,5 MWh. Si cette solution de transformation et de stockage par hydrogène à l’état solide parvient rapidement à un stade industriel, elle pourrait bien révolutionner l’ensemble de la chaîne de production et de distribution de l’énergie et imposer l’hydrogène comme vecteur incontournable dans le nouveau paysage énergétique mondial.

Mais l’hydrogène présente également un autre avantage peu connu et qui ouvre de vastes perspectives. Il peut être injecté dans une proportion d’au moins 5 % - et peut-être plus - dans les réseaux de distribution de gaz naturel, sans qu’il faille procéder à des transformations majeures et coûteuses de ces réseaux, comme l’ont montré plusieurs expérimentations de longue durée en Europe du Nord.

Cette intégration de l’hydrogène au réseau gazier s’intègre dans un procédé plus vaste, baptisé "Power to gas" (ou production d'énergie à partir du gaz) qui permet d’utiliser l'électricité excédentaire produite par les énergies renouvelables (biomasse, éolien et solaire) pour produire de l'hydrogène et du méthane qui pourront être stockés et utilisés ultérieurement, comme vecteur énergétique.

Outre-Rhin, les ingénieurs de MicrobEnergy GmbH sont en train d’améliorer ce procédé. Ils ont conçu une chaîne de production dans laquelle la transformation s'effectue directement dans le fermenteur. Le CO2 présent dans le biogaz et l'hydrogène peut ainsi être transformé en méthane supplémentaire. Ce procédé permet non seulement d’atteindre un taux de méthanisation de 95 % mais il est également mieux adapté au stockage de l'électricité excédentaire produite à partir de sources d'énergie renouvelable intermittentes.

En septembre 2013, une étape décisive dans le développement massif de cette solution « Power to Gas » a été franchie : le fournisseur d'électricité allemand E.On a inauguré sa première unité de transformation industrielle de l'électricité en gaz, ouvrant ainsi une nouvelle voie dans le stockage de l'énergie produite de façon intermittente par des énergies d'origine renouvelable.

Jusqu'à présent, on réalisait l'opération inverse : la transformation du gaz en chaleur et en électricité. Mais ce processus est réversible, comme vient de le montrer E.On qui a inauguré à Falkenhagen (Allemagne) une unité de transformation de l'électricité en hydrogène. Cette usine "Power-to-Gas" utilise directement l'électricité produite par des éoliennes pour décomposer l'eau par électrolyse et obtenir ainsi de l'oxygène d'une part et de l'hydrogène, d'autre part. L'hydrogène ainsi obtenu peut être stocké puis réinjecté ensuite dans le réseau de distribution de gaz. L’unité a une puissance de 2 MW et peut produire 360 m3 d'hydrogène par heure. Depuis le mois de juin, cette centrale a commencé à injecter dans le réseau de gaz son hydrogène (à 2 %, sous une pression de 55 bars).

Mais d’autres recherches méritent également d’être signalées. En Suisse, des chercheurs de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont mis au point, fin 2012, une technique permettant de produire de l'hydrogène à partir d'énergie solaire, d'eau et de rouille. Dans le prolongement de ces recherches, il y a quelques semaines, l'équipe de Michael Grätzel, directeur du Laboratoire de photonique et interfaces de l'EPFL, en collaboration avec une équipe de chercheurs du Technion (Israël Institute of Technology), est parvenue à concevoir des nanostructures d'oxyde de fer qui ouvrent la voie à une production industrielle et à faible coût d'électricité en utilisant le vecteur Hydrogène.

Chercheur de réputation internationale, Michael Grätzel est déjà l'inventeur d'une cellule solaire qui porte son nom et qui permet, par un processus photoélectrochimique, de produire directement de l'hydrogène à partir d'eau.

Cette fois, la nouvelle technologie développée par ces chercheurs permet de produire de l'hydrogène avec un rendement acceptable à partir d'énergie solaire, d'eau et d'oxyde de fer. Grâce à leur découverte, les chercheurs de l'EPFL se disent en mesure de produire de l'hydrogène pour un prix de revient égal à 5 euros/kg, contre 15 euros/kg avec les meilleurs systèmes actuels.

Nous sommes donc bel et bien en train de vivre un tournant scientifique et technologique et nous devrions enfin disposer d’ici quelques années d’un ensemble cohérent de procédés et de solutions permettant le stockage massif et économique de l’électricité et plus largement de l’énergie. Il deviendra alors possible, en recourant notamment au vecteur hydrogène, d’utiliser sans aucune limite et de manière bien plus efficace et rentable qu’aujourd’hui l’ensemble des sources d’énergie renouvelable, éolien, solaire mais également biomasse, géothermie profonde et énergies des mers, une source d'énergie encore embryonnaire dont le potentiel est immense.

Il est évidemment capital que la France et l’Europe prennent toute la mesure de ces enjeux scientifiques, technologiques et industrielles et développent un effort de recherche particulier dans ce domaine stratégique, qui sera un élément clé de la lutte contre le réchauffement climatique, faisant intervenir de multiples disciplines, dans les domaines de la physique, de la chimie, des nanotechnologies et de la biologie et combinant recherche fondamentale et recherche appliquée.

Notre Pays a en effet la chance rare de pouvoir exploiter à grande échelle cinq grandes sources d'énergie propre : l'hydraulique, l'éolien, le solaire, la biomasse et les énergies marines et, si nous parvenons à relever ce défi du stockage massif de l'énergie, nous pourrons dans un génération être la pointe mondiale de la transition énergétique vers le "zéro carbone", un domaine technologique et industriel qui sera l'un des grands moteurs de la croissance économique au cours de ce siècle.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Li-Fi, le Wi-Fi lumineux, réalise une percée spectaculaire
Jeudi, 09/01/2014 - 09:01

Une équipe associant des chercheurs de plusieurs universités britanniques et écossaises, parmi lesquelles les prestigieuses Universités d'Oxford et de Cambridge, a réussi à obtenir un débit sans fil supérieur à 10 Gbit/s (c'est-à-dire 250 fois plus rapide que les débits maximum disponibles chez les particuliers) en utilisant des ondes lumineuses à la place d'ondes radio.

L'étendue du spectre électromagnétique qui correspond à la lumière visible représente une bande de fréquences bien supérieure à celle des ondes radio et permettant, en théorie, de véhiculer, en restant dans des longueurs d'onde inoffensives pour l'homme, des débits d'information qui peuvent être 1000 fois plus grands par unité de temps.

La technologie utilisée par les chercheurs écossais a été baptisée Li-Fi (Light Fidelity) et son principe est connu depuis le XIXe siècle puisque le célèbre Graham Bell, inventeur du téléphone, l'avait lui-même expérimenté avec son photophone.

Pour parvenir à cette rupture technologique, les chercheurs ont travaillé à améliorer la fréquence et la stabilité de commutation des diodes électroluminescentes (DEL) utilisées pour les missions de réception de ces signaux lumineux.

Dans la présente expérience, chaque DEL utilisée fonctionnait à un débit supérieur à 3 Gb/s et les chercheurs ont  réussi à coupler 3 DEL différentes et à les faire fonctionner en simultané pour atteindre le débit de 10 Gb/s. Fiable, ultrarapide et peu coûteux, le Li-Fi pourrait bien devenir rapidement un concurrent redoutable au Wifi pour l'Internet mobile. Reste cependant à améliorer sa portée maximale qui reste limitée à une dizaine de mètres pour le moment.

Article rédigé par Georges Simmonds pour RT Flash

BBC

^ Haut
Avenir
Nanotechnologies et Robotique
Vers la généralisation des scanners 3D sur mobile
Lundi, 06/01/2014 - 17:00

L'Institut fédéral de technologie de Zurich a mis au point une application disponible sur smartphone qui permet de scanner objets et visages en 3D.

Pour réaliser cette opération jusqu'alors impossible sur un mobile, il suffit que l'utilisateur fasse tourner son téléphone autour d'un objet pour faire apparaître sa forme en 3D comme si l'on voulait obtenir plusieurs angles d'une image. Le retour sur l'écran est ensuite presque instantané, ce qui permet à l'utilisateur de couvrir les parties manquantes de cette prise de vue en 3D de l'objet.

Grâce à cette application innovante, il devient possible de réaliser des saisies en 3D à peu près n'importe où et notamment dans les endroits faiblement éclairés, comme les musées. Ce système utilise des capteurs d'inertie du Smartphone et permet de calculer les moments les plus appropriés à la capture. Autre avantage, ce procédé permet aussi bien la capture 3D d'objets que de visages (portraits).

Ce nouvel outil technologique vient donc compléter la chaîne de réalité augmentée qui va de l'acquisition d'informations sur un objet ou un espace à l'impression 3D.

Article rédigé par Georges Simmonds pour RT Flash

Ethz

^ Haut
Matière
Matière et Energie
Vers des cellules solaires flexibles, efficaces et peu coûteuses
Jeudi, 09/01/2014 - 08:54

Produire des cellules solaires qui soient à la fois efficaces, en termes de rendement, légères, flexibles et peu coûteuses, relevait jusqu'à présent de la quadrature du cercle. Mais cette situation est peut-être en train de changer.

Une équipe de chercheurs de l'Université de l'Illinois (Urbana-Champaign) et de l'Université Centrale de Floride (Orlando), dirigée par  Debashis Chanda, travaille sur une nouvelle technique très prometteuse pour mieux utiliser l'immense potentiel des cellules solaires. L'équipe a en effet conçu un procédé pour créer de grandes feuilles nanotexturées, faites de micro-cellules en silicium, ayant la capacité de pouvoir y  fabriquer plus facilement en série des cellules solaires légères, plus efficaces et flexibles.

L'équipe a utilisé un piège à lumière basé sur une technique de nano-impression où un timbre polymère gaufre mécaniquement le modèle pour obtenir des cellules solaires sans qu'il soit besoin de passer par les différentes étapes de la technologie par lithographie.

Comme le souligne Debashis Chanda, "jusqu'à présent, les scientifiques ont élaboré des conceptions montrant des taux d'absorption plus importants de la lumière du soleil, mais celles-ci ne permettaient pas de convertir efficacement la lumière solaire en énergie électrique. Nos travaux démontrent que notre procédé piégeant la lumière offre une efficacité électrique plus élevée dans un module flexible et léger."

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Quand la Terre perdra-t-elle ses océans ?
Dimanche, 05/01/2014 - 20:36

On sait que sous l’effet de la luminosité croissante du Soleil, la température va progressivement augmenter à la surface de la Terre et des océans, ce qui va notamment entrainer l’évaporation complète des océans.

En effet, la quantité de vapeur d’eau dans l’atmosphère augmente avec la température des océans et la vapeur d’eau est un gaz à effet de serre qui participe au réchauffement de la surface de la Terre. Ce processus va donc amorcer et amplifier une boucle de rétroaction positive qui finira par faire bouillir les océans et faire disparaitre l’eau liquide en surface.

Mais il restait à savoir à quel moment aurait lieu cette évaporation finale des océans ? Une équipe du Laboratoire de météorologie dynamique, associant notamment des chercheurs du CNRS, de l'ENS et de l'école polytechnique, a conçu un modèle climatique tridimensionnel permettant de simuler ce phénomène.

Grâce à ce modèle très complexe, les chercheurs ont pu calculer que ce basculement devrait se produire lorsque le flux solaire moyen atteindra environ 375 W/m2 pour une température de surface de près de 70°C (le flux actuel étant de 341 W/m2), soit dans environ un milliard d’années. Ce résultat repousse de plusieurs centaines de millions d’années l'échéance précédemment calculée concernant cette évaporation complète des océans.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une molécule unique pourrait prévenir plusieurs grandes pathologies !
Jeudi, 09/01/2014 - 08:48

Les maladies cardiovasculaires sont devenues la première cause de mortalité dans le monde, avec trois décès sur 10 (17 millions de morts sur 55 millions de décès dans le monde en 2011). En France, ces pathologies cardiaques, y compris les AVC, sont également la première cause de décès, avec au moins  180 000 morts par an.

Autre fléau médical et social, le diabète, qui touche 3 millions de personnes en France et entraîne au moins 10 000 décès directs par an.

Face à ces chiffres, on comprend tout l'intérêt d'une prévention médicale active et personnalisée contre ces pathologies dévastatrices. Mais une équipe de chercheurs de la Faculté de médecine de Strasbourg, dirigée par Pascal Bousquet, travaille depuis plus de 15 ans sur une molécule très prometteuse, baptisée LNP 599, qui serait capable de prévenir à la fois les infarctus, les maladies cardiovasculaires, les AVC, le diabète et peut être également l'obésité.

La grande originalité de cette molécule réside dans son mode d'action : au lieu d'agir sur les organes touchés par les maladies, elle agit sur le système nerveux. Comme le souligne Pascal Bousquet, "Notre idée de départ était de chercher une espèce de chef d'orchestre qui nous permettrait, en modifiant le rythme de ces régulations par une cible unique, de modifier tous les symptômes à la fois et c'est exactement ce que nous avons réussi à faire avec cette molécule".

Il faut en effet savoir que des pathologies apparemment différentes, comme les infarctus, les accidents vasculaires cérébraux ou le diabète, partagent en fait des facteurs de risque communs tels que l'hypertension artérielle, l'excès de cholestérol ou l'obésité. Or ces facteurs se traduisent tous par des perturbations dans le fonctionnement du système nerveux autonome.

C'est là qu'intervient le LNP 599 qui permet d'agir à la source, directement sur le système nerveux. Les premiers essais cliniques sur l'animal ont montré que cette molécule permettait effectivement d'obtenir une réduction de la pression artérielle accompagnée d'une baisse du cholestérol en excès.

Les scientifiques estiment que l'intérêt du traitement réside surtout dans son efficacité sur plusieurs pathologies. Un avantage qui permettrait d'écarter le risque d'interactions entre différentes molécules. "Plus on limite le nombre de médicaments et plus on limite, a priori, le risque d'effets indésirables".

Pour l'instant, la molécule LNP 599 n'a été testée que sur des rongeurs mais elle a permis d'observer une réduction de la pression artérielle accompagnée d'une baisse du cholestérol. Le principal avantage de cette molécule est qu'elle va réduire considérablement les risques d'interactions médicamenteuses.

Reste à présent à passer aux différentes phases d'essais cliniques chez l'homme pour évaluer le potentiel thérapeutique de cette molécule et vérifier qu'elle peut être administrée sans danger. Si tel est le cas, ce nouveau médicament préventif pourrait être disponible en 2020.

Article rédigé par Georges Simmonds pour RT Flash

Atout

Oxitone, la montre qui a du cœur…
Mardi, 07/01/2014 - 08:05

On sait qu'en cas d'attaque cardiaque, chaque minute compte et si la victime est seule lorsque survient cet événement, un temps précieux peut être perdu avant que les services de secours ne soient alertés et puissent intervenir efficacement.

C'est précisément pour lever cet obstacle que le médecin israélien Léon Eisen a développé un appareil capable d'identifier en temps réel les symptômes d'une crise cardiaque et de prévenir en urgence les services compétents. Il s'agit de l'Oxitone, une montre qui mesure continuellement le pouls ainsi que le taux d'oxygène dans le sang.

La montre est connectée à un Smartphone ou un tout autre appareil via Bluetooth, et peut ainsi émettre un signal d'alerte au médecin le plus proche en cas de crise. Pour réaliser son prototype de montre communicante, Léon Eisen a développé une nouvelle technologie, baptisée Trans Illumination, qui utilise deux sources lumineuses de longueurs d'onde différentes associées à un collecteur convexe. Ce système permet d'avoir une excellente précision de la mesure du débit sanguin.

Ce projet a été retenu par General Electric qui va en financer le développement et l'Oxitone devrait être commercialisée à un coût raisonnable de l'ordre de 200 dollars (150 euros environ).

Article rédigé par Georges Simmonds pour RT Flash

Oxitone

Découverte d'une molécule permettant de traiter la dépendance au cannabis
Mardi, 07/01/2014 - 08:00

Deux équipes de recherche de l’Inserm dirigées par Pier Vincenzo Piazza et Giovanni Marsicano ont découvert qu’une molécule produite par le cerveau, la prégnénolone, permet de lutter efficacement contre les effets néfastes du cannabis chez l’animal.

Selon ces recherches publiées dans "Science", cette substance précurseur de toutes les hormones stéroïdiennes (progestérone, testostérone...) permettrait de lutter contre les troubles de la mémoire ainsi que la perte générale de motivation.

Ces travaux ont notamment montré qu'en administrant de fortes doses de cannabis (5 fois supérieures en moyenne à celles consommées par les toxicomanes) à des rats et des souris, il est possible, en augmentant la concentration cérébrale de la prégnénolone dans leur cerveau, de bloquer les effets néfastes du principe actif du cannabis (le THC) qui agit sur des récepteurs cannabinoides (CB1) situés sur les neurones.

L'étude précise cependant que cette hormone ne pourra pas être utilisée telle quelle comme médicament car elle est mal absorbée et son effet ne dépasse pas deux heures, une durée trop brève pour être efficace. Mais en dépit de cet obstacle, les essais cliniques sur l'homme pourraient commencer en 2016 et Pier Vincenzo Piazza souligne que l'utilisation de la prégnénolone pourrait déboucher sur une "première thérapie pharmacologique de la dépendance au cannabis".

Rappelons que les consommateurs dépendants au cannabis sont évalués à plus de 20 millions de personnes dans le monde et un peu plus de 500.000 personnes en France.

Article rédigé par Georges Simmonds pour RT Flash

Science

Cancer : un nouveau gène identifié
Lundi, 06/01/2014 - 18:36

Des scientifiques britanniques du Wellcome Trust Sanger Institute ont identifié un nouveau gène qui favoriserait le développement de nombreux cancers. Ces chercheurs ont en effet pu montrer qu'un gène spécifique, le CUX1, semblait fortement impliqué dans le déclenchement d'un grand nombre de cancers.

Pour parvenir à ces conclusions, les chercheurs ont réalisé une analyse approfondie des profils génétiques de plus de 7 500 patients atteints de cancer dans le monde entier. Grâce à ce travail, ils ont pu observer que dans environ 1 % des cas, les malades présentaient un gène CUX1 désactivé. Or, lorsque ce gène est "éteint", il altère la boucle de rétroaction négative induite par la protéine PIK3IP1 et l'enzyme responsable de la croissance cellulaire, la phosphoinositide 3-kinase (PI3K ), ce qui provoque la progression de la tumeur.

"Les médicaments qui inhibent la signalisation de la PI3K sont actuellement en cours d'essai clinique", souligne le professeur Paul Workman, directeur de recherche à l'Institut de recherche sur le cancer. Celui-ci précise que "Cette découverte va nous permettre de développer de nouveaux médicaments ciblés en fonction du profil génétique du patient atteint de cancer".

Article rédigé par Georges Simmonds pour RT Flash

Wellcome Trust Sanger Institute

L'anxiété : facteur de risque d'AVC !
Lundi, 06/01/2014 - 17:10

Selon une étude réalisée par des chercheurs de l'Université de Pittsburgh et dirigés par le professeur Maya Lambiase, il existerait une nette corrélation entre le niveau d'anxiété et le risque d’accident vasculaire cérébral, indépendamment des autres facteurs de risques.

Pour parvenir à ces conclusions, les scientifiques ont étudié pendant 22 ans une population comportant plus de 6 000 personnes âgées de 25 à 74 ans. Les participants ont régulièrement subi des tests sanguins, des examens médicaux et psychologiques et répondu à des questionnaires concernant leurs niveaux d’anxiété et de dépression.

Dans le même temps, les chercheurs ont soigneusement recensé l'ensemble des pathologies cardio-vasculaires et des AVC qui sont survenus dans ce groupe. Ils ont ainsi pu constater 419 cas d’AVC pendant le temps de cette expérimentation.

La conclusion de cette étude est très intéressante puisqu'elle montre qu'une augmentation, même modeste des niveaux d’anxiété, augmente le risque d’AVC. Les chercheurs ont notamment observé que les sujets situés dans le tiers supérieur des niveaux d’anxiété présentaient un risque d’AVC de 33 % supérieur par rapport aux sujets se situant dans le tiers des moins anxieux.

Pour le professeur Lambiase, "il est normal que nous ressentions de temps en temps une certaine anxiété mais si celle-ci devient chronique, elle entraîne alors des effets délétères sur le système cardio-vasculaire et augmente sensiblement les risques de pathologies cardiaques et d'AVC".

L'étude souligne par ailleurs que, même si cette anxiété constitue un facteur de risque intrinsèque, elle peut souvent se combiner à d'autres facteurs qui en aggravent les effets : sédentarité, tabagisme, hypertension artérielle, cholestérolémie …

Article rédigé par Georges Simmonds pour RT Flash

Stroke

Une méthode révolutionnaire pour coller les tissus biologiques
Dimanche, 05/01/2014 - 20:32

Des chercheurs viennent de découvrir une méthode efficace et facile à mettre en œuvre pour coller des gels et des tissus biologiques. Une équipe dirigée par Ludwik Leibler réunissant des chercheurs du laboratoire Matière molle et chimie (CNRS/ESPCI ParisTech) et du laboratoire de Physico-chimie des polymères et milieux dispersés (CNRS/ UPMC/ESPCI ParisTech) a obtenu une adhésion très résistante entre deux gels en étalant sur leur surface une solution contenant des nanoparticules.

Jusqu'à présent il n'existait aucune méthode entièrement satisfaisante pour obtenir l'adhésion entre deux gels ou deux tissus biologiques.

Le principe est le suivant : les nanoparticules de la solution se lient au réseau moléculaire du gel, phénomène appelé adsorption, et, dans le même temps, le réseau moléculaire lie les particules entre elles. Les nanoparticules établissent ainsi d'innombrables connexions entre les deux gels. Le processus d'adhésion ne prend que quelques secondes. Cette méthode est réalisée sans ajout de polymères et elle n'implique pas de réaction chimique. Grâce à cette nouvelle technique, les chercheurs ont recollé efficacement deux morceaux de foie de veau préalablement coupés au scalpel en utilisant une solution de nanoparticules de silice.

Cette découverte ouvre de nouveaux champs de recherches et d'applications, notamment dans le domaine médical et vétérinaire, et en particulier en chirurgie et en médecine régénératrice. Il est par exemple envisageable de recoller par cette méthode la peau ou des organes ayant subi une incision ou une lésion profonde. Cette méthode pourrait en outre intéresser les industries agroalimentaires, cosmétiques...

Article rédigé par Georges Simmonds pour RT Flash

Nanowerk

L'ADN délivre les plans mais aussi le mode d'emploi…
Dimanche, 05/01/2014 - 20:26

Depuis la découverte de la structure de l'ADN en 1953 par Watson et Crick, les scientifiques pensaient que l'ADN - l'acide désoxyribonucléique - des cellules contenait seulement l'information nécessaire à la production des protéines de l'organisme. Mais selon une étude américaine de l'Université de Washington, l'ADN serait porteur de deux types d'informations distincts : l'un permet de fabriquer les protéines et l'autre donne des instructions aux cellules pour déterminer le contrôle des différents gènes, explique le Docteur John Stamatoyannopoulos, professeur adjoint de génomique et de médecine à l'Université de Washington.

Ces deux codes dans l'ADN auraient évolué parallèlement et de manière complémentaire, selon ces chercheurs. Le code qui contrôle les instructions génétiques pourrait ainsi contribuer à stabiliser certaines caractéristiques bénéfiques des protéines et à sélectionner le mode de production de ces protéines.

Cette découverte fondamentale pourrait avoir des conséquences majeures sur les méthodes d'interprétation du génome et pourrait également se traduire par des voies thérapeutiques nouvelles.

"Nos travaux apportent la preuve que le code génétique peut simultanément écrire deux types d'informations, ce qui veut dire, entre autre, que de nombreux changements dans l'ADN, qui paraissent altérer les séquences des protéines, pourraient en fait provoquer des maladies en perturbant les programmes de contrôle des gènes et de production des protéines", souligne le Docteur Stamatoyannopoulos.

Article rédigé par Georges Simmonds pour RT Flash

Science

Démence liée au vieillissement : le poids des modes de vie !
Vendredi, 03/01/2014 - 14:05

On estime que 44 millions de personnes dans le monde souffrent de différentes formes de démence et ce nombre pourrait tripler d'ici à 2050 à cause du vieillissement général de la population mondiale.

Toutefois, des chercheurs américains dirigés par Eric B. Larson, directeur exécutif du Group Health Research Institute, ont montré qu'une proportion non négligeable des démences semble se développer à un âge plus avancé qu'il y a vingt ans et que la durée de vie sans démence semble augmenter, avec une apparition de la maladie plus proche du moment du décès. Ces travaux viennent confirmer une autre étude britannique récente qui montrait que le nombre de démences constatées en Grande Bretagne était sensiblement inférieur à celui qu'il aurait dû être, compte tenu du vieillissement de la population.

Cette baisse de la fréquence des démences pourrait s'expliquer par une meilleure prise en charge des risques cardio-vasculaires, de l'hypertension et du diabète, par une pratique accrue de l'exercice physique chez les seniors et par une augmentation du niveau général d'éducation.

 Article rédigé par Georges Simmonds pour RT Flash

NEJM

Des molécules de synthèse capables de bloquer la réplication du virus du SIDA
Vendredi, 03/01/2014 - 14:01

Des chercheurs espagnols de l'Université Catholique de Valence San Vicente Martirre, dirigés par José Gallego,  ont réussi à synthétiser, en laboratoire, des molécules capables de se fixer sur le matériel génétique du virus du SIDA, et de bloquer sa réplication.

Les molécules synthétisées par ces chercheurs permettent d'inhiber le passage du matériel génétique viral du noyau de la cellule infectée au cytoplasme de cette même cellule. Bloqué par cette molécule de synthèse, le virus ne peut donc plus sortir de la cellule infectée pour aller contaminer de nouvelles cellules.

Les trois laboratoires impliqués dans ces recherches vont poursuivre leur collaboration, en vue de l'amélioration des propriétés pharmacologiques de ces inhibiteurs synthétiques de la protéine Rev.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Publico

Une neuroprothèse pour améliorer la mémoire !
Vendredi, 03/01/2014 - 13:57

Une équipe américaine de l'Université Wake Forrest dirigée par Robert E Hampson a montré, dans une expérience remarquée par la communauté scientifique, la possibilité d'améliorer la mémoire des primates grâce à une prothèse neuronale.

Les chercheurs ont entraîné quatre macaques rhésus pendant deux ans à un exercice de mémorisation qui consistait à leur montrer brièvement des objets sur un écran d'ordinateur. Les animaux devaient ensuite retrouver l'objet parmi d'autres ou désigner l'endroit de l'écran où il était apparu.

Au cours de cette expérience, les chercheurs ont implanté sur ces quatre singes des électrodes dans une région de leur cerveau nommée hippocampe, fortement impliquée dans la mémorisation. A l'aide de ce dispositif, les scientifiques ont alors pu transmettre à l'hippocampe des signaux électriques similaires capables de compenser en partie ceux produits par ces singes lorsqu'ils ne parvenaient pas à mémoriser correctement un objet.

Les chercheurs ont alors constaté une amélioration nette et systématique des capacités cognitives chez les quatre singes. Ils ont notamment montré que plus les risques d'erreur augmentaient en raison de la difficulté accrue de l'exercice, plus la stimulation de cette neuroprothèse permettait d'éviter ces erreurs.

Ces recherches ouvrent des vastes pistes thérapeutiques contre de nombreuses pathologies neurodégénératives mais rendent également possible la perspective d'une amélioration des performances  intellectuelles pour les individus en bonne santé, ce qui ne va pas sans poser de sérieux problèmes éthiques…

Article rédigé par Georges Simmonds pour RT Flash

IOP Science

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
En 2019, Skylon volera à Mach5 !
Mardi, 07/01/2014 - 08:10

Avec l'arrêt définitif des vols du Concorde, il y a 10 ans, plus aucun avion supersonique civil n'est en service dans le monde. Pourtant, les recherches continuent pour relancer les vols supersoniques commerciaux.

L’entreprise britannique Reaction Engines travaille notamment sur une nouvelle technologie baptisée le pré-refroidisseur. Son principe consiste à refroidir très rapidement l'air entrant dans le moteur pour lui permettre de tourner à un régime très élevé sur une longue durée. Alan Bond, ingénieur en chef du projet, affirme que ce système est capable de refroidir de plus de 1000°C l’air entrant en moins de 0.01s !

Pour réaliser une telle performance, ce système de refroidissement utilise des tubes très fins assemblés suivant la forme d’un tourbillon. Ces tubes contiennent de l’hélium condensé qui permet d'extraire la chaleur de l’air dont la température chute à -150°C juste avant de pénétrer dans le moteur. Reaction Engines a également mis au point un autre dispositif qui empêche le gel de l’eau contenue dans l’air et protège ainsi le moteur du givre.

Grâce à ces avancées technologiques, le Skylon devrait pouvoir voler à une vitesse supérieure à cinq fois la vitesse du son, ce qui devrait mettre le Japon ou l’Australie ou la Côte Ouest des Etats-Unis à moins de 4h de l’Europe. Les premiers vols du skylon sont prévus pour 2019 et cet avion supersonique de nouvelle génération fera 84m de long et sera capable d’emporter 300 passagers.

Article rédigé par Georges Simmonds pour RT Flash

Reaction Engines

Reaction Engines

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top