RTFlash

RTFLASH Recherche & Technologie
NUMERO 600
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 02 Juin 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Amazon vend plus de livres numériques que de livres imprimés
Fujitsu va lancer un service mobile pour les patients diabétiques
Avenir
Un robot tactile !
Matière
General Electric lance une centrale électrique "verte"
Rhône-Alpes : la production d'énergie renouvelable progresse
Cellule solaire en plastique : nouveau record !
Espace
Un instrument français sur Mars en 2012
Terre
Climat : l'UE doit réduire de 30 % les émissions de CO2
La Grande Bretagne veut diminuer de moitié ses émissions de CO2 d'ici 2025
Le niveau de la mer augmenterait d'un mètre d'ici à 2100
Vivant
Une nouvelle molécule contre le cancer
Vitamine D contre psoriasis : les mécanismes d'action mieux compris
Terrible fléau pendant des siècles, la peste bovine est vaincue
Découverte d’un nouveau gène lié au processus de vieillissement du cœur
Des protéines anti-grippe créées par ordinateur
La qualité de l'air urbain s'améliore
Une bactérie responsable de la maladie de Parkinson ?
Congélation rapide d'embryon : une première grossesse en France
L’action thérapeutique des antidépresseurs dépend de la formation de nouveaux neurones
Des gouttelettes pour détecter l'ADN tumoral
Un paraplégique est parvenu à se remettre debout !
Recherche
Michelin invente le pneu increvable
L'Allemagne veut se convertir à la voiture électrique
Quelles batteries pour la voiture électrique ?
Edito
L’hydrogène sera à l’énergie ce que la fibre optique est aux télécommunications



L’Agence de l’Environnement et de la Maîtrise de l’Energie (ADEME) a lancé, il y a quelques jours, quatre Appels à Manifestations d’Intérêt (AMI) concernant

1) Le déploiement des infrastructures de recharge pour les véhicules électriques et hybrides rechargeables

2) La chimie du végétal

3) L’Hydrogène et les piles à combustible

4) Le stockage de l’énergie.

Je voudrais, aujourd’hui, centrer mon propos sur l’Hydrogène, tout en abordant rapidement le quatrième « AMI » pour évoquer le stockage dudit hydrogène.

Cet Appel à Manifestations d’Intérêt concernant l’hydrogène est particulièrement important car il montrerait que les Pouvoirs Publics de notre Pays prennent enfin conscience de l’importance capitale de ce vecteur d’énergie pour l’avenir de notre Pays.

Comme cela avait déjà été le cas en France, il y a une dizaine d’années, avec la fibre optique (notre opérateur national France Télécom voulait amortir son réseau cuivré en faisant la promotion de l’ADSL…), le même scénario commençait à se répéter avec l’hydrogène (EDF veut amortir ses lourds investissements dans le Nucléaire avant que nous abordions un monde nouveau : celui de l’Hydrogène…)

M’étant entretenu à plusieurs reprises, ces temps derniers, avec des chefs d’entreprises innovantes ayant investi dans l’hydrogène et les piles à combustible, ils sont unanimes à souligner tout le retard pris par notre Pays dans ce domaine vital. La réglementation française dans ces domaines est beaucoup plus restrictive que celle de nos concurrents (Japon, Corée, Allemagne, Pays scandinaves, USA) et surtout les incitations fiscales pour développer ces secteurs stratégiques (au niveau des PME et des particuliers) sont souvent ridicules par rapport aux autres pays.

Tout pouvait laisser à penser que nous n’allions pas réagir face à la volonté des principaux pétroliers et gaziers du monde de fabriquer de l’hydrogène, en prenant ce H² dans le pétrole ou dans le gaz. Le carbone qui resterait formerait alors des masses de CO2 en s’associant à l’oxygène de l’air.

Cette solution ne ferait qu’alourdir le bilan carbone de notre planète. Aussi, j’espère que de nombreux chercheurs et de nombreux chefs d’entreprises innovantes vont s’associer pour répondre à cet Appel à Manifestations d’Intérêt. Ils sauront démontrer, j’en suis convaincu, que les énergies alternatives (éolien, hydrolien, photovoltaïque, biomasse, etc…) peuvent être des moyens essentiels pour produire de l’hydrogène, en séparant par hydrolyse le H² du O de l’eau.

De plus, il faut arrêter de nous dire et de répéter sans cesse que l’hydrogène est dangereux. Je connais une petite start-up française (Mc Phy Energy) qui sait stocker l’hydrogène sous forme de fines galettes d’hydrures de magnésium solides.

Jusqu’ici, l’hydrogène était stocké sous forme gazeuse (comprimée) ou liquide. Maintenant, il est possible de stocker l’hydrogène sous forme solide. Cette nouvelle approche est beaucoup plus sûre et moins coûteuse que les technologies actuelles de stockage de l’hydrogène. Les petites galettes déjà produites par Mc Phy Energy sont capables (et nous ne sommes qu’au début !) d’emmagasiner chacune 0,5 m3 de gaz d’hydrogène.

Nous sommes, avec l’énergie, devant la même problématique que celle qu’à dû affronter l’informatique au début des années 1970. A cette époque, l’essentiel des acteurs pensait que l’avenir se trouvait dans des machines de plus en plus grosses (les mainframes) reliées par des structures pyramidales à leurs utilisateurs.

Et puis patatras…  Le PC et Internet sont arrivés. La puissance informatique se trouve maintenant dans les réseaux et des outils de plus en plus nomades et de plus en plus petits qui sont des serveurs bien plus puissants que les ordinateurs ayant permis à l’Homme d’atterrir sur la Lune à la fin des années 1960.

Tout laisse à penser que l’évolution de la distribution de l’énergie va suivre une voie relativement semblable.

Les producteurs d’énergie vont devenir de plus en plus petits pour arriver, en final, au niveau de l’individu. Ils ont déjà commencé avec le photovoltaïque, mais la réglementation actuelle oblige ces producteurs d’électricité photovoltaïque à revendre leur électricité à EDF. Ils ne sont en vérité que de modestes sous traitants de notre opérateur national avec très peu de marge de manœuvre.

Imaginez que demain, avec les nouvelles éoliennes individuelles qui vont arriver, avec les nouveaux capteurs  solaires, qui sont actuellement développés, qu’un particulier puisse fabriquer et stocker l’hydrogène sous forme non dangereuse. Il suffira alors que la galette d’hydrogène, ainsi produite automatiquement, auto alimente, au moment désiré, une pile à combustible. Le particulier ainsi équipé disposera, au moment où il le voudra, de toute l’électricité dont il aura besoin pour s’éclairer, pour se chauffer, pour faire tourner tous les matériels fonctionnant à l’électricité.

Imaginez, de plus, qu’avec l’hydrogène, que ce particulier aura produit lui-même, il alimente sa voiture (les voitures à hydrogène vont être commercialisées avant 10 ans)… La démonstration sera alors complète : ce particulier ne fera plus appel à un seul gramme de pétrole et n’émettra plus un seul cm3 de CO².

C’est un défi vital qui, ainsi, serait relevé.

Puisse ces Appels à manifestations d’Intérêt faire se lever et s’associer les meilleurs innovants de notre Pays. Ils doivent rendre leur réponse à l’ADEME avant le 27 Août 2011…

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Amazon vend plus de livres numériques que de livres imprimés
Lundi, 30/05/2011 - 14:06

Selon Amazon, les livres numériques sont aujourd'hui plus sollicités que les livres reliés ou imprimés sur sa plate-forme Amazon.com. Lancé fin 2007 aux Etats-Unis, le Kindle d'Amazon est une tablette électronique entièrement dédiée à la lecture de livres et de journaux. Elle est disponible dans une centaine de pays dont la France depuis octobre 2009.

Amazon précise que les ventes de livres Kindle ont pour la première fois dépassé les ventes de livres imprimés en juillet dernier. Le géant américain indique également que depuis le 1er avril 2011, 105 livres Kindle ont été vendus lorsque 100 livres imprimés ont été commandés. Autre constat, Amazon.com a commercialisé trois fois plus de livres Kindle depuis début 2011 qu'au cours de la même période en 2010. "Les clients optent désormais plus souvent pour les livres Kindle que pour les livres imprimés. Nous avions de grands espoirs que cela se produise un jour, mais nous n'avions jamais imaginé que cela pourrait arriver aussi rapidement", explique Jeff Bezos, fondateur et PDG d'Amazon.com.

Amazon a restreint le prix de son nouveau Kindle à 114 dollars (environ 80 euros) depuis mai 2011. Cette baisse de prix est essentiellement liée à l'introduction de la publicité sur la liseuse électronique. Auparavant, le Kindle était commercialisé à 139 dollars (environ 97 euros).

Digitalworld

Fujitsu va lancer un service mobile pour les patients diabétiques
Vendredi, 27/05/2011 - 07:53

Fujitsu a annoncé dans un communiqué de presse le lancement fin juin 2011 au Japon d'un nouveau service utilisant un téléphone mobile et un lecteur de glycémie pour les personnes diabétiques. Ce service, appelé "Karada Life : Diabetes Support" (karada signifiant corps en japonais) est capable de transférer les données d'un lecteur de glycémie vers un serveur via un téléphone portable. Pour lancer ce nouveau système, Fujitsu, qui produit des téléphones portables, collabore avec la société Arkray qui fabrique des lecteurs de glycémie. Fujitsu n'a, dans l'immédiat, rendu compatible avec ce service qu'une certaine gamme de téléphones (Raku-Raku Phones). Ces téléphones contiennent en outre un podomètre : ainsi, d'autres données non relatives à la glycémie peuvent également être mises en parallèle. Le téléphone et le lecteur de glycémie sont connectés via un câble spécial.

Une application dédiée est lancée lors du branchement du câble entre le téléphone et le lecteur, puis les données sont envoyées depuis le téléphone portable vers un serveur appartenant à Fujitsu. Les utilisateurs peuvent consulter les données enregistrées depuis leur téléphone mais aussi depuis un ordinateur. Outre l'export des données au format PDF, il est également possible de les transmettre par e-mail à d'autres personnes (membres de la famille, médecins, ...).

Fujitsu indique dans son communiqué que le nombre de diabétiques au Japon est de 8,9 millions, et que celui-ci est amené à augmenter. La plupart des diabétiques font actuellement eux-mêmes le suivi de leur glycémie, mais ce service pourrait leur permettre de réaliser ce traitement automatiquement. Fujitsu espère également attirer les personnes qui ont abandonné leur suivi, le trouvant trop fastidieux.

Bulletins Electroniques

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot tactile !
Samedi, 28/05/2011 - 07:36

Ford espère améliorer la qualité et le confort de l’intérieur de ses véhicules, grâce au robot RUTH et sa capacité à apprécier la composition de matériaux au toucher. Ford a mis au moins un robot capable de déterminer, au toucher, si un matériau, un assemblage ou un revêtement satisfera ses futurs clients.

RUTH ou Robotized Unit for Tactility and Haptics constitue une nouvelle génération de robots pourvus de capteurs aptes à simuler la sensation d’un automobiliste lorsqu’il se met au volant. RUTH explore les touches d’une console centrale ou les comodos, passe sa « main » sur la mousse d’une planche de bord.

Afin que le robot Ford soit opérationnel, les chercheurs de la firme ont mis en œuvre un processus qui lui permet d’analyser différentes sensations perçues au toucher, notamment les frottements, l’élasticité, l’adhérence, la température de surface ou encore l’instabilité, la rigidité et la rugosité. En effleurant une matière en cuir, en plastique, en bois, ou en mousse, le robot exprime le niveau de satisfaction du client moyen de l’enseigne.

D’après le spécialiste des technologies d’habitacle chez Ford, Mark Spingler, son équipe a analysé les résultats d’une étude client sur le confort sensoriel au contact des volants, et les a comparé avec les mesures effectuées par RUTH. Les résultats sont remarquables : « nous estimons qu’une concordance est élevée d’un point de vue statistique lorsqu’elle est supérieure à 80 %. Les informations transmises par RUTH sur les volants les plus agréables pour les clients étaient exactes à 92 %, ce qui est remarquable ».

MENLY

^ Haut
Matière
Matière et Energie
General Electric lance une centrale électrique "verte"
Jeudi, 02/06/2011 - 07:34

General Electric, dont le siège social européen se trouve à Belfort, annonce le lancement d’une centrale électrique unique en son genre, conçue pour allier flexibilité et rendement. Grâce à un ajustement rapide de puissance, en réponse aux fluctuations de des énergies éolienne et solaire, la technologie permettra d'intégrer davantage de ressources renouvelables dans le réseau électrique. La puissance de la centrale électrique dite "à cycle combiné" et baptisée "FlexEfficiency 50" est de 510 mégawatts, avec un rendement énergétique supérieur à 61 %. GE affirme avoir investit 500 millions de dollars dans la recherche et le développement. "Cette centrale est un élément clé de ses efforts constants visant à créer et fabriquer des technologies qui fournissent une énergie plus propre et à meilleur rendement", dit le communiqué de la société.

GE dit s'être appuyé sur son savoir-faire dans le domaine des moteurs à réaction pour concevoir une centrale qui monte en puissance à un rythme de plus de 50 mégawatts par minute, soit deux fois le taux de référence actuel de l'industrie. "Grâce à cette flexibilité opérationnelle, les sociétés d'électricité pourront adapter rapidement l’énergie électrique fournie à la demande. Cela permet d'équilibrer le réseau de manière rentable et de favoriser le déploiement accru de ressources énergétiques renouvelables comme l'énergie éolienne et solaire." Une centrale FlexEfficiency 50 typique fournira une énergie suffisante pour alimenter plus de 600 000 foyers européens.

Les ingénieurs de GE ont pu éviter les compromis habituels entre rendement et flexibilité en concevant la centrale à partir d'une méthode qui prend en compte l'ensemble des équipements et des systèmes de commande. La centrale FlexEfficiency 50 est conçue pour un fonctionnement flexible qui intègre : une Turbine à Gaz 9FB nouvelle génération fonctionnant à 50 Hz, la fréquence la plus utilisée dans le monde ; une Turbine à Vapeur 109D-14, qui fonctionne à partir de la chaleur résiduelle produite par la turbine à gaz ; le Générateur de pointe W28 de GE ; un système de commande intégré Mark* VIe qui relie toutes les technologies ; et un générateur à vapeur de récupération de chaleur.

« Étant donné que la demande mondiale d'énergie devrait doubler d'ici 2030 et que la production d'électricité représente 40 % des émissions de gaz à effet de serre, les sociétés d'électricité et les organismes gouvernementaux se penchent très sérieusement sur la façon de produire de l'énergie plus efficacement », ajoute Ricardo Cordoba, Président de GE Energy Europe de l'Ouest et Afrique du Nord. « Cette innovation peut avoir un effet spectaculaire sur les émissions de CO2 et nous offre un moyen agile, efficace et rentable permettant d'aider les pays de l'UE à réaliser leurs objectifs '20-20-20' en matière d'énergie. »

L'Agence Internationale de l'Energie a conclu dans un rapport récent qu'atteindre une grande proportion d'énergies renouvelables fluctuantes dans le mix énergétique est possible, tant que les systèmes électriques et les marchés sont configurés pour une utilisation optimale des ressources flexibles. La centrale FlexEfficiency 50 à cycle combiné offre un niveau de flexibilité inégalé qui permettra de répondre à ce défi, sans faire l'impasse sur l'efficacité combustible.

Ecomagination

Rhône-Alpes : la production d'énergie renouvelable progresse
Mardi, 31/05/2011 - 07:51

La production d’électricité d’origine renouvelable en Rhône-Alpes a progressé sensiblement en 2010 selon les données fournies par Réseau de Transport d’Electricité ( RTE) en charge de la gestion du réseau haute et très haute tension. Avec 5 600 MW installés en France métropolitaine à fin 2010, la filière éolienne a poursuivi son essor et a fourni une  production de  9,6 TWh.

La puissance maximale fournie en 2010 en puissance instantanée a été de 4 200 MW, ce qui correspond à un facteur de charge de 77 %. La facteur de charge est le rapport entre la puissance maximale et la puissance produite effectivement. Le facteur de charge horaire moyen en 2010 pour l’éolien : 22 % (stable/2009). En 5 ans, la production d’origine éolienne en France a été multipliée par 10. Rhône-Alpes compte, à fin 2010, 149 MW de puissance éolienne installée, pour une  production de 366 GWh (+ 6 % par rapport à 2009).

Le nombre d’installations photovoltaïques raccordées est en très forte augmentation en 2010 en France, avec une puissance installée de 760 MW, soit plus du quadruple par rapport à fin 2009. L’énergie produite en 2010 est estimée à 0,6 TWh, soit près du quadruple de la production enregistrée  en 2009. Rhône-Alpes compte, à fin 2010, 91 MW de puissance photovoltaïque installée (contre 20,6 MW en 2009), pour une production de 68 GWh (contre 14 GWh en 2009).

Enviscope

Cellule solaire en plastique : nouveau record !
Vendredi, 27/05/2011 - 07:46

Les scientifiques de l'Empa, le Laboratoire fédéral d'essai des matériaux et de recherche, ont encore une fois renforcé l'efficacité de la conversion énergétique des cellules solaires flexibles en cuivre, indium, gallium et sélénium (également connu sous le nom de CIGS) avec un nouveau record du monde à la clé.

Avec une efficacité de 18,7 %, ce nouveau taux constitue une amélioration significative par rapport au record précédent ( 17,6 % ) établi par la même équipe, en juin 2010. Les mesures ont été certifiées de manière indépendante par l'Institut Fraunhofer pour les systèmes d'énergie solaire à Fribourg, en Allemagne. Pour rendre l'électricité solaire accessible à grande échelle, des scientifiques et ingénieurs du monde entier tentent depuis longtemps de développer une cellule solaire à faible coût, qui devra à la fois être très efficace et très facile à fabriquer (cadence élevée).

L'équipe de l'Empa, dirigée par Ayodhya N. Tiwari, ont réalisé une avancée majeure. "Le nouveau taux record de 18,7 % pour les cellules solaires flexibles CIGS rattrape pratiquement l'« écart d'efficacité » détenu par les cellules solaires à base de silicium polycristallin (Si) ou les cellules en couches minces CIGS sur substrat en verre", a indiqué le professeur Tiwari. Il est convaincu que "les cellules solaires CIGS flexibles et légéres qui possèdent une efficacité comparable aux 'meilleures' auront un excellent potentiel pour apporter un changement de paradigme et permettre de produire une électricité à faible coût dans un proche avenir."

L'un des avantages majeurs pour ces cellules solaires flexibles CIGS à haut rendement demeure sa fabrication à faible coût, grâce au procédé "Roll to Roll", similaire à la presse à rouleau. De plus, ces modules solaires légers et flexibles offrent des économies financières supplémentaires en termes de transport, d'installation, de structure pour les modules, etc. Dans l'ensemble, les nouvelles cellules CIGS sur polymère présentent de nombreux avantages pour des applications comme les façades, les centrales solaires et même l'électronique portable.

Enerzine

^ Haut
Espace
Espace et Cosmologie
Un instrument français sur Mars en 2012
Samedi, 28/05/2011 - 07:45

L’ensemble instrumental SAM, qui dans le cadre de la mission MSL étudiera la composition organique du sol et de l’atmosphère martiens, est désormais prêt à partir. Une équipe française a pris part au projet.

SAM-GC, le défi technique d'une équipe française

Les 6 chromatographes en phase gazeuse de l’instrument SAM-GC témoignent de son haut degré de miniaturisation (50 cm2 et 100 g chacun)  et des fortes contraintes techniques qu’ont dues maîtriser les scientifiques du LATMOS et du LISA. Sous maîtrise d’ouvrage CNES depuis 2004, les chercheurs français ont développé l’un des 3 instruments de l’ensemble SAM qui partira pour Mars fin 2011 à bord du rover Curiosity de la mission MSL. La mission de SAM ? Recenser les composés organiques présents dans les échantillons de sol et d’atmosphère prélevés sur place. Grâce à 2 traitements, un chauffage progressif jusqu’à 1000°C ou une réaction chimique avec un composé embarqué, SAM-GC sera capable d’identifier les molécules contenues dans l’échantillon. Lors de son développement, la tâche des scientifiques n’aura pas été de tout repos. Du fait de la miniaturisation, des parties très chaudes et d’autres très froides, d’ordinaire éloignées dans des appareils commerciaux, se retrouvent ici juxtaposées. Le nano-catharomètre, un détecteur de molécules de la taille d’une puce de carte bleue, a par ailleurs bénéficié d’une action de Recherche et Technologie du CNES.

Une coordination mondiale pour une question fondamentale

Les 2 autres instruments d’analyse étant américains, l’assemblage de l’ensemble SAM a nécessité un suivi régulier des opérations. « Les prototypes ont été soumis à de nombreuses campagnes de tests pour s’assurer du fonctionnement conjoint des instruments lors de leur intégration finale. » se remémore Patrice Coll, du LISA. SAM a été intégré avec succès sur le rover en janvier 2011. De fin mai à début juillet 2011, un exercice grandeur nature impliquera l’ensemble des équipes scientifiques associées au projet SAM. Le but sera de valider les outils de traitements des données et les systèmes d’échanges.

La mission MSL a pour finalité de mettre en évidence d’éventuelles traces de vie passée, et de mieux comprendre les processus physico-chimiques d’évolution de la planète. « Nous avons actuellement plusieurs hypothèses, mais aucune idée préconçue. » conclut Patrice Coll. « Voilà pourquoi notre instrument possède un côté analytique universel : il est capable de détecter une très large palette de molécules. »

MSL - CURIOSITY

Date de lancement : 25/11/11 - Atterrissage : 06/08/12

France : SAM-GCCHEMCAM

Objectifs : habitabilité de Mars

CNES

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : l'UE doit réduire de 30 % les émissions de CO2
Mercredi, 01/06/2011 - 08:00

Avant la fin 2011, l'Union doit s'engager à réduire de 30 % ses émissions de gaz à effet de serre d'ici 2020 (par rapport au niveau de 1990), indique une résolution votée au sein de la commission de l'environnement. Les compensations doivent être autorisées, toutefois dans certaines limites, et il faut parvenir à une réduction de 25 % à l'intérieur de l'UE. Cela créerait plusieurs millions d'emplois nouveaux dans l'Union et apporterait d'autres avantages économiques.

Le vote de la commission (44 voix pour, 14 voix contre et 1 abstention) prépare le terrain pour le vote en plénière, prévu le 23 juin. Selon Bas Eickhout (Verts/ALE, NL) qui a élaboré la résolution : "La position du Parlement européen a évolué au cours de l'année dernière. L'objectif d'une réduction de 30 % reçoit aujourd'hui un large soutien et il est particulièrement important pour l'économie européenne de mener des politiques climatiques ambitieuses.

La commission de l'environnement demande à l'UE de fixer un objectif contraignant de 30 % dans les plus brefs délais, et ce avant la fin 2011. Concernant l'engagement actuel d'une réduction de 20 %, il devrait être possible d'inclure des compensations financées dans d'autres parties de la planète ; toutefois, l'UE doit s'engager à réduire de 25 % les émissions de gaz à effet de serre à l'intérieur de son territoire, précise la commission de l'environnement. Les députés reconnaissent que la réalisation de ces objectifs dépendra en grande partie de celle des objectifs de l'Union en matière d'énergie renouvelable et d'efficacité énergétique.

Les mesures nationales, telles que l'investissement dans l'innovation et les allègements fiscaux, peuvent jouer un rôle décisif. En ce qui concerne l'Union, la commission estime qu'un ajustement du système communautaire d'échange de quotas d'émission (ETS) pourrait s'avérer nécessaire à l'avenir. Ces réductions visent à contribuer au projet, partagé par l'Union européenne et les Nations unies, visant à limiter le réchauffent de la planète à 2°C, une étape que les scientifiques considèrent comme décisive pour faire face au risque de conséquences graves du changement climatique. Les députés font observer que les réductions des émissions de CO2 de l'Union depuis 1990 ont déjà atteint 17 %, à la faveur de la crise économique.

Europarl

La Grande Bretagne veut diminuer de moitié ses émissions de CO2 d'ici 2025
Mardi, 31/05/2011 - 08:01

Le gouvernement anglais veut diminuer les rejets carbone de 50 % à l’horizon 2025 par rapport aux niveaux de 1990. Considérable, l’effort est prévu dans le quatrième « budget carbone », qui couvre la période 2023-2027, et serait même poursuivi dans les décennies suivantes avec une baisse de 60 % d’ici 2030 et de 80 % en 2050. Des pourcentages qu’aucune autre puissance occidentale n’a encore osé viser…

On le sait, le Premier ministre David Cameron et ses troupes n’ont jamais fait mystère de leur volonté de donner une nouvelle impulsion en matière de lutte contre le changement climatique, l’un de leurs principaux chevaux de bataille depuis les élections législatives de mai 2010. L’instauration fin mars d’une taxe carbone y participe directement, aussi sûrement qu’elle rend encore plus hypothétique celle d’une contribution européenne que Nicolas Sarkozy et Silvio Berlusconi appellent de leurs voeux depuis l’an dernier, en sachant très bien qu’une telle mesure suppose l’approbation unanime des Vingt-Sept et que certains États membres auraient un intérêt économique à court terme limité à donner leur aval.

La concrétisation des nouveaux objectifs définis par Londres, salués par le WWF Grande-Bretagne, selon lequel ils sont la preuve de son intention de conquérir le leadership mondial sur le plan de la lutte contre la montée des températures [mais qui a tout de même rappelé qu'il s'agit des minimums recommandés par le Committee on Climate Change (CCC) ], passe naturellement par des réformes écologiques majeures.

Un vaste verdissement qui suppose un appui politique indéfectible et qui sera sans doute aussi tributaire des impératifs économiques, étant entendu que les traces laissées par la crise financière de 2008 sont encore loin d’avoir été complètement effacées. L’inauguration en septembre de la première tranche du parc du Thanet, au large de la côte est du pays, et celle à venir du London Array attestent néanmoins d’une exploitation accrue du potentiel britannique en termes d’éolien marin, qui est, il est vrai, le plus important d’Europe, et plus largement d’un véritable effort d’éco-responsabilisation énergétique. Que M. Cameron change d’avis concernant l’exploitation des gaz de schiste, en très bonne voie outre-Manche, et le bonheur des défenseurs de l’environnement sera complet…

Zegreenweb

Le niveau de la mer augmenterait d'un mètre d'ici à 2100
Lundi, 30/05/2011 - 13:57

Le niveau de la mer pourrait s'élever d'un mètre d'ici un siècle en raison du réchauffement climatique. Une hausse qui risque de multiplier les inondations dévastatrices sur les régions côtières, a conclu un rapport australien rendu public lundi 23 mai. Le premier rapport de la "commission climat" du gouvernement australien a indiqué que les preuves du réchauffement de la Terre ne faisaient plus de doute, et que la dernière décennie avait été la plus chaude jamais enregistrée.

Basée sur les données scientifiques les plus récentes collectées dans le monde, cette étude rapporte que les émissions de gaz à effet de serre sont sans aucun doute responsables de l'élévation des températures, du réchauffement des océans et de la montée du niveau de la mer.

"Je pense que la hausse moyenne du niveau de la mer en 2100 comparé à 1990 sera de 50 centimètres à 1 mètre", a écrit dans la préface du document le professeur Will Steffen, responsable de la commission. Il a indiqué que, bien que sa prévision soit supérieure à celle du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) datée de 2007, qui était en dessous des 80 cm, il n'y avait pas contradiction car le GIEC avait évoqué la possibilité de chiffres plus élevés.

"On est presque cinq ans plus tard maintenant, on en sait plus sur le comportement des calottes glaciaires. On a de très bonnes informations sur le Groenland. Nous savons que la glace fond à un taux croissant, a-t-il déclaré à la presse. Cela nous indique qu'il faut tendre vers l'estimation haute d'un mètre. Et il y a des gens qui disent qu'il faut aller bien au-delà."Selon ce rapport, une élévation du niveau de la mer de 50 centimètres aurait un impact significatif inattendu, avec des inondations extrêmes dans les villes côtières de l'Australie telles que Sydney et Melbourne. M. Steffen a indiqué que dans certains cas, des catastrophes qui se produisent actuellement une fois par siècle, surviendraient une fois par an.

Le Monde

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une nouvelle molécule contre le cancer
Jeudi, 02/06/2011 - 08:07

Les cellules cancéreuses ont la particularité de se diviser de façon incontrôlée. Pour bloquer ce phénomène, de nombreuses molécules actuellement utilisées cliniquement ciblent les microtubules. En les déstabilisant, elles bloquent la division des cellules cancéreuses et donc leur propagation. Néanmoins, ces traitements ne sont pas efficaces sur tous les cancers et se heurtent à l'apparition, dans le temps, de résistance pour certaines tumeurs.

Au sein de l'équipe d'Ariane Abrieu, au Centre de recherche en biochimie macromoléculaire (CNRS/Universités de Montpellier 1 et 2), Sergey Tcherniuk a pu mettre en évidence, in vitro, que la molécule UA62784 affecte le fonctionnement normal des microtubules. En effet, cette molécule bloque la division des cellules cancéreuses, et les oriente majoritairement vers la mort cellulaire. Des expériences complémentaires ont montré qu'associée à d'autres molécules déjà utilisées cliniquement en chimiothérapie, UA62784 peut amplifier leur action. Enfin, les doses efficaces d'UA62784 sont beaucoup plus faibles que celles administrées avec les médicaments actuels. Traiter avec cette molécule permettrait donc de diminuer l'apparition de résistance aux chimiothérapies.

Cette découverte n'en est encore qu'au stade expérimental, mais permet d'envisager des avancées dans les traitements cliniques par chimiothérapie, tant pour les tumeurs jusqu'à présent totalement résistantes, que pour celles présentant des cas de rechute. Les chercheurs poursuivent actuellement les tests in vitro afin de cumuler davantage de données sur l'efficacité d'UA62784 et de révéler comment optimiser son effet, couplé ou non avec les autres molécules classiques.

CNRS

Vitamine D contre psoriasis : les mécanismes d'action mieux compris
Jeudi, 02/06/2011 - 07:57

Maladie auto-immune chronique de la peau, causant des plaques rouges qui démangent, le psoriasis résulte de la combinaison de facteurs génétiques et environnementaux. Différents stimuli (stress, infections, certains médicaments, etc.) peuvent être à l'origine de cette sensibilisation du système immunitaire. Selon les dernières données épidémiologiques, il toucherait 2 % de la population. Depuis longtemps, on sait que le psoriasis se déclenche quand le système immunitaire se trompe et envoie de faux signaux d'alerte, ce qui entraîne la production d'un complexe de protéines appelé inflammasomes, puis l'activation d'une réponse immunitaire qui provoque des lésions au niveau de la peau : les fameuses plaques caractéristiques d'un psoriasis.

Jürgen Schauver et ses collègues de l'université de Munich sont partis de ce constat et ont essayé de découvrir quels types d'inflammasomes étaient impliqués, comment ils étaient activés, et surtout, s'il y avait un moyen de les inhiber. Pour cela, ils ont comparé les biopsies cutanées de patients touchés par la maladie et de volontaires sains. Ils ont ainsi pu montrer que de l'ADN libre, aussi appelé cytosolique, était impliqué dans ce processus inflammatoire. En effet, c'est en étudiant les expressions génétiques de chacun des échantillons qu'ils ont découvert que le gène codant pour le récepteur AIM2 était activé dans les cas de psoriasis.

Avec la collaboration d'autres protéines, l'AIM2 est à l'origine de la formation des inflammasomes. Ces derniers activent l'interleukine 1 bêta, principale actrice de l'inflammation. Pour stopper ce mécanisme, il faut favoriser la liaison à l'ADN d'un peptide antimicrobien appelé cathélicidine, qui inhibe la synthèse de récepteur AIM2. C'est à ce moment que la vitamine D à un rôle important à jouer pour lutter contre le psoriasis. En effet, elle est capable d'activer la production de cathélicidine dans la peau et de favoriser sa liaison avec l'ADN.

Information Hospitalière

Terrible fléau pendant des siècles, la peste bovine est vaincue
Jeudi, 02/06/2011 - 07:46

"C'est la première fois qu'une maladie animale est éradiquée dans le monde, tout comme la variole chez l'homme est la seule maladie éradiquée à ce jour dans le monde médical", souligne Bernard Vallat, directeur général de l'Organisation mondiale de la santé animale (OIE), dans un article retraçant "l'odyssée" de cette éradication. L'annonce en a été faite lors de la 79e session générale de l'OIE qui s'est ouverte à Paris. Les pays membres doivent "valider" le fait que la "maladie n'existe plus", précise-t-on à l'OIE.

"En tant que directeur général de l'OIE mais surtout en tant que vétérinaire ayant combattu cette maladie", M. Vallat se félicite que cette "annonce historique" soit faite lors de cette "Année mondiale vétérinaire" où la profession fête les 250 ans de sa création. Déjà connue en Europe à l'époque de l'Empire romain, la peste bovine qui n'affecte pas directement l'homme a décimé les cheptels, tuant jusqu'à 100 % des bovins ou des buffles contaminés, ce qui a entraîné des famines.

Le virus venu d'Asie, arrivé avec des tribus ayant envahi le continent européen, a provoqué des épidémies de peste bovine qui ont frappé l'Empire romain de -376 à -366 avant l'ère chrétienne, ce qui a pu contribuer à son déclin, relève l'Organisation pour l'agriculture et l'alimentation des Nations Unies (FAO). Les conséquences des nombreuses épidémies au 18e siècle en France auraient aussi joué un rôle dans la révolution de 1789. De 1712 à 1714, la peste bovine a tué 90 % du cheptel européen, relève Christophe Degueurce, professeur à l'Ecole vétérinaire de Maisons-Alfort, la deuxième créée en France. Voici 250 ans, le 4 août 1761, le roi Louis XV avait autorisé la création à Lyon de la première école vétérinaire au monde, afin de lutter contre une épidémie qui "désole les campagnes".

A la fin du 19e siècle, l'Afrique subsaharienne est à son tour touchée par la peste bovine, ce qui entraîne la perte de 80 % à 90 % du cheptel, des famines et un affaiblissement de la région face à la colonisation européenne, selon l'historique retracé par la FAO. Dans les années 1920, la terrible maladie animale a pris pied sur tous les continents. L'OIE, destinée à lutter contre les maladies animales, est créée en 1924, suite à une nouvelle incursion du virus de la peste bovine en Europe, par le port d'Anvers en Belgique, rappelle Bernard Vallat.

La découverte en 1957 d'un vaccin efficace va permettre d'amorcer la marche vers l'éradication. La peste bovine disparaît en Europe vers le milieu du siècle dernier. En 2000, la maladie était encore présente dans la majeure partie de l'Afrique et l'Asie. Début 2010, seuls 17 pays et territoires étaient encore en cours d'évaluation, les autres ayant été déclarés indemnes. "La Somalie reste le dossier le plus complexe", déclarait en janvier 2010 Bernard Vallat. Si des zones en guerre de ce pays sont trop dangereuses pour que des contrôles puissent y être effectués, "heureusement, disait-il, que les éleveurs transhument par des zones où les services vétérinaires peuvent accéder".

Orange

Découverte d’un nouveau gène lié au processus de vieillissement du cœur
Mercredi, 01/06/2011 - 07:36

Des chercheurs de l'Institut de cardiologie de l'Université d'Ottawa (ICUO) ont identifié un nouveau gène dans le noyau de cellules des muscles et du cerveau qui intervient dans les processus de développement et de vieillissement du cœur. Dirigée par Patrick Burgon, cette équipe de recherche a découvert le gène en question dans le noyau de cellules -qui contient l'ADN, le support de l'information génétique- ce qui laisse penser que celui-ci pourrait agir sur d'autres gènes importants dans le développement du cœur. « Nous savons que le vieillissement est le principal facteur prédictif de la maladie cardiovasculaire et de l'insuffisance cardiaque. C'est pourquoi nos recherches visent à remonter le temps en observant le cœur fœtal pour comprendre les modifications qu'il subit à mesure qu'il vieillit, s'affaiblit et défaillit », explique le biologiste moléculaire Patrick Burgon.

« L'approfondissement de nos connaissances sur ce gène et ses fonctions nous aidera à comprendre le phénomène de l'altération des fonctions cardiaques. Nos recherches ouvrent la voie à de nouvelles pistes sur les caractéristiques du développement du cœur », conclut Patrick Burgon.

Précédemment, les chercheurs de l'ICUO avaient identifié le gène 9p21 -le premier facteur de risque génétique reconnu de la cardiopathie et le premier nouveau facteur de risque cardiovasculaire majeur identifié depuis la découverte du cholestérol. L'ICUO a également localisé une panoplie d'autres gènes qui ont une influence sur des maladies comme la fibrillation auriculaire et des processus biologiques comme l'obésité.

Les travaux de l'équipe dirigée par Patrick Burgon ont été financés par l'Institut de cardiologie et les Instituts de recherche en santé du Canada (IRSC). Les résultats de leurs travaux ont été publiés en ligne dans le Journal of Biological Chemistry et feront l'objet d'un article dans le numéro de juin de cette revue spécialisée.

Senior Actu

Des protéines anti-grippe créées par ordinateur
Mercredi, 01/06/2011 - 07:28

Le vaccin universel contre le virus de la grippe n'existe pas, notamment parce que chaque année, les souches du virus évoluent et changent. L'objectif des scientifiques est de trouver une molécule unique qui pourrait stopper n'importe quel virus. Cet exploit semble encore hors de portée avec les méthodes traditionnelles de criblage de nombreuses protéines pour trouver celle qui neutraliserait le plus de souches virales. Sarel Fleishman, de l'Université de Washington à Seattle, et ses collègues ont donc développé une méthode informatique pour identifier la molécule efficace contre tous les virus de grippe ; à partir de leurs résultats, ils ont ensuite créé deux protéines susceptibles de neutraliser n'importe quel virus de la grippe. Reste maintenant à les produire en grande quantité.

La surface des virus de la grippe comporte des protéines nommées hémagglutinines qui permettent aux virus d'infester les cellules et notamment les voies respiratoires. Ces hémagglutinines sont souvent les cibles des thérapies antivirales et des anticorps (les molécules de défense de l'organisme), car elles sont essentielles à la virulence. Elles possèdent deux régions : la région externe, très variable d'une souche de virus à l'autre, est la cible des anticorps et des vaccins ; la région basale est quant à elle très conservée entre les différentes souches, mais elle est peu accessible. Il est donc difficile d'identifier une protéine ou un anticorps qui pourrait se fixer sur cette région et ainsi neutraliser le virus.

Les biophysiciens sont donc partis de ce domaine conservé des hémagglutinines, dont on connaît l'organisation des atomes et la structure tridimensionnelle, et ont appliqué un protocole original. Ils ont d'abord identifié les « points chauds » du domaine, c'est-à-dire les régions qui interagissent avec des acides aminés isolés : ils ont testé un par un divers acides aminés et conservé ceux qui se fixaient le plus favorablement (avec la meilleure énergie de liaison) sur le domaine des hémagglutinines. Puis ils ont cherché dans une banque de protéines celles possédant les acides aminés des points chauds et dont le repliement tridimensionnel serait le plus complémentaire de l'hémagglutinine (à la manière d'une clé dans une serrure).

En utilisant des programmes développés par une vingtaine d'équipes de recherche dans le monde et plus de 100 000 heures de calculs, les chercheurs ont résolu ce puzzle complexe et créé par ordinateur des protéines complètes capables d'interagir fortement et spécifiquement avec le domaine conservé des hémagglutinines.

Ensuite, par génie génétique, S. Fleishman et ses collègues ont fait produire ces protéines à la surface de levures (en introduisant dans leur génome les séquences d'ADN correspondant aux cyberprotéines obtenues par ces chercheurs). Ils en ont trouvé deux qui présentent une affinité de l'ordre du nanomolaire avec le domaine conservé des hémagglutinines : en d'autres termes, si l'on place un milliard de ces protéines en solution avec des hémagglutinines, seule une reste libre, les autres étant liées à une hémagglutinine. Ces deux protéines sont très proches de celles conçues par ordinateur, à quelques mutations près.

Enfin, les chercheurs ont confirmé leurs résultats en obtenant par analyse aux rayons X la structure tridimensionnelle de l'une de ces protéines : la surface de contact observée entre l'hémagglutinine et la protéine conçue par ordinateur est très proche de celle prévue par la théorie. Ainsi, grâce à une élégante conception par ordinateur et sans recourir à des homologies avec des protéines déjà connues, les scientifiques ont découvert deux protéines capables de se lier avec une forte affinité à la région conservée des hémagglutinines. Les résultats obtenus par d'autres équipes et d'autres programmes antérieurs n'aboutissaient pas à des molécules présentant d'aussi fortes interactions. La prochaine étape consistera à produire ces protéines en grande quantité et à déterminer leur efficacité pour lutter contre le virus.

Pour la Science

La qualité de l'air urbain s'améliore
Mardi, 31/05/2011 - 07:35

le 12 mai dernier, une étude du laboratoire central de la préfecture de police de Paris (LCPP), du laboratoire d’hygiène de la Ville de Paris et de la RATP démontrait «une baisse de certains polluants (monoxyde de carbone, benzene et toluène) de l’ordre de 75 % à 90 % entre 1998 et 2008», résume Claudine Delaunay, adjointe au chef du pôle environnement au LCPP. Une baisse qui fait «suite aux normes Euro limitant les émissions de polluants des véhicules neufs (hydrocarbures, CO, NOx et particules)», dixit l’étude. Des données qui seront certainement prises en compte par les huit agglomérations françaises devant présenter pour juillet leur projet de Zapa, un périmètre où la circulation de certains véhicules sera limitée, voire interdite à partir de 2012.

L’étude, intitulée «Evaluation de l’exposition des citadins aux polluants atmosphériques au cours de leurs déplacements dans l’agglomération parisienne», révèle aussi que c’est en voiture que le citadin est le plus exposé à la pollution. «Plus particulièrement pour le dioxyde d'azote, le benzène, le toluène, le monoxyde de carbone et l’indice de carbone suie», souligne Claudine Delaunay. «Aux heures de pointe, le niveau médian de NO2 présent dans l’habitacle d’une voiture roulant dans Paris est de 130 µg/m3, de 150 µg/m3 sur autoroute et il atteint 218µg/m3 sur le boulevard périphérique. Les niveaux médians de benzène sont de 10µg/m3 sur le périphérique et de 6 à 8 µg/m3 sur les autres trajets. Pour le toluène, les valeurs varient entre 28 et 39 µg/m3 quel que soit le trajet. L’indice de carbone suie, mesuré par le coefficient d’absorption des filtres sur lesquels ont été collectées les PM 2,5 (particules fines), est également particulièrement élevé sur le périphérique.» Seul le CO présente des niveaux faibles (valeurs médianes entre 1,7 et 3,3 ppm).

Dans les rames de métros et dans le RER, les niveaux des polluants gazeux «sont globalement faibles sauf pour l’acétone, dont les teneurs (19 à 28 µg/m3) traduisent la densité d’occupation des rames aux heures de pointe». En revanche, la pollution atmosphérique aux particules y est beaucoup plus élevée. «Particulièrement sur les lignes de métro 1 et 14 et sur le RER A, c’est-à-dire sur les lignes souterraines qui ont été évaluées», note Claudine Delaunay. «Ces particules sont en effet émises par le matériel roulant en phase de freinage et elles restent confinées dans les tunnels». Les teneurs médianes sur ces lignes sont comprises entre 119 et 155 µg/m3 et les maxima atteignent 311 µg/m3 sur le RERA.

Cette étude va faire l’objet d’enquêtes plus approfondies, notamment de la RATP, qui veut creuser les résultats obtenus dans les bus. «Un bilan global pour les cyclistes est également en cours, explique Claudine Delaunay. L’inhalation des polluants dépend effectivement du temps d’exposition ainsi que du débit ventilatoire de la personne qui, du fait de l’effort physique développé, est plus important pour le cycliste que pour les autres modes de locomotion».

Il y aurait en Europe 350.000 décès prématurés par an dus à la pollution atmosphérique, dont 42.000 en France. Elle serait responsable d’une perte de 8,2 mois d’espérance de vie, et génèrerait un coût de 32 milliards d’euros de frais de santé par an.

Primequal

Une bactérie responsable de la maladie de Parkinson ?
Lundi, 30/05/2011 - 14:23

La découverte est considérable et a été présentée au 111ème congrès de l'American Society for Microbiology : la bactérie Helicobacter Pylori, responsable d'ulcères, est également impliquée dans le développement de la maladie de Parkinson. Cette pathologie neurologique chronique affecte le système nerveux central, principalement chez des personnes âgées de plus de 45 ans.

La corrélation entre les ulcères de l'estomac et la maladie de Parkinson est un phénomène observé depuis les années 1960. Il faut toutefois attendre près de cinquante ans pour que les chercheurs parviennent à mettre en évidence la présence plus fréquente de Helicobacter Pylori chez les patients souffrant de la maladie de Parkinson. En outre, les études statistiques menées sur ces patients suggèrent également une légère amélioration de leur état lors d'un traitement anti-bactérien.

Actuellement, les recherches menées sur des souris de tout âge infectées par la bactérie ont consisté à suivre leur activité locomotrice et le taux de dopamine présent dans leur cerveau. Selon les résultats de l'étude, les souris présentent 3 à 5 mois après l'infection une baisse significative dans chacun des deux indicateurs observés. La dégradation des systèmes locomoteur et de sécrétion de dopamine correspond à des symptômes caractéristiques de la maladie de Parkinson.

Selon les chercheurs, le développement de la maladie de Parkinson serait en partie lié à des produits sécrétés par certains types de bactéries. Helicobacter pylori, par exemple, sécrète un composé semblable au cholestérol, mais qui s'avère être un neurotoxique responsable de la progression de la pathologie.

En France, 3,4 % des personnes âgées de plus de 75 ans sont touchées par la maladie de Parkinson. 10 000 nouveaux cas et 3 500 décès liés à la pathologie sont déclarés chaque année.

Science news

Congélation rapide d'embryon : une première grossesse en France
Lundi, 30/05/2011 - 14:14

Pour la première fois, une femme a entamé une grossesse après implantation d'un embryon « vitrifié ». En d'autres termes, cet embryon a été congelé « brutalement ». Plus efficace que la congélation lente, la vitrification a été validée par l'agence de la Biomédecine en novembre 2010. L'occasion aussi pour les médecins de remettre sur le devant de la scène la vitrification… des ovocytes, encore interdite dans notre pays.

« La grossesse de cette patiente est non seulement une heureuse nouvelle, mais elle représente une évolution importante », souligne le Dr Silvia Alvarez, gynécologue au centre d'Assistance Médicale à la Procréation (AMP) Eylau Muette, à Paris. La technique employée « offre de nouvelles perspectives pour les couples ayant des problèmes de fertilité et pour les femmes qui, pour raisons de santé, doivent remettre leur projet de maternité à plusieurs mois, voire plusieurs années comme dans le cas d'un traitement anticancéreux », ajoute-t-elle.

La vitrification correspond à un processus de congélation rapide par lequel un liquide se solidifie sans cristalliser. Comparée à la technique de congélation lente « dont les résultats sont parfois décevants », celle-ci donne « des résultats qui paraissent de prime abord très encourageants ». D'après le centre AMP Eylau Muette, le taux de survie des embryons après vitrification est de 84 %, contre 71 % pour la congélation lente.

La congélation, dans ce cas, présente un double intérêt. D'une part, elle permet de « préserver les embryons surnuméraires dans le cadre d'une aide médicale à la procréation. C'est donc une chance supplémentaire de grossesse sans qu'il soit nécessaire de recourir une nouvelle fois, à une ponction ovocytaire », explique Silvia Alvarez. D'autre part, « cette technique participe à diminuer le taux de grossesses multiples, en réduisant le nombre d'embryons frais à transférer ».

Destination Santé

L’action thérapeutique des antidépresseurs dépend de la formation de nouveaux neurones
Samedi, 28/05/2011 - 07:18

Il y a une vingtaine d’années, il a été montré que de nouveaux neurones pouvaient naître dans certaines régions du cerveau adulte tout au long de son existence. Cependant, la fonction de ces "néoneurones" est restée longtemps méconnue. Les travaux publiés dans la revue Molecular Psychiatry par l’équipe d’Alexandre Surget et de Catherine Belzung (Unité Inserm 930 "Imagerie et cerveau", Tours) mettent en évidence que ces nouveaux neurones sont indispensables à l’action des antidépresseurs et au contrôle des hormones du stress.

Bien que l’efficacité des antidépresseurs soit démontrée, les mécanismes d’action de ces molécules sont encore méconnus. Les scientifiques ont découvert un indice essentiel qui aide à expliquer comment fonctionnent les antidépresseurs : Il semble que tout dépende de la croissance de quelques nouveaux neurones et de leur aptitude à contrôler les hormones du stress. Dans leur travail, les chercheurs ont exposé des souris à des situations de stress. Elles ont très vite développé les signes caractéristiques de la dépression : perte de poids, désintérêt pour les activités dites de plaisir (telle que la découverte d’un cookie au chocolat), altération de la régulation des hormones du stress, etc. De plus, les souris stressées, contrairement aux autres, présentent un arrêt de la production de nouveaux neurones à un endroit bien précis du cerveau : l’hippocampe. Pourquoi ? C’est la question à laquelle les scientifiques ont voulu répondre.

Fort de ces premières observations, les chercheurs ont administré du Prozac aux animaux dépressifs pendant plusieurs semaines et ont observé en parallèle ce qui se passait au niveau des nouveaux neurones de l’hippocampe. "D’un point de vue physique, bien que les souris soient toujours soumises à des situations de stress, le traitement antidépresseur fait son effet rapidement. Après quelques semaines leur comportement mais également les hormones du stress redeviennent normaux. Elles retrouvent notamment leur goût pour les cookies au chocolat !" déclare Catherine Belzung. "Mais la découverte clé de notre travail se trouve au niveau de ce qui se passe dans le cerveau", ajoute la chercheuse.

En effet, aussi surprenant que cela puisse paraitre, les antidépresseurs augmentent la production de nouveaux neurones. Par ailleurs, après avoir détruit très spécifiquement, les nouveaux neurones de l’hippocampe grâce à des rayons X, les chercheurs se sont aperçus que le Prozac n’avait alors plus aucun effet sur les souris qui conservent alors tous les symptômes de la dépression. Pour fonctionner, les antidépresseurs dépendent donc étroitement de la formation de nouveaux neurones par l’hippocampe. Dans l’article, les chercheurs montrent que ces nouveaux neurones permettent de remettre en route l’axe endocrinien du stress qui est justement détérioré dans la dépression. Les antidépresseurs agiraient donc en stimulant la production de nouveaux neurones, qui à leur tour, participent à la régulation du stress souvent à l’origine de la dépression. "Cette découverte est importante et va bien au-delà de la dépression, car le stress cause aussi d’autres maux, comme l’anxiété, la douleur chronique, mais aussi le suicide" conclut Catherine Belzung.

INSERM

Des gouttelettes pour détecter l'ADN tumoral
Vendredi, 27/05/2011 - 08:13

Dans un avenir proche, détecter un cancer sera peut-être possible par une simple analyse de sang ou d'urine. En effet, des biologistes du CNRS, de l'Inserm et des universités Paris Descartes et de Strasbourg viennent de mettre au point une technique capable de déceler les infimes traces d'ADN tumoral présentes dans les fluides biologiques de patients atteints d'un cancer. La méthode consiste à réaliser des analyses moléculaires ultra-sensibles dans des gouttelettes microscopiques. Testée avec succès sur des gènes impliqués dans différents cancers dont le cancer du côlon ou la leucémie, elle a le potentiel pour devenir une aide majeure pour les oncologues dans l'établissement du diagnostic comme dans l'élaboration du traitement. Une étude clinique est d'ores et déjà envisagée pour évaluer cette méthode. Ces travaux viennent d'être publiés sur le site de la revue Lab on a chip.

Jusqu'à présent, les méthodes d'analyse classiques d'ADN n'étaient pas assez sensibles pour détecter de si faibles quantités de liquide. C'est tout l'intérêt de la technique qu'ont développée des chercheurs du CNRS, de l'Inserm, de l'université de Strasbourg et de l'université Paris Descartes, en collaboration avec une équipe allemande du Max Planck institute (Göttingen) et une société américaine (Raindance Technologies). Déceler des seuils d'ADN 20 000 fois inférieurs à ce qui se faisait avant en clinique, telle est la prouesse réalisée par cette technique.

Comment fonctionne-t-elle ? Une première étape consiste à répartir l'ADN extrait d'un échantillon biologique dans des millions de gouttelettes suffisamment petites pour que chacune ne contienne qu'un seul gène cible. Puis, cet ADN est amplifié grâce à des méthodes de multiplication moléculaires modernes. Simultanément, des molécules fluorescentes spécifiques à chaque gène viennent interagir avec l'ADN. Cette phase importante fournira une sorte de code couleur des gènes. Les gouttelettes sont ensuite guidées, une par une, à l'intérieur de sillons de taille microscopique où elles sont analysées par laser : la couleur des molécules fluorescentes révèle alors quel gène se trouve dans la gouttelette. Si cette dernière émet du rouge, par exemple, l'ADN est sain. Si elle est verte, il est tumoral. Si la gouttelette n'émet pas de fluorescence, elle ne contient pas le gène ciblé. Un simple comptage des taches colorées permet alors de connaître la concentration en ADN tumoral.

Les chercheurs ont appliqué avec succès leur méthode sur un oncogène (gène ayant le potentiel de provoquer un cancer) appelé KRAS (associé à des leucémies et à divers cancers, comme ceux du côlon, du pancréas ou du poumon). L'ADN qui portait ce gène était issu de lignées cellulaires de laboratoire. Reste maintenant à tester le nouvel outil d'analyse dans un cadre thérapeutique. Une étude clinique est d'ores et déjà prévue. Si elle réussit, les médecins disposeront d'une « arme anticancer » efficace, non seulement pour détecter la présence de tumeurs mais également pour proposer des traitements. L'agressivité du cancer, sa sensibilité aux traitements existants et son risque de récidive après un traitement local : toutes ces informations sont en partie écrites dans l'ADN tumoral. En les lisant avec la technique des microgouttelettes, l'oncologue pourrait bénéficier d'un outil d'aide au diagnostic efficace, pour prévoir l'évolution de la maladie comme pour élaborer une stratégie thérapeutique.

CNRS

Un paraplégique est parvenu à se remettre debout !
Vendredi, 27/05/2011 - 08:04

Pendant quatre ans, complètement paralysé jusqu'au tronc à la suite d'un accident de voiture, cet homme de 25 ans a été incapable de remuer ne serait-ce qu'un orteil. Aujourd'hui, il peut se relever, rester debout pendant plusieurs minutes et faire bouger ses jambes sur commande, des orteils jusqu'aux hanches. Il lui est même possible, avec une assistance médicale, d'esquisser des mouvements de marche sur un tapis roulant. Cette récupération fonctionnelle «sans précédent», révélée dans la revue médicale The Lancet, a été obtenue grâce à l'implantation d'un stimulateur électrique de la moelle épinière. L'article scientifique, signé de onze auteurs pour la plupart américains, est assorti d'un éditorial, de plusieurs vidéos, et même d'un témoignage du patient, Rob Summers.

«Ce traitement a complètement changé ma vie. Avoir la liberté et la capacité de me relever seul est la sensation la plus extraordinaire. (…) Je pense que la stimulation épidurale va me permettre de quitter ma chaise roulante», raconte-t-il. «C'est une avancée spectaculaire qui ouvre de grandes opportunités pour améliorer la vie quotidienne de ces patients. Mais nous avons encore un long chemin à parcourir», estime de son côté le Pr Susan Harkema, neurochirurgienne à l'université de Louisville (États-Unis), premier auteur de la publication.

Cette aventure scientifique et humaine a commencé par un accident de voiture en juillet 2006. La moelle épinière de Rob Summers, alors âgé d'une vingtaine d'années, est lésée au niveau de la dernière vertèbre cervicale, induisant une paraplégie. Le patient n'a plus aucune motricité des membres inférieurs et du tronc et a perdu le contrôle de ses sphincters. Il garde cependant une légère sensibilité au niveau des jambes. En se fondant sur des expériences réussies chez des animaux, Susan Harkema et ses collègues décident d'essayer de stimuler sa moelle épinière pour restaurer une certaine motricité. Des stimulateurs médullaires, fabriqués notamment par la société Medtronic, sont déjà utilisés pour soulager certaines douleurs d'origine neurologique rebelles aux médicaments. La technique consiste à implanter des électrodes chirurgicalement au niveau médullaire, celles-ci étant reliées à une batterie placée sous la peau. Le déclenchement et l'intensité de la stimulation sont réglés via une télécommande.

Après 170 séances de rééducation, Rob Summers a été ainsi implanté en 2009. Les médecins ont ensuite déterminé les paramètres de stimulation (intensité, durée…) au cours de nombreuses sessions. C'est ainsi que le jeune homme a réussi à se remettre debout, à mobiliser ses muscles… Le traitement a également permis d'améliorer ses fonctions sexuelles et urinaires, soulignent les auteurs. Selon eux, la stimulation électrique médullaire permet de mimer les signaux normalement émis par le cerveau pour initier les mouvements. Elle pourrait réactiver des circuits neuronaux ou stimuler la plasticité cérébrale. «C'est un article très encourageant, qui ouvre des perspectives importantes pour la récupération fonctionnelle des blessés médullaires», estime le Pr Stéphane Palfi, neurochirurgien à l'hôpital Henri-Mondor de Créteil. Cette stratégie doit cependant être validée sur un plus grand nombre de cas, insiste-t-il. Quatre autres patients devraient être équipés aux États-Unis.

Le Figaro

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Michelin invente le pneu increvable
Mercredi, 01/06/2011 - 07:46

Le pneu qui s’auto répare est une réponse concrète aux attentes des usagers : sûr, économique et symbole de la volonté d’optimiser la matière dans la mesure où un pneu changé moins souvent est un pneu qui fait plus de kilomètres et qui a donc une longévité kilométrique accrue. Ces pneus pour véhicules de tourisme Michelin peuvent rouler sur des clous sans perdre un seul gramme de pression. Ils disposent en leur intérieur d’un composé de gomme inédit, capable de boucher instantanément un trou qui serait occasionné sur la bande de roulement. Ils conservent aussi toutes les qualités qui font la signature des pneus Michelin, comme la sécurité, la longévité kilométrique et la faible consommation de carburant. Michelin donne corps à un bénéfice clé sans affecter les autres caractéristiques du pneu. Il illustre concrètement ce qu’est la stratégie de l’équilibre des performances des pneus Michelin.

L’utilisation d’une nouvelle gomme, se présentant sous la forme d’un matériau stable, lui permet de ne pas « s’écouler » dans le bas du pneu, comme cela pourrait se produire par exemple après un long stationnement. Il n’y a donc aucune vibration due à l’emploi de cette gomme. La solution Michelin n’induit aucune altération des autres performances, notamment en ce qui concerne la résistance au roulement qui influence la consommation de carburant. Sur les routes européennes, le risque de crevaison survient en moyenne tous les 75 000 km, quand il se produit tous les 3 000 sur les réseaux de certains pays d’Asie du sud-est. On mesure d’emblée la pertinence que représente pareille innovation.

Ce nouveau pneu qui s’auto répare est une opportunité incroyable pour le marché des pays émergents. Lorsque l’on connaît le développement fulgurant du marché chinois en matière de parc automobile, cette innovation constitue donc une réponse aux attentes des populations qui accèdent à la mobilité. Ces nouveaux pneus apporteront une tranquillité inégalée à son utilisateur. Quel automobiliste n’a jamais été angoissé à l’idée de crever et de devoir changer son pneu dans des circonstances désagréables ou périlleuses ? Michelin, par l’intermédiaire du pneu qui s’auto répare, prend en compte les aspirations de ses clients et leur procurera une sérénité inédite puisque l’usager ne se rend même pas compte que son pneu a été percé !

D’un point de vue environnemental, les avantages sont doubles. Tout d’abord, ils permettent de diminuer les remplacements dus aux crevaisons. Ce seront donc autant de pneus en moins à fabriquer pour effectuer un kilométrage donné. Ensuite, la suppression de la roue de secours permet d’obtenir un gain de place mais aussi et surtout une réduction de masse non négligeable. Le cric et le dispositif d’accueil de la roue disparaissent également. La voiture gagne ainsi près de 30 kilos environ, ce qui correspond ainsi à un gain de volume de 80 litres. Indéniablement, l’économie de carburant, qui en résulte, correspond à la préoccupation de la part de Michelin de respecter l’environnement. En milieu urbain, ce sont près de 1,9 g de CO2 par kilomètre qui ne sont pas rejetés. Ce nouveau pneu, dont la commercialisation constituera une première technologique sans précédant, dispose de 15 brevets, témoignant du travail accompli par les techniciens du Groupe.

Audi-passion

L'Allemagne veut se convertir à la voiture électrique
Mardi, 31/05/2011 - 07:42

Multiplier par près de 500 en moins de dix ans le nombre des voitures électriques en circulation, sans plomber les comptes publics : tel est l'ambitieux projet que la chancelière allemande Angela Merkel a présenté le  23 mai. Alors qu'entre 2.000 et 3.000 voitures électriques seulement roulent aujourd'hui dans le pays, le gouvernement allemand entend porter le chiffre à un million en 2020, puis à six millions en 2030.

A l'heure actuelle, environ 40 millions de véhicules sont immatriculés dans le pays. L'Allemagne doit devenir l'un des premiers vendeurs et l'un des premiers marchés mondiaux pour la voiture électrique, a dit Mme Merkel lundi au cours d'une conférence de presse à Berlin. Berlin entend certes doubler, à deux milliards d'euros au total, les subventions accordées à la recherche et au développement de la voiture électrique, mais la chancelière ne veut pas d'une prime à l'achat pour doper les ventes, une voie choisie par la France par exemple.

Une prime à l'achat n'est pas une bonne réponse à ce qui est l'un des principaux handicaps de la voiture à batterie, à savoir son prix prohibitif, a-t-elle jugé. Une voiture électrique i-Miev de Mitsubishi, l'une des premières à être fabriquées en masse, se vend à plus de 30.000 euros, alors qu'il s'agit d'un modèle d'entrée de gamme.

Le gouvernement allemand va toutefois tâcher d'alléger la facture des futurs acheteurs par une voie indirecte. Mme Merkel a annoncé que toute voiture qui émet moins de 50 grammes de CO2 au kilomètre, ce qui exclut les modèles à essence ou à gazole, serait dispensée de vignette pendant dix ans. La chancelière a aussi promis de revoir la fiscalité sur les véhicules de fonction, jusqu'ici taxés sur la seule base du prix d'achat, ce qui désavantage les coûteuses voitures électriques.

Romandie

Quelles batteries pour la voiture électrique ?
Samedi, 28/05/2011 - 07:29

Quelle sera la technologie standard qui s'imposera demain pour les batteries des véhicules électriques ? La question devient cruciale à l'heure où le prix de l'essence flambe. En vue de donner un éclairage avisé sur le scénario le plus probable, une équipe de spécialistes de l'intelligence économique de l'Esiee Paris a passé au crible, dans une étude publiée en exclusivité par « Les Echos », les critères techniques, industriels, stratégiques et géopolitiques. Tous concourent à l'émergence de la filière lithium-ion comme la technologie standard à l'échelle mondiale. Un marché considérable, évalué à 20 milliards de dollars à l'horizon de 2015.

Il va sans dire que ce choix technologique est primordial pour les constructeurs automobiles qui veulent prendre la pole position sur la voie électrique. Car, outre la difficulté de trouver le meilleur équilibre entre les performances et la sécurité, la batterie représente environ 40 % du coût global de ce type de véhicule.

Déjà prédominante dans l'électronique portable, la technologie lithium-ion tient le haut du pavé en raison de ses avantages. Moins encombrantes et nécessitant peu de maintenance, ces batteries ont une durée de vie plus longue (de cinq à huit ans) et une capacité de stockage d'énergie trois à quatre fois supérieure par unité de masse, même s'il reste évidemment des points d'amélioration au niveau de la durée de charge ou de l'autonomie. Dans cette filière lithium-ion, 4 options technologiques sont actuellement en course pour les couples cathode-anode de la batterie : nickel-cobalt-aluminium (NiCoAl), nickel-manganèse cobalt (NiMnCo), manganèse (LiMn2O4) et fer-phosphate (LiFePO4). En dépit de leurs bonnes performances techniques, les deux premières solutions posent encore un problème de sécurité qui, s'il n'est pas résolu, risque de compromettre leur développement potentiel.

C'est la troisième option, basée sur l'utilisation du manganèse (LiMn2O4), la mieux maîtrisée et moins coûteuse, qui a fait l'objet de la majorité des dépôts de brevets et de publications scientifiques à l'échelon mondial au cours de la dernière décennie. Malgré une usure plus rapide de la batterie, cette technologie est devenue la priorité des Japonais et des Coréens. Panasonic et NEC Tokin dominant le marché des batteries pour véhicules électriques, on peut considérer que c'est le standard actuel. « Nous avons la chance de bénéficier de cette technologie en interne grâce à notre alliance avec Nissan, qui a constitué un joint-venture avec NEC. Toutes les solutions ont leurs avantages et leurs inconvénients, mais le manganèse s'avère pour l'instant le meilleur compromis en termes de performances et de coût », estime Thierry Koskas, directeur du programme véhicule électrique de Renault.

Certes moins mature, la quatrième option technologique utilisant le phosphate de fer (LiFePo) a néanmoins une longueur d'avance au niveau d'un point critique : la sécurité. « La dangerosité des batteries peut être en effet considérée comme un élément particulièrement important, car un seul incendie de voiture électrique pourrait conditionner l'opinion publique et ralentir le développement de ce marché », soulignent les auteurs du rapport, constatant que les recherches se sont accélérées dans cette voie à partir de 2004.

La Chine en a d'ailleurs fait sa priorité. Plus de 60 % des brevets protégeant la technologie lithium-fer-phosphate ont été déposés auprès de l'office chinois de la propriété industrielle (Sipo) sur la période 2000-2010. « La part conquise par la Chine au cours des dernières décennies, montre une stratégie univoque de ce pays au niveau des batteries pour véhicules électriques. Le choix du champion national BYD dans ce secteur est un autre marqueur de cette orientation stratégique », soulignent les experts de l'Esiee Paris.

Les Echos

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top