RTFlash

RTFLASH Recherche & Technologie
NUMERO 430
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Mai 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Puces informatiques : IBM repousse les limites de la loi de Moore par une suite d'innovations majeures
La télévision par ADSL et la voix sur IP s'imposent dans les foyers
Club Internet inaugure l'enregistrement TV à distance via l'ordinateur
Des puces optiques 100 fois plus rapides pour exploiter les potentialités de la fibre optique jusqu'à l'abonné
Des scientifiques coréens ont fabriqué des composants électroniques de 8 nanomètres
Japon : une puce RFID de la taille d'un grain de poudre !
Avenir
Un nouveau robot intelligent de surveillance taiwanais
Médecine : les nanotechnologies confirment leur potentiel thérapeutique
Matière
Le Danemark mise sur les vents de la mer
Des vitres qui captent l'énergie solaire le jour pour la restituer en lumière la nuit !
Un nouveau type d'éolienne à axe vertical pourrait s'intégrer en milieu urbain
Les cellules solaires sans silicium arrivent au Japon
Au Japon, les piles à combustible arrivent dans les maisons
Espace
La NASA commence à réfléchir aux implications de longues missions vers Mars
Terre
La lutte contre le réchauffement climatique passe par un changement de nos modes de vie
Les chaleurs record en avril en France confirment le réchauffement climatique
Gaz à effet de serre : la végétation émettrait peu de méthane
Pays en voie de développement : des usines à rosée pour produire de l'eau potable !
Vivant
Découverte d'un gène clé de la longévité
Maladie d'Alzheimer : le cerveau aurait une capacité insoupçonnée de récupération
Chirurgie : la révolution des techniques non intrusives
Edito
Hydrogène et énergies renouvelables : la synergie énergétique de l'avenir



Alors que le GIEC vient de rendre son nouveau rapport sur les mesures à prendre pour atténuer les effets du réchauffement climatique d'ici 2050 (Voir notre article complet dans la rubrique « Environnement »), il est intéressant de faire le point sur un vecteur énergétique d'avenir : l'hydrogène.

L'hydrogène, contrairement au pétrole ou au gaz, n'existe pas dans la nature à l'état natif. Il ne peut être produit à partir de trois principales ressources : les hydrocarbures, la biomasse et l'eau. Il serait évidemment peu cohérent et peu bénéfique pour l'environnement de continuer dans le futur à utiliser principalement des combustibles fossiles pour produire de l'hydrogène.

Lorsqu'on évoque l'hydrogène comme source d'énergie, on se focalise le plus souvent sur la fameuse pile à combustible qui permet, après production d'hydrogène "embarquée" à l'aide d'éthanol, de fournir à nos véhicules une énergie propre dont le seul résidu est de la vapeur d'eau. Mais la généralisation de ces PAC se heurte à des défis technologiques considérables et suppose de réduire au moins d'un facteur 20 le coût de fabrication et d'utilisation du moteur à hydrogène. Selon un rapport de l'AIE, dans l'hypothèse la plus favorable, les véhicules mus par une pile à combustible à l'hydrogène pourraient être commercialisés à partir de 2025 et représenteraient 30 % du parc automobile en 2050, soit 700 millions de véhicules. La consommation mondiale de pétrole en serait ainsi réduite de 13 %. Avec l'apport d'autres technologies nouvelles, un tel développement du parc mondial de ce type de véhicule permettrait de diminuer de moitié d'ici 2050 les émissions de gaz carbonique, principal fautif du réchauffement de la planète.

Mais l'utilisation de l'hydrogène comme source et vecteur d'énergie ne se limite pas à nos voitures et demain l'hydrogène pourrait devenir le maillon manquant indispensable pour assurer le stockage de l'énergie produite grâce aux énergies renouvelables. Hélion, la filiale d'Areva basée à Aix-en-Provence, spécialisée dans les solutions énergétiques à base d'hydrogène et de piles à combustible vient de livrer son premier groupe de secours électrique au nouveau siège du Commissariat à l'énergie atomique (CEA) de Saclay en Essonne. Il s'agit là du premier prototype de pile à combustible d'une puissance de 30 kilowatts pour usage statique. Cet appareil a pour vocation de délivrer une puissance capable de prendre le relais du réseau en cas de coupure, pendant au moins huit heures. Il a pour caractéristique d'être totalement silencieux et il ne rejette que de l'eau. Du point de vue technique, ce générateur utilise de l'hydrogène et de l'oxygène purs, qui lorsqu'ils se combinent pour produire de l'eau, libèrent une énergie thermique et électrique.

A l'avenir, les ingénieurs d'Hélion imaginent un couplage de leur technologie avec un réseau de production solaire ou éolien pour stocker et redistribuer à la demande l'énergie non consommée. Ainsi, Patrick Bouchard, le président d'Hélion, souligne que "la production de courant issue des énergies renouvelables pose un problème de disponibilité aux exploitants en raison de l'intermittence des sources. Notre solution consiste à transformer le surplus d'énergie en gaz qui peuvent être stockés pour alimenter une pile à combustible quand cela est nécessaire, à la tombée du jour, quand le vent cesse ou pour stabiliser le réseau".

Cette synergie entre l'hydrogène et les énergies renouvelables vient de trouver une remarquable illustration concrète en Corse. Le pôle de compétitivité PACA-Corse, dédié aux énergies non génératrices de gaz à effet de serre, a lancé il y a quelques jours à Ajaccio un projet de plate-forme technologique destinée à devenir une "première mondiale" combinant énergie solaire et pile à hydrogène pour fabriquer de l'électricité à grande échelle. La plate-forme technologique solaire de Vignola (Corse-du-Sud) doit voir le jour par étapes entre 2007 et 2013, en bordure de mer près d'Ajaccio. L'investissement total devrait dépasser 32 millions d'euros répartis entre partenaires publics et privés. A terme, la plate-forme de Vignola prévoit de produire 3,5 MW, selon le groupe corse Raffalli, principal partenaire du projet. Rappelons que l'île tire près de 25 % de sa consommation énergétique des énergies renouvelables (essentiellement l'hydraulique et l'éolien), contre une moyenne nationale de 11 %, et la CTC a fixé pour objectif de dépasser les 30 % à l'horizon 2013-2015.

En Espagne, à Sotavento, une expérimentation de production de l'hydrogène vise à obtenir de l'hydrogène à partir de l'eau en utilisant l'énergie éolienne. Cette expérimentation doit valider la possibilité d'emmagasiner l'énergie éolienne en la convertissant en hydrogène stocké dans des réservoirs. Pour obtenir l'hydrogène, l'énergie générée par les aérogénérateurs sera conduite jusqu'à un électrolyseur. Cet appareil décompose l'eau à l'aide d'un courant électrique en dihydrogène et en oxygène. L'oxygène sera relâché dans l'atmosphère et l'hydrogène sera conservé et utilisé pour obtenir de l'électricité réinjectée ensuite dans les turbines éoliennes. Si les tests sont concluants, les parcs éoliens pourraient alors absorber les surplus d'énergie en cas de forte production et produire de l'électricité malgré l'absence de vent.

Outre-Manche, la compagnie Wind Hydrogen Ltd, basée à Anglesey au nord de Pays de Galles, développe une technologie intégrant éolien et hydrogène pour la production d'électricité et le transport. Le principe de cette technologie est d'utiliser le surplus d'énergie éolienne pour produire de l'hydrogène par électrolyse de l'eau. Cet hydrogène stocké peut être soit utilisé pour produire de l'électricité en cas de vents faibles (piles à combustible ou moteur à combustion interne) ou être revendu pour le secteur du transport. D'après Declan Pritchard, le directeur de développement de Wind Hydrogen, "L'énergie éolienne couplée avec la production hydrogène permet théoriquement la pénétration du 100 % renouvelable dans le marché de l'électricité". La compagnie travaille sur différents sites au Royaume-Uni, en particulier en Ecosse, et en Australie. A Kilbirnie, à l'ouest de l'Ecosse, la compagnie travaille sur un projet de 375 MW. Dans ce projet, 10 à 15 % de l'électricité produite par les éoliennes seraient dédiés à la production d'hydrogène.

Le Canada a lancé, pour sa part, en 2005 le Projet de village à centrale éolienne de production d'hydrogène dans l'Île-du-Prince-Édouard. Cette contribution du programme des adhérents pionniers h2 (APh2) fait partie d'un projet de 10,3 millions exécuté avec l'Hydrogenics Corporation et la Prince Edward Island Energy Corporation, qui vise à procurer des solutions énergétiques et des possibilités de croissance économique aux collectivités locales. Construites dans la pointe occidentale de l'Île-du-Prince-Édouard, entre Seacow Pond et North Cape, les installations du projet utiliseront l'énergie éolienne comme principale source d'énergie et produiront de l'hydrogène afin de créer de l'électricité primaire et de réserve pour combler les besoins des industries, des fermes et des foyers, ainsi que de l'hydrogène combustible pour les moyens de transport.

La première étape du projet porte sur l'installation d'une station de production d'hydrogène, d'un lieu de stockage de l'hydrogène et d'un système de contrôle intégré à énergie éolienne-hydrogène et à énergie éolienne-diesel qui alimentera en électricité un certain nombre de résidences et d'immeubles de bureaux de North Cape. L'étape suivante devrait comporter l'expansion du village à énergie éolienne et à hydrogène pour alimenter une exploitation agricole et des moyens de transport à hydrogène tels que des bus-navettes et des véhicules industriels à pile à combustible.

Mais la production propre d'hydrogène ne se limite pas à l'utilisation des énergies éoliennes ou solaires. De récentes recherches ouvrent en effet la perspective d'une production industrielle de l'hydrogène à partir d'éthanol, de sucre ou de déchets végétaux. Le Professeur Lanny Schmidt et son équipe de l'université du Minnesota ont ainsi mis au point un procédé permettant de produire de l'hydrogène à partir d'huile ou de sucre. À terme, l'objectif est d'étendre les matières premières à tout un éventail de résidus de cultures.

Cette production "verte" d'hydrogène à partir de ressources renouvelables pourrait avoir un impact considérable tant sur le plan économique qu'écologique en apportant une solution élégante et rentable à la production et au stockage. L'éthanol peut en effet être transformé en H2 juste avant de passer dans la pile à combustible grâce à de petites installations domestiques. En outre, l'éthanol dégage trois fois plus d'énergie en étant utilisé comme source d'hydrogène que tel qu'il est utilisé actuellement dans les moteurs.

Il y a quelques mois, d'autres chercheurs de l'Université de Birmingham, en Grande-Bretagne, ont par ailleurs montré qu'une bactérie spécifique produit de l'hydrogène lorsqu'elle se nourrit de déchets sucrés. Le professeur Lynne Macaskie de l'Université de Birmingham estime d'ailleurs que le système pourrait être développé pour la production industrielle d'électricité et les procédés de traitements des déchets.

En France, plusieurs équipes de recherche, notamment au CNRS, travaillent sur des méthodes de production catalytique d'hydrogène par gazéification directe de la biomasse (déchets de bois, de paille, fane), dans un réacteur à lit fluidisé en présence de vapeur d'eau ou via des intermédiaires liquides de type bio-huiles de pyrolyse (co-processing).

Au niveau européen, le projet Hyvolution lancé en 2006 a pour objectif de produire de l'hydrogène à partir de la biomasse dans une usine expérimentale. L'hydrogène sera produit par des bactéries capables de digérer la matière organique. Cette installation-pilote sera développée à Wageningen (Pays-Bas), avec la contribution de 11 pays de l'UE. Ces différents projets sont très intéressants car ils montrent à quel point le vecteur hydrogène ne doit pas se concevoir comme une solution "fermée" mais n'a de sens qu'en association et en synergie avec l'ensemble des énergies renouvelables, qu'il s'agisse de l'éolien, du solaire ou de la biomasse.

Il faut également savoir que, demain, l'utilisation de la pile à combustible ne se limitera pas à nos véhicules, elle s'étendra également, comme l'ont bien compris les Japonais qui travaillent activement sur ce champ de recherche, au chauffage domestique et à la cogénération (production conjointe de chaleur et d'électricité). En France, Paris a inauguré le 21 novembre 2006 Cellia, la première pile à combustible destinée à la cogénération domestique. D'une puissance de 180 kW thermiques et 230 kW électriques, Cellia permet de couvrir, pour 283 logements de l'OPAC de Paris, près de 20 % des besoins des occupants en chauffage et eau chaude sanitaire.

Dans 20 ans, nos immeubles de bureaux et nos habitations seront conçus et réalisés comme de véritables systèmes énergétiques intégrant et combinant de manière optimale, grâce à l'informatique, l'ensemble des énergies renouvelables et propres, y compris l'hydrogène. Chaque immeuble produira alors de manière propre et décentralisée, la majeure partie, voire la totalité de l'énergie qu'il consomme.

Au niveau supérieur, les centrales énergétiques du futur combineront également l'hydrogène et les énergies renouvelables et cette synergie vertueuse permettra de réduire considérablement notre consommation d'énergies fossiles et de diminuer également très sensiblement nos émissions de gaz à effet de serre, responsables du réchauffement climatique. Mais pour parvenir à ce résultat en une génération, nous devrons à la fois accomplir un effort de recherche sans précédent et faire preuve d'une volonté politique sans faille.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Puces informatiques : IBM repousse les limites de la loi de Moore par une suite d'innovations majeures
Vendredi, 11/05/2007 - 00:00

Le festival d'innovations dans le domaine des puces informatiques se poursuit chez IBM qui vient d'annoncer avoir mis au point un procédé de fabrication de microprocesseurs qui permet d'augmenter la vitesse de ses puces de plus de 30 % tout en réduisant de 15 % leur consommation d'énergie, grâce à un polymère s'assemblant de manière similaire aux coquillages et aux flocons de neige.

IBM a déclaré que le nouveau procédé permettait d'utiliser le vide comme isolant des circuits imprimés d'une puce, au lieu du silicium auquel ont recours les industriels depuis des années et dont l'efficacité montre ses limites à mesure que la taille des processeurs se réduit.

Un isolant classique est en effet moins efficace s'il est moins épais, et le vide est alors bien plus efficace, expliquent les chercheurs : il permettrait à la puce de consommer 15 % d'énergie en moins, et de monter à des fréquences de fonctionnement 35 % plus élevées.

"C'est l'une des plus belles avancées que j'ai connues lors des dix dernières années", a déclaré John Kelly, vice-président de la division technologie et propriété intellectuelle d'IBM. "Le Saint Graal des isolants est le recours au vide et nous avons trouvé la clé qui y donne accès."

La technique consiste à envelopper une galette de silicium d'une couche d'un polymère spécial, qui une fois cuit, forme naturellement des milliers de milliards de petits trous uniformes d'à peine 20 nanomètres de diamètre, soit 20 millionièmes de millimètre.

Le maillage obtenu est utilisé pour répartir les circuits de cuivre à la surface de la puce et les intervalles d'isolation permettant une circulation du courant électrique fluide. Le procédé est semblable à celui observé dans la nature lors de la formation des flocons de neige, de l'émail des dents ou des coquillages, explique la firme d'Armonk, New York.

IBM prévoit d'utiliser le procédé pour ses puces en 2009, a ajouté Kelly. Des prototypes ont déjà été fabriqués à partir de dessins existants et la technique pourrait être employée plus tôt que prévu. La firme proposera des licences de la technologie de manière sélective à certains de ses partenaires, a-t-il précisé. IBM a des partenariats de recherche avec entre autres le n°2 mondial des microprocesseurs Advanced Micro Devices et le japonais Toshiba.

Depuis plusieurs mois, les chercheurs d'IBM accumulent les avancées technologiques qui mèneront à des puces encore plus petites, renversant les contraintes imposées par les lois de la physique à de si petites échelles. Récemment, IBM a trouvé un moyen d'empiler les composants d'une même puce les uns sur les autres, augmentant ainsi la vitesse de calcul tout en économisant de l'énergie du fait des distances plus courtes parcourues par le signal électrique.

IBM précise que ce système permet de placer les transistors composant la mémoire intégrée sur une couche superposée à celle composée par les transistors de la puce elle-même, ce qui réduirait, selon IBM, la dimension finale de la puce tout en augmentant la vitesse de transfert des données au sein même du processeur. Les distances de transfert pourraient en effet être réduites par un facteur 1000 alors que le nombre de connexions possibles serait multiplié par 100. La production massive et la commercialisation de ces puces "3D" sont prévues pour 2008.

En janvier, la société a annoncé avoir réduit de manière drastique les déperditions électriques dans les puces, résolvant ainsi un problème récurrent en micro-électronique. Ce progrès, qui faisait écho à une annonce similaire par Intel, a été salué comme l'une des plus grandes percées dans la technologie des transistors en quarante ans.

Article @RTFlash

IBM

IBM

IBM

La télévision par ADSL et la voix sur IP s'imposent dans les foyers
Vendredi, 11/05/2007 - 00:00

La France comptait, à la fin 2006, 2,6 millions d'abonnés à un service de télévision par ADSL. Ce chiffre a quasiment doublé (+97 %) par rapport au dernier trimestre 2005, indique le dernier observatoire des marchés de l'Arcep (Autorité de régulation des communications électroniques et des Postes).

Dans le mode de calcul de l'Arcep, les abonnements sont pris en compte, qu'ils soient souscrits directement auprès d'un bouquet TV (Canal +) ou auprès d'un fournisseur d'accès à Internet, dans le cadre d'un abonnement de type « multiplay » qui intègre l'accès à un ou plusieurs services en plus de la télévision (Internet, téléphonie sur IP). Cette envolée de la télévision par ADSL est une conséquence directe du déploiement du haut-débit qui, avec 12,7 millions d'accès, représente désormais 83 % du nombre total d'accès à Internet en France.

Autre phénomène remarquable, l'essor de la téléphonie sur IP, dont l'adoption massive par les internautes a contribué à endiguer (en volume tout du moins) la chute des communications téléphoniques fixes. Selon l'Arcep, les abonnements à la téléphonie sur IP ont ainsi été multipliés par deux en 2006, dépassant les 6,6 millions, alors que les abonnements classiques diminuaient de 4,7 % sur la même période. À la fin de l'année 2006, le volume des communications en VoIP représentait 23 % du trafic total (clientèle grand public et entreprises) au départ des lignes fixes contre 11 % fin 2005.

Cette croissance est imputée à l'engouement pour les offres double-play et triple-play. À l'image de Free, la plupart des fournisseurs d'accès internet proposent l'accès internet, couplé à des chaînes de télévision et/ou de la téléphonie illimitée.

Arcep

Club Internet inaugure l'enregistrement TV à distance via l'ordinateur
Vendredi, 11/05/2007 - 00:00

Club Internet a annoncé le lancement d'une fonctionnalité pour le moins intéressante qui confirme la convergence accélérée de l'informatique et de la télévision : l'enregistrement numérique à distance. Ce nouveau service permet tout simplement à un abonné de l'offre Club Internet3 de programmer ses enregistrements télé depuis le Web.

Tous les abonnés triple play peuvent consulter sur http://programmetv.club-internet.fr, le guide des programmes TV et à partir de ces données, programmer les enregistrements. Avantage immédiat, cette programmation peut se faire à distance, depuis n'importe quelle machine connectée au net. « Ce nouveau service regroupe l'ensemble de fonctionnalités présentes sur la télé de Club, telles que l'enregistrement des programmes de façon unitaire ou en série, la notification des enregistrements en cours, la classification par date et par titre des enregistrements ».

Le tout est garni de services d'alerte par mail, d'envoi d'info programme à un proche et d'un moteur de recherche par nuage de mots clés. Cette plate-forme en ligne prend en compte l'éventuel verrouillage parental fixé sur la TV box de l'abonné à l'offre tripleplay. Question interface, on retrouve sur le site, le même menu de l'enregistreur numérique. On peut depuis là consulter 14 jours de programmes à l'avance sur toutes les chaînes des bouquets Club et Premium TPS.

Club Internet

Des puces optiques 100 fois plus rapides pour exploiter les potentialités de la fibre optique jusqu'à l'abonné
Vendredi, 11/05/2007 - 00:00

Livebox, Freebox et autres modems ADSL s'apprêtent à vivre la révolution du très haut débit. Dans leur future version, les «box» des fournisseurs d'accès internet embarqueront des puces optiques leur permettant d'exploiter les débits apportés par le câblage optique jusqu'au domicile des utilisateurs. La fibre permet en effet de télécharger des contenus à des débits de l'ordre du Gbps (milliard de bits par seconde), soit environ 100 fois supérieurs à ceux des connexions ADSL actuelles.

Freescale, l'ancienne division semiconducteurs de l'américain Motorola, annonce son premier composant pour modems grand public, répondant à la norme des réseaux optiques passifs dite GPON (Gigabit Passive Optical Network). Cette puce autorise des débits de 2,5 Gbps dans le sens descendant (du réseau vers l'abonné) et de 1,2 Gbps dans le sens montant (de l'abonné vers le réseau). Pour le concevoir, il a fallu combiner nos savoir-faire dans le domaine du silicium, du logiciel et des systèmes », explique Frédéric Haine, le responsable des offres réseaux pour Freescale en Europe.

Le composant embarque ainsi des processeurs les plus puissants : la puce de traitement du signal StarCore (cadencée à 178 MHz) capable notamment de prendre en charge quatre appels simultanés en téléphonie sur IP ; ou encore le processeur PowerPC qui traite jusqu'à 500 millions d'instructions par seconde et donc des flux de données à très haut débit. Cette puce optique n'est pourtant qu'une étape sur le chemin du très haut débit.

Le japonais Mitsubishi Electric - qui a déjà livré trois millions de lignes optiques à l'opérateur japonais NTT - veut pousser plus loin les performances de la technologie PON. «Nos équipes travaillent sur une version à 10 Gbps», annonce Jean-Pierre Coudreuse, le directeur du laboratoire de recherche européen en télécommunications de Mitsubishi Electric.

Mais le futur promet encore bien plus. Les chercheurs d'IBM ont dévoilé fin mars un prototype de puce optique fonctionnant à 160 Gbps en émission comme en réception. De quoi télécharger instantanément un long-métrage ! Cette puce est gravée en technologie CMOS, qui permet une finesse de gravure de 0,13 micron (130 nanomètres). Elle sera commercialisée en 2010 et permettra enfin à l'Internet par très haut débit optique de délivrer toute sa puissance.

UN

Des scientifiques coréens ont fabriqué des composants électroniques de 8 nanomètres
Vendredi, 11/05/2007 - 00:00

Des scientifiques coréens ont développé la première puce mémoire vive non volatile de 8 nanomètres. Ce prototype pourra normalement être développé de manière industrielle dans la fabrication de circuits de semi-conducteurs de prochaine génération. Cela permettra notamment la fabrication de puces mémoires de type NAND pouvant contenir quelque 500 000 chansons au format MP3 ou enregistrer 1 250 DVD ou encore 1 million de photos de très haute résolution sur un espace équivalent a celui d'un doigt.

L'équipe, dirigée par le professeur CHOI Yang-kyu du Korea Advanced Institute of Science and Technology (KAIST), rendra publique les détails de sa réalisation au prochain symposium international sur les technologies d'integration à large échelle (Very Large Scale Integration Technology Symposium) qui aura lieu à Kyoto au Japon à partir du 12 juin 2007. Le Ministère de la Science et de la Technologie coréen a en outre indiqué que des efforts étaient actuellement en cours pour assurer le transfert de cette technologie au domaine des applications civiles, et ce, afin de permettre le développement de différentes gammes de produits.

BE

Japon : une puce RFID de la taille d'un grain de poudre !
Vendredi, 11/05/2007 - 00:00

Hitachi vient de présenter sa nouvelle technologie RFID qui bat tous les records de miniaturisation avec ses 0,05 x 0,05 mm2 pour 0,005 mm d'épaisseur. Le précédent record était déjà détenu par Hitachi avec la « mu-chip » de 0,4 x 0,4 mm2. La nouvelle puce est 64 fois plus petite que la mu-chip et un peu plus petite que le diamètre d'un cheveu humain.

Tout comme son aînée, la mémoire est de 128 bits ce qui permet d'obtenir une identification par un nombre à 38 chiffres. Rien n'a été communiqué cependant sur la distance de lecture mais on peut supposer que les 25 cm de la mu-chip ont été conservés ou approchés. Pour obtenir cette puce de la taille d'un grain de poudre, une nouvelle miniaturisation des semi-conducteurs a été faite et la puce est gravée par des faisceaux d'électrons. En sus des applications classiques RFID, la discrétion de cette puce laisse présager de nouvelles applications (marché fiduciaire). Hitachi prévoit une commercialisation d'ici deux à trois ans.

Adit

^ Haut
Avenir
Nanotechnologies et Robotique
Un nouveau robot intelligent de surveillance taiwanais
Vendredi, 11/05/2007 - 00:00

L'ITR a développé un nouveau robot intelligent de surveillance dénommé SEQ-1. Par rapport à des robots similaires développés dans d'autres pays, SeQ-1 possède un système opératoire lui permettant de réagir immédiatement avec les systèmes de contrôle de sécurité. Grâce à une vision sur 360°, SeQ-1 est capable de détecter tous les cas d'urgences tels que des intrus, de la fumée ou des débuts d'incendie. Le robot localise immédiatement de tels problèmes, émet une alerte et envoie des images en direct au centre de contrôle. Il est aussi possible d'établir des plans de patrouille dans la base de données du robot, lui permettant alors d'effectuer des rondes automatiques tout en évitant les collisions.

SeQ-1 a été conçu pour servir les besoins de surveillance des centres de contrôle. Ce robot peut aussi être équipé de fonctions multimédias interactives lui permettant d'offrir les services d'un guide ou d'un réceptionniste via un écran tactile et des micros.

BE

Médecine : les nanotechnologies confirment leur potentiel thérapeutique
Vendredi, 11/05/2007 - 00:00

Les nanotechnologies ouvrent une voie prometteuse pour les traitements de la moelle épinière et pourraient éventuellement renverser le processus de paralysie, selon le rapport d'un chercheur américain. Selon ce rapport, les nanotechnologies, qui consistent dans l'assemblage contrôlé d'atomes et de molécules, pourraient également soigner d'autres maladies réputées incurables en réparant des organes ou des tissus endommagés.

Samuel Stupp, chercheur à Northwestern University (Illinois), a montré, lors d'une présentation, des souris paralysées qui ont regagné l'usage de leurs membres six semaines après avoir reçu une injection d'une solution destinée à régénérer des cellules de la moelle épinière endommagées au moyen de la nanotechnologie. La solution contient des molécules destinées à recréer des tissus qui normalement ne peuvent guérir ou se régénérer naturellement comme les os ou les nerfs, a indiqué M. Stupp. «En injectant des molécules destinées à s'assembler en nanostructures dans les tissus médullaires, nous avons été capables de sauver et de refaire pousser rapidement des neurones endommagés», a-t-il dit, après avoir montré une vidéo des souris avant et après le traitement. «Nous sommes très excités parce que cela nous permet d'entrer dans le domaine des maladies neuro-dégénératives», a-t-il ajouté.

Samuel Stupp a révélé que les traitements utilisés jusqu'à présent n'ont pas utilisé de cellules souches, mais que celles-ci pourraient accroître le potentiel de la nanotechnologie. Le scientifique a indiqué que l'essentiel de la recherche pour les traitements de la moelle épinière avait été publié dans la revue Science et les résultats les plus récents sur l'inversion de la paralysie doivent être publiés prochainement. Des traitement cliniques expérimentaux de moelles épinières sur des humains pourraient débuter «dans quelques années» a-t-il dit. D'autres expériences montrent des souris présentant des signes de guérison des symptômes de la maladie de Parkinson après avoir été exposées aux nanostructures développées dans le laboratoire de M. Stupp.

«Cette recherche nous donne un aperçu initial des développements passionnants auxquels peut mener la nanotechnologie « dit David Rejeski, directeur de Project on Emerging Nanotechnologies. Samuel Stupp précise que les utilisations de traitements à l'aide de nanotechnologies présentent peu de dangers d'effets secondaires et pourraient également préfigurer l'utilisation de nanotechnologies pour cibler des cellules cancéreuses sans certains des effets nocifs de la chimiothérapie. L'agence fédérale américaine de l'environnement (EPA) indique de son côté que l'étude des nanotechnologies et leur efficacité représente «une des premières priorités de la recherche» par le gouvernement américain. Celui-ci dépense environ un milliard de dollars par an dans la recherche sur la nanotechnologie et l'Institut National du Cancer consacre 144 millions de dollars sur 5 ans pour étudier comment la nanotechnologie peut détecter, contrôler et traiter le cancer.

Cyberpresse

^ Haut
Matière
Matière et Energie
Le Danemark mise sur les vents de la mer
Vendredi, 11/05/2007 - 00:00

Au large du port d'Esbjerg, à l'ouest du Jutland, narguant au loin une centrale au charbon, Horns Rev, un parc de 80 turbines, le plus grand du monde, doté d'une capacité de 160 mégawatts, est la dernière attraction énergétique danoise. Construit entre 14 et 20 km des côtes, Horns Rev, avec ses éoliennes de 250 tonnes plantées dans la mer, permet de subvenir aux besoins annuels en électricité de 150.000 foyers. Il est le dernier des onze parcs en mer du Danemark établis depuis 1991. L'énergie provenant des turbines en mer représente 398 mégawatts, soit près de 13 % des 3.101 mégawatts produits par les éoliennes pays fin 2006.

Précurseur d'une politique éolienne du futur tournée de plus en plus vers la mer, ce parc modèle devrait être dédoublé avec Horns Rev 2 et suivi par 22 autres dans les eaux territoriales du royaume. Le gouvernement danois a présenté en janvier un plan dont l'objectif est de doubler la part des énergies renouvelables d'ici à 2025, massivement tirée du vent, pour la porter à au moins 30 % de l'énergie consommée au Danemark. "Nous visons à rendre le Danemark indépendant du pétrole, du gaz et du charbon à long terme (...) et conforter sa position de leader dans le monde de l'énergie verte", affirmait le Premier ministre Anders Fogh Rasmussen.

Le Danemark, qui est l'un des grands émetteurs de CO2 (principal gaz à effet de serre) par habitant et qui accueillera en 2009 le sommet mondial du climat, veut ainsi montrer la voie dans la lutte contre le réchauffement climatique.

Déjà, les quelque 5.200 éoliennes du pays, en majorité installées à terre, fournissent 20 % des besoins en électricité, chiffre qui devrait être porté à 50 %, voire 75 % en 2025, selon une étude d'experts d'une commission gouvernementale.

Pour le ministre de l'Energie, Flemming Hansen, "l'avenir appartient aux éoliennes offshore, et nous devons miser fortement là-dessus même si elles sont plus chères, pour tenir compte de la population qui souhaite les voir en mer". Car à terre, dans ce pays de 43.000 km2, il y a de moins en moins de place pour les éoliennes, qui rencontrent une certaine résistance d'une frange de la population et des défenseurs de la nature. C'est pourquoi la ministre de l'Environnement Connie Hedegaard est favorable "à faire le ménage dans les 5.000 éoliennes", dont un certain nombre anciennes ont un faible rendement, pour "les remplacer par quelque 1.500 turbines plus performantes", s'élevant jusqu'à 150 mètres de haut.

La majorité des Danois y seraient favorables et se disent prêts à payer plus cher l'électricité selon un dernier sondage. "L'énergie offshore a un avenir notamment dans les pays densément peuplés. Elle est certes plus coûteuse, de 50 à 100 % plus cher, mais plus performante car le vent est plus fort et les turbines plus puissantes et elle dérange moins les populations" commente Birger T. Madsen, de BTM Consult, spécialisée dans les énergies renouvelables.

AOL

Des vitres qui captent l'énergie solaire le jour pour la restituer en lumière la nuit !
Vendredi, 11/05/2007 - 00:00

Pour faire des économies d'énergie, si on s'attaquait d'abord aux ampoules ? C'est ainsi qu'est né ce concept et aujourd'hui un véritable produit innovant. Shimizu corp. et Sharp ont développé une vitre qui accumule l'énergie solaire de la lumière et la transforme en électricité. C'est une simple vitre transparente en apparence, qui est pourtant capable de restituer jusqu'à 4,6 heures de lumière la nuit, grâce à l'énergie accumulée le jour. Génial quand on sait que rien qu'aux Etats-Unis, l'éclairage représente plus de 1000 terawattheures pas an (soit plus que la consommation électrique française totale).

La vitre, qui mesure 60 x 100 x 1,6 cm, est transparente. Elle contient un film de silicium de 2 microns d'épaisseur sur toute sa surface, ainsi que 320 LED (diodes électroluminescentes) qui émettent de la lumière de couleur blanche/bleutée. Cette vitre étant capable de convertir 7 % de l'énergie solaire en électricité (ce qui correspond au rendement classique des cellules photovoltaïques au silicium), elle peut restituer de la lumière pendant environ 4,6 heures chaque nuit. La nouvelle technique de fabrication est déjà au point, qui permet "d'imprimer" la couche de polymère liquide sur n'importe quelle surface, un peu comme une imprimante à jet d'encre. 80 vitres de ce type vont être installées dans un complexe de bureaux actuellement en construction à Matsudo, dans la préfecture de Chiba.

Batiweb

Un nouveau type d'éolienne à axe vertical pourrait s'intégrer en milieu urbain
Vendredi, 11/05/2007 - 00:00

Une société française, GUAL Industrie, a inventé une éolienne à axe vertical appelé « StatoEolien ». Ses caractéristiques lui permettent d'utiliser à la fois les effets de traînée et de portance. Ces longues années de Recherche ont été suivies de près par un Laboratoire du CNRS de Marseille. Elle est capable de résister à des vents dépassant les 40 m/s. Il n'y a aucune nuisance sonore grâce à son Stator qui canalise le vent et qui entoure le Rotor, diminuant ainsi totalement les bruits. GUAL Industrie propose une gamme de 4 et 8 mètres de diamètre en fonction des besoins énergétiques.

A titre d'exemple, un StatoEolien GSE 8 (8 mètres de diamètre) installé sur une structure existante représente un coût inférieur à 45 000 ? HT pour une puissance de 6 kW à 15 m/s et de 35 kW à 40 m/s. Elle va exploiter les vents tourbillonnants sur les toits et les changements brutaux de direction, ce que ne peut pas faire une éolienne classique. Ce qui lui donne un rendement supérieur à une éolienne à axe horizontal de même surface.

La vitesse minimale de démarrage de la production d'électricité du StatoEolien est de 7 km/h de vent, contre 15 km/h pour les éoliennes à hélices. - Alors que les éoliennes classiques sont limitées en puissance à partir de 50 km/h et qu'elles cessent de fonctionner dès 90 km/h, le StatoEolien peut fonctionner avec des vents supérieurs à 150 km/h. - Le StatoEolien permet d'exploiter les vents de toutes directions grâce à sa conception axisymétrique. Il en résulte une production d'électricité 30 % supérieure à celle des éoliennes à axe horizontal.

Le StatoEolien fonctionne en couple et non en vitesse de rotation, ce qui se traduit par une réduction de la vitesse linéaire des aubes rotor. Alors que la vitesse en bout de pales des éoliennes à hélices peut facilement atteindre 400 km/h, les aubes du StatoEolien ne dépassent pas 85 km/h, ce qui élimine les vibrations et réduit considérablement les efforts centrifuges. Par ailleurs, de faibles vitesses de rotation offrent un niveau de sécurité amélioré (réduction du temps d'arrêt d'urgence).

Gual Industries

Les cellules solaires sans silicium arrivent au Japon
Vendredi, 11/05/2007 - 00:00

Showa Shell Sekiyu KK va commercialiser à partir de mai des cellules pour panneaux solaires à base de CIS. Le CIS (de l'anglais Copper Indium di-Selenide) est un semi-conducteur capable de se substituer au silicium des cellules photovoltaïques habituelles tout en étant beaucoup plus simple à fabriquer. Leur rendement de 10 % est légèrement inférieur à celui des cellules en silicium poly-cristallin et le prix de vente des panneaux solaires avoisinera celui des panneaux poly-cristallins.

L'usine de production de Miyazaki, sur l'île de Kyushu, est chargée de produire l'équivalent en énergie solaire CIS de 20 MW par an. L'énergie nécessaire à leur fabrication est inférieure à celle des cellules poly-cristallines. Avec l'expansion du marché des cellules photovoltaïques, la technologie poly-cristalline souffre de problèmes d'approvisionnements insuffisants en silicium.

A partir de mai 2007, Showa Shell a prévu de commercialiser au Japon les panneaux solaires CIS sous forme de modules fixables sur des toits existants puis plus tard en tant que matériau pour toiture. Le produit sera également bientôt vendu en Allemagne et dans les autres pays d'Europe.

D'autres alternatives existent pour remplacer les cellules solaires en silicium et les Japonais y voient un grand intérêt car le plan d'aide au développement de l'énergie solaire du gouvernement est arrivé à terme. Sharp Corp. va ainsi commencer à produire en masse des cellules qui utilisent 100 fois moins de silicium poly-cristallin que d'habitude et Fuji Electric a commencé, depuis décembre dernier, à produire des cellules photovoltaïques en silicium amorphe.

Enerzine

Au Japon, les piles à combustible arrivent dans les maisons
Vendredi, 11/05/2007 - 00:00

La résidence officielle du Premier ministre japonais à Tokyo est la première maison du monde à avoir été équipée d'un système de génération d'électricité par pile à combustible, en avril 2005. Depuis, cet exemple a fait des émules au Japon, pays dépendant de l'étranger pour son énergie, soucieux des émissions de gaz à effet de serre, et qui s'efforce de diversifier ses sources d'approvisionnement au profit des énergies renouvelables et peu polluantes.

On compte aujourd'hui environ 1.260 foyers équipés d'un système basé sur une batterie à combustible dans le cadre d'une expérimentation à grande échelle soutenue par les pouvoirs publics. Mille de plus doivent l'être d'ici à fin mars 2008. Le marché après 2010 est estimé par le gouvernement à 550.000 unités par an. L'Archipel compte au total environ 47 millions de foyers, dont 26 millions de maisons individuelles. Les groupes énergétiques Nippon Oil, Tokyo Gas ou Cosmo, associés aux fabricants de batteries et d'équipements complémentaires comme Sanyo, Toshiba, Matsushita ou le constructeur automobile Toyota, proposent déjà des systèmes domestiques éprouvés.

Les batteries à combustible ne produisent pas de gaz nocif mais uniquement de l'électricité, de la chaleur et de l'eau. Comme les systèmes solaires et éoliens, beaucoup les considèrent comme une source d'énergie parée de toutes les vertus. Outre le fait que l'hydrogène existe en abondance, le recours à de telles piles permet de réduire les rejets de gaz à effet de serre. D'autres qualités sont plus immédiatement perceptibles par les utilisateurs : "Comme l'énergie est générée sur place, la chaleur et l'eau produites simultanément servent directement pour alimenter le circuit d'eau chaude courante de la maison", explique une porte-parole de la Fondation japonaise des nouvelles énergies.

En outre, l'utilisateur est informé chaque jour des quantités d'énergie et d'eau produites et consommées : "On a l'impression de contribuer concrètement à la réduction de la consommation d'énergie", témoigne un particulier dans une lettre à la Fondation. Reste un problème de taille : le coût actuel d'achat et d'installation du système, estimé à 9 millions de yens (58.000 euros).

L'objectif est de faire chuter le coût à un million de yens (7.750 euros) d'ici à la fin de la décennie, afin de faire réellement décoller le marché, puis à 500.000 yens (3.250 euros) en 2015, précise M. Mohri.

LME

^ Haut
Espace
Espace et Cosmologie
La NASA commence à réfléchir aux implications de longues missions vers Mars
Vendredi, 11/05/2007 - 00:00

Que faire du corps d'un astronaute décédé pendant une mission d'exploration de Mars ? La NASA, qui prépare l'envoi d'ici 2050 d'humains sur la planète rouge, commence à réfléchir aux implications de missions appelées à durer trois ans. Ces réflexions sont menées par des médecins et des scientifiques de l'agence spatiale américaine, en collaboration avec des intervenants extérieurs dont des spécialistes de bioéthique. Elles sont consignées dans un document sur la santé des équipages, dans le cadre de la loi sur la liberté d'information.

"Comme vous pouvez imaginer, ce ne sont pas des choses dont les gens parlent aisément", convient le Docteur Richard Williams, chef du service médical de la NASA. "Nous essayons de définir un cadre éthique" à destination des commandants et responsables de missions, qui seront tôt ou tard confrontés à ce type de "décisions difficiles". Le document de la NASA ne mentionne pas la question des rapports sexuels dans l'espace. Il ne s'agit pas d'un problème de santé des équipages, mais plutôt de questions comportementales qui seront étudiées par d'autres responsables de l'agence, selon le Docteur Williams. Les scientifiques se sont d'ores et déjà penchés sur certains aspects liés à la santé, comme les doses maximales de radiations admissibles ou le nombre d'heures de travail hebdomadaire de l'équipage, pas plus de 48.

D'autres questions, en revanche, restent à résoudre : que faire du cadavre d'un astronaute décédé à bord ? Le garder dans une chambre froide, l'inhumer sur Terre, sur Mars, le larguer dans le vide sidéral ? Faut-il sauver à tout prix un astronaute dans un état critique et consommer de l'oxygène au risque de mettre en danger le reste de l'équipage ?

"Le moment viendra sans doute où il faudra mettre en balance un risque important de décès et le succès de la mission", prévient Paul Root Wolpe, spécialiste de bioéthique à l'Université de Pennsylvanie et consultant de la NASA depuis 2001. "L'idée selon laquelle nous choisirons toujours le bien-être de la personne au détriment du succès de la mission sonne bien. Mais elle ne reflétera pas forcément la façon dont les décisions seront prises en réalité".

Aujourd'hui, un astronaute ou un cosmonaute gravement malade ou blessé à bord de la Station spatiale internationale -ce qui ne s'est jamais produit- peut quitter l'ISS en urgence. Un vaisseau Soyouz de secours est en effet amarré en permanence à la station en orbite à environ 350km au-dessus de la Terre.

Ce qui sera impossible lors d'un voyage vers Mars, qui prendra environ trois ans entre l'aller, le séjour sur place et le retour. De plus, les astronautes ne pourront pas compter, dans les situations d'urgence vitale, sur l'aide du Centre de contrôle au sol : les communications radio avec Houston mettront près de 30 minutes à parvenir à l'équipage, en raison de la distance.

Les risques du voyage spatial sont notamment l'exposition aux radiations, la perte musculaire et osseuse, les problèmes psychologiques dus à l'isolement et aux éventuelles tensions au sein de l'équipage. La NASA devra déterminer si les astronautes devront subir des opérations préventives, dont l'ablation de l'appendice, et... rédiger leur testament avant de partir en mission.

La NASA, à ce jour, n'a jamais annulé de mission en raison de problèmes médicaux, contrairement à l'Union soviétique confrontée à trois reprises à ce type d'incidents. Les trois accidents qui ont endeuillé le programme spatial américain (Apollo 1, Challenger et Columbia), faisant 17 morts au total, avaient tous pour origine une défaillance technique.

AP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La lutte contre le réchauffement climatique passe par un changement de nos modes de vie
Vendredi, 11/05/2007 - 00:00

Les délégués à la réunion du GIEC à Bangkok ont approuvé le 4 mai un rapport qui propose des moyens d'atténuer le réchauffement de la planète et préconise toute une série de mesures contre les gaz à effet de serre, pour éviter une hausse désastreuse des températures. Ce "résumé pour les décideurs politiques", synthèse d'une étude d'un millier de pages du Groupe d'experts international sur le climat (GIEC), souligne que le monde a les moyens technologiques et financiers d'agir à temps pour limiter l'impact du réchauffement. Il s'agit de réduire les gaz à effet de serre (GES) grâce à un éventail de mesures : économies d'énergie dans les transports et le bâtiment, passer des énergies fossiles aux énergies renouvelables ou encore réformer l'agriculture.

Selon le rapport, il faudrait stabiliser la concentration des GES dans l'atmosphère à 445 parties par million d'ici 2015 afin de limiter la hausse de la température du globe à 2,4°C en 2050. Mais cet effort ne coûtera qu'une petite fraction du PIB mondial, selon le rapport approuvé des experts réunis sous l'égide de l'Onu. Dans ce troisième rapport, intitulé « Atténuation des changements climatiques », le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) estime que le coût d'une limitation à 2°C de la hausse des températures ne dépasserait pas 0,12 % du PIB mondial. "C'est un prix peu élevé pour réduire le risque d'une dégradation climatique majeure", a déclaré Hare, conseiller de Greenpeace et coauteur du rapport.

Ce rapport sur l'atténuation du changement climatique vient compléter les deux rapports du GIEC, dont le premier portait sur l'évaluation scientifique du phénomène, et le second décrivait son impact sur les pays et les écosystèmes.

Dans le volet scientifique de son rapport, publié en février à Paris, le Giec a estimé la hausse probable des températures mondiales de 1,8 à 4°C en 2100 par rapport à 1990, sans exclure une hausse allant jusqu'à 6,4°C.

Le deuxième volet, sur les impacts, publié en avril à Bruxelles, a pointé les graves conséquences du réchauffement pour la planète, avec notamment une extinction irréversible de 20 à 30 % des espèces végétales et animales. Les nouvelles contenues dans les deux premiers messages n'étaient "pas bonnes", convient Ogunlade Davidson, coprésident du troisième groupe de travail du Giec mais il ajoute que "des solutions sont possibles (pour lutter contre le changement climatique) et vous pouvez le faire à un coût raisonnable".

Pour tenir l'objectif de deux degrés, les spécialistes jugent nécessaire une réduction de 50 à 85 % des émissions de dioxyde de carbone (CO2) d'ici à 2050, dit le rapport. Cependant, les progrès technologiques - en particulier ceux qui permettront de produire et de consommer l'énergie plus rationnellement - font penser que des objectifs de cet ordre sont réalisables, notent ses auteurs.

Le document met en évidence le rôle des énergies nucléaire, solaire et éolienne, de bâtiments et de modes d'éclairage plus économiques, ainsi que les moyens de filtrer le dioxyde de carbone rejeté par les centrales à charbon, les plates-formes pétrolières et gazières.

« L'un des secteurs clefs dans la réduction de ces effets est celui de la fourniture d'énergie », a souligné Yvo de Boer, rappelant que plus des deux tiers des émissions en la matière proviennent de ce secteur. « La façon dont on répondra aux besoins en énergie dans l'avenir déterminera si les efforts contre le changement climatique restent maîtrisables », a-t-il ajouté.

Selon l'Agence internationale de l'énergie atomique (AIEA), la demande en énergie va augmenter de 60 % en 2030. Avant cette date, les infrastructures de fourniture d'énergie dans le monde nécessiteront un investissement total de 20 milliards de dollars, dont la moitié environ dans les pays en développement.

Ce sommet du GIEC a donné l'occasion à un débat très vif entre partisans et adversaires de l'énergie nucléaire. L'énergie nucléaire présente l'avantage par rapport aux énergies fossiles - pétrole, gaz, charbon - de ne pas émettre de gaz à effet de serre dans l'atmosphère et de ne pas contribuer au réchauffement.

"Nous avons eu une très longue discussion sur le nucléaire. Il y a des pays qui y sont farouchement opposés et cela ne leur plaît pas trop qu'on dise que le nucléaire est une des options pour lutter contre le changement climatique", a indiqué Renaud Crassous qui fait partie de la délégation française à Bangkok. "Jusqu'alors, ils ont eu tendance aussi bien au Giec que (dans les négociations sur le protocole de Kyoto) à évacuer la question du nucléaire, mais ils ne pourront pas le faire éternellement", estime Malcolm Grimston, un expert nucléaire de l'observatoire Chatham House basé à Londres.

Pour Stephan Singer, responsable climat et énergie du Fonds mondial pour la nature (WWF) pour l'Europe et qui participe à la réunion de Bangkok, le nucléaire ne peut constituer une alternative durable et efficace aux énergies fossiles. Greenpeace affirme également son opposition au nucléaire mais les frontières entre courants pro et anti-nucléaire ont tendance à devenir poreuses. Un certain nombre de figures historiques de l'écologie, parmi lesquels Patrick Moore, cofondateur de Greenpeace, et James Lovelock, figure de proue des défenseurs de l'environnement, se déclarent ouvertement favorables au nucléaire.

De son côté, le Secrétaire général des Nations Unies, Ban Ki-moon, a appelé toutes les parties à la Convention-cadre des Nations Unies sur les changements climatiques à oeuvrer avec la volonté politique nécessaire pour enrayer, de façon décisive, l'évolution du climat et ses conséquences sur notre planète et ses populations. Saluant la parution du troisième rapport du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), Ban Ki-moon a fait part dans une déclaration de sa préoccupation concernant les conclusions selon lesquelles les émissions de gaz à effet de serre ont augmenté de 70 % depuis 1970.

«Même avec les mesures d'atténuation prises actuellement et les initiatives de développement durable, les émissions annuelles de gaz à effet de serre devraient croître de 25 à 90 % en 2030 par rapport à 2000 », a rappelé Ban Ki-moon. « Les auteurs du rapport du GIEC confirment que les options de réduction, y compris des changements de mode de vie et de consommation, sont valables dans tous les secteurs, mais qu'une action renforcée de la part des gouvernements et du secteur privé est urgente », a-t-il poursuivi.

C'est la première fois que les experts du GIEC évoquent expressément les changements de mode de vie comme moyens de lutte contre le réchauffement planétaire. "Les changements de modes de vie et de comportements peuvent contribuer à la réduction des émissions (de gaz à effet de serre) dans tous les secteurs", indique le "résumé à l'intention des décideurs" politiques, approuvé par quelque 400 délégués mandatés par environ 120 pays auprès du Giec.

Selon ce rapport du GIEC, chaque individu a un rôle important à jouer pour lutter contre le réchauffement climatique qui n'est pas seulement l'affaire des gouvernements et des industriels, ont assuré des spécialistes mondiaux du climat vendredi à Bangkok. Prendre le train pour aller au travail au lieu de sa voiture, réguler la température d'un bureau ou d'une maison climatisée, manger moins de viande sont quelques unes des options à prendre en compte pour participer à l'effort mondial contre le réchauffement.

Trois hauts responsables du Giec ont souligné, lors de la présentation du document devant la presse, que changer de mode de vie ne signifiait pas que les populations des pays riches ou pauvres allaient devoir faire des sacrifices. "Ce n'est pas une question de sacrifice. C'est une question de changement. On peut faire du développement d'une façon bien plus durable que ce que nous avons fait jusqu'alors", a souligné Ogunlade Davidson, co-président d'un groupe de travail du Giec. "Vous pouvez avoir un style de vie qui émette peu de gaz à effet de serre, tout en continuant à profiter d'une bonne situation économique", a-t-il estimé.

Le président du Giec, Rajendra Pachauri, a également évoqué le régime végétarien comme moyen de lutte contre le réchauffement climatique, tout en soulignant qu'il s'agissait d'un avis personnel et non pas d'une position officielle du Giec. "Si les gens mangeaient moins de viande, ils seraient peut-être en meilleure santé. Et, en même temps, ils contribueraient à réduire les émissions générées par l'élevage des bovins", a-t-il fait remarquer. Selon Jean-Marc Jancovici, consultant français indépendant spécialisé dans les questions énergétiques, un kilo de boeuf, une fois arrivé dans l'assiette, correspond à 3,7 kilos de dioxyde de carbone.

Article @RTFlash

GIEC

Les chaleurs record en avril en France confirment le réchauffement climatique
Vendredi, 11/05/2007 - 00:00

Météo France vient d'annoncer qu'avec une anomalie de température de + 4,3°C en moyenne, le mois d'avril 2007 a été le plus chaud en France depuis au moins 1950. "Cette anomalie est d'une ampleur exceptionnelle", précise l'organisme selon lequel ces températures record concernent l'ensemble de l'Hexagone.

Dans le Sud, elles ont été supérieures aux normales saisonnières de +3,0°C à +4,0°C, dans le Centre, le Nord et l'Est du pays, de +5,0°C à +6,0°C. Les températures ont été particulièrement élevées du 12 au 17 puis du 22 au 30 avril et au cours de ces deux épisodes, elles ont localement dépassé les normales de plus de dix degrés. De nombreux records mensuels ont été battus comme à Rouen (24,5°C le 28), à Nice (25,5°C le 16) ou encore à Lille (27,9°C le 15). "Avril 2007 se situe en France métropolitaine au premier rang des mois d'avril les plus chauds de la période 1950-2007, loin devant le mois d'avril 1961 (+2,7 °C) et ceux de 1987 et 1952 (+1,9°C)", précise Météo France.

Un tel écart de température n'a été observé sur la France qu'à trois reprises depuis 1950 - en juin 2003 (+4,7°C), en août 2003 et février 1990 (+4,5°C). Les autorités craignent un impact sur l'agriculture d'autant que le manque d'eau, après un mois de mars pluvieux, commence à se faire sentir dans certaines régions qui pratiquent l'irrigation.

MF

Gaz à effet de serre : la végétation émettrait peu de méthane
Vendredi, 11/05/2007 - 00:00

En 2006, la revue Nature publiait une étude surprenante : une équipe de l'Institut Max-Planck d'Heidelberg (Allemagne) venait de constater que les plantes émettaient de grandes quantités de méthane (CH4), un gaz à effet de serre dont le pouvoir de réchauffement de l'atmosphère est vingt fois plus puissant que celui du CO2. Cela chamboulait la répartition des sources de carbone adoptée par les experts, qui considéraient jusqu'alors le méthane comme un sous-produit de l'activité microbienne en l'absence d'oxygène, et remettait en cause la stratégie de reforestation envisagée pour lutter contre le réchauffement climatique.

Mais une nouvelle étude vient de remettre complètement en cause les conclusions de l'Institut Max Plack. Tom Dueck (Plant Research International, Wageningen) et ses collègues ont en effet reproduit l'expérience présentée dans la revue Nature et abouti à des conclusions totalement opposées. "Nos données indiquent que la contribution des plantes terrestres aux émissions globales de méthane est au mieux très faible", concluent-ils.

Tom Dueck a testé l'activité biologique de six plantes - dont le maïs, le basilic, la sauge et le blé - après les avoir fait pousser dans un environnement enrichi en carbone radioactif (13C). Ce marqueur lui a ensuite permis de distinguer le méthane naturellement présent dans l'atmosphère de celui, marqué au 13C, que la plante était censée émettre. Or "la teneur de celui-ci n'était pas statistiquement différente de zéro", conclut-t-il.

Pour Philippe Bousquet, du Laboratoire des sciences du climat et de l'environnement (LSCE), ces nouveaux résultats sont d'autant plus intéressants que "Dueck a travaillé dans des conditions plus proches des conditions réelles que Keppler", avec des chambres de mesure plus grandes et des conditions mieux contrôlées. Il note que plusieurs articles récents évaluant les sources de méthane avaient déjà révisé à la baisse la contribution de la végétation, par rapport aux évaluations de Keppler.

NP

Pays en voie de développement : des usines à rosée pour produire de l'eau potable !
Vendredi, 11/05/2007 - 00:00

La première « usine à rosée » est en construction sur la côte aride du Gujarat (nord-ouest de l'Inde). Déjà 850 m2 au sol condensent la rosée sur ce terril d'une mine à ciel ouvert, remodelé sous forme de grandes rigoles. A terme, ce condenseur géant s'étendra sur 12.000 m2. A première vue, le principe est simple : des tranchées, recouvertes d'un isolant thermique puis d'un film spécial, recueillent la rosée, acheminée vers un réservoir. Filtrée et désinfectée, l'eau est mise en bouteille. Une manne inespérée pour des communautés qui manquent cruellement d'eau.

« L'idée m'est venue en observant de la buée un matin dans ma voiture, raconte simplement Daniel Beysens, initiateur de ce projet et directeur de l'Eseme (Equipe du supercritique pour l'environnement, les matériaux et l'espace), un laboratoire commun CEA-ESPCI-CNRS.

La façon dont les gouttes se formaient, fusionnaient, comment le halo de lumière que j'observais changeait quand je soufflais dessus ! » De la buée à la rosée, il n'y a qu'un pas que ce spécialiste des transitions de phase a vite franchi. Il s'est intéressé au « point de rosée », ce point qu'atteint l'air quand son humidité relative dépasse 100 %. La vapeur d'eau se condense alors. La nuit, il suffit souvent de refroidir une surface de quelques degrés seulement. « Nous avons donc cherché comment réaliser des revêtements qui se refroidissent naturellement, explique-t-il. La clef est venue du refroidissement radiatif, le refroidissement naturel de tout objet lorsqu'il émet des radiations infrarouges. »

L'équipe a ainsi mis au point des revêtements à forte émission infrarouge, incorporables dans des films plastiques (polyéthylène) et récemment dans des peintures. Ils contiennent des microbilles d'oxyde de titane ou de sulfate de baryum, mais aussi un savon alimentaire insoluble pour que les gouttes glissent bien sur la surface. En recouvrant ainsi sols ou toitures, la température du condenseur est abaissée de 4 à 10°C : le point de rosée est atteint dès le coucher du soleil et le rendement de condensation nettement accru, jusqu'à 0,7 litre par mètre carré en une nuit.

Le projet indien, qui devrait à terme permettre de récupérer entre 1.200 et 6.000 litres d'eau potable selon les nuits, est le plus abouti. Il est mené par Girja Sharan, de l'Indian Institute of Management, en partenariat avec l'Opur (Organisation pour l'utilisation de la rosée), association créée en 1999 par l'infatigable Daniel Beysens. Un autre projet de 600 m2 est en construction 40 km plus loin. L'Opur coordonne toutes ces expérimentations, dans le monde entier.

Combien coûte cette feuille radiative si prometteuse ? « En Europe, autour de 2 euros le mètre carré, promet Daniel Beysens. Les peintures seront un peu plus chères, mais beaucoup plus faciles à mettre en oeuvre. » En Inde, en raison du coût réduit de la main-d'oeuvre, les feuilles reviennent déjà à 0,4 euro par mètre carré. Une autre usine à rosée du même type est expérimentée en Israel. Ce système couplé à des capteurs solaires permettrait de produire eau et électricité en plein désert. Pour les pays en voie de développement ce procédé pourrait donc permettre une révolution énergétique.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte d'un gène clé de la longévité
Vendredi, 11/05/2007 - 00:00

Un gène-clé expliquerait pourquoi la restriction de l'alimentation favorise une plus grande longévité des animaux, selon une étude publiée le 3 mai dans la revue scientifique britannique Nature et destinée à terme à expliquer, voire combattre, le vieillissement humain. Pourquoi les animaux soumis à des restrictions caloriques vivent-il plus longtemps et en meilleure forme que leur congénères qui mangent sans frein, c'est la question à laquelle tentaient de répondre les chercheurs du Salk Institute, à San Diego, en se servant d'un minuscule ver de laboratoire formé de seulement mille cellules (C.elegans). "Cette découverte apporte une réponse à une question que l'on se posait depuis longtemps" commente un spécialiste de l'Inserm, Martin Holzenberger (Paris).

L'identification de ce "gène-clé", le PHA-4, constitue "une percée", selon lui. "Le lien entre cette restriction et l'augmentation de la longévité restait mystérieux. Ce gène, le seul absolument indispensable, pour que la restriction alimentaire agisse sur la longévité est « un maître du jeu » qui régule d'autres gènes", ajoute-t-il. "Donner à l'animal 70 % de ce qu'il mange spontanément, accroît sa longévité de 20 à 30 %", souligne Hugo Aguilaniu (Ecole Normale Supérieure de Lyon, France) co-auteur de l'étude.

On connaît deux voies majeures de la longévité, la restriction alimentaire et la voie de l'insuline dont la manipulation a permis de faire vivre deux fois plus longtemps des souris au prix toutefois de nanisme et de difficultés à se reproduire. Le ver soumis à un régime restreint mais équilibré, vit plus longtemps : "la restriction provoque un vieillissement harmonieux et dynamique", commente Hugo Aguilaniu.

Si on bloque ce gène, la restriction reste sans effet. En revanche, si on dope ce gène (on le fait se "sur-exprimer"), avec un régime normal, le ver vit plus longtemps, poursuit-il. En ajoutant la restriction alimentaire au gène plus actif, le ver gagne encore un peu en longévité.

"Le gène PHA-4 constitue a priori une bonne cible pharmaceutique en raison de son caractère spécifique", selon Hugo Aguilaniu. "Cependant c'est un facteur de transcription niché au coeur ("noyau") des cellules, très protégé", dit-il. L'idée est d'agir en amont, par exemple sur des enzymes, des "kinases" ou sur des messagers hormonaux.

Le ver C.elegans ne peut pas vivre sans ce gène qui contribue à son développement. Aussi pour vérifier son rôle, les chercheurs ont bloqué le gène chez le ver adulte, en lui donnant à manger des bactéries productrices d'ARN inhibiteurs. "Une technologie pas utilisable chez l'humain", remarque Martin Holzenberger.

Pour le généticien américain Gary Ruvkun (Harvard), l'étude pourrait ouvrir de nouvelles pistes de recherche sur le vieillissement humain car ce gène a des homologues dans les autres espèces. "PHA-4 correspond à trois gènes ("foxa" 1, 2,3) chez l'homme (et la souris). Plus on se rapproche de l'homme, plus les choses sont complexes", avertit M.Holzenberger en évoquant "des années de travail" avant d'espérer détenir une solution thérapeutique.

Selon lui, le gène a un effet sur des enzymes, des superoxydes dismutases (SOD) et par ce biais, "augmente les défenses contre le stress oxydatif" (l'oxydation) cellulaire, cause de vieillissement. En 2002, son équipe Inserm avait réussi à prolonger la vie de souris sans altérer leur santé, en bloquant la moitié des récepteurs d'un facteur de croissance, l'IGF-1, présents à la surface des cellules, indépendamment de tout régime. L'expérience a montré que ces animaux résistaient mieux à cette forme de stress, facteur de vieillissement.

SI

Maladie d'Alzheimer : le cerveau aurait une capacité insoupçonnée de récupération
Vendredi, 11/05/2007 - 00:00

Des chercheurs américains ont ouvert une piste dans le traitement de la maladie d'Alzheimer en établissant sur des souris que la stimulation mentale et un traitement médicamenteux leur permettaient de récupérer des souvenirs perdus. Leurs conclusions prouveraient que "même si le cerveau a souffert de très grave neurodégénérescence et même si un individu présente de très graves troubles de l'apprentissage et de très graves pertes mémorielles, la possibilité existe d'améliorer les capacités d'apprentissage et de récupérer dans une certaine mesure des souvenirs perdus", explique la neuroscientifique Li-Huei Tsai.

Tsai et ses collègues du Howard Hughes Medical Institute et du Massachusetts Institute of Technology, dont l'étude a été publiée par la revue Nature, ont travaillé sur des souris génétiquement modifiées afin d'introduire dans leur organisme une protéine responsable d'une pathologie très proche de la maladie d'Alzheimer (atrophie et perte de cellules nerveuses). Leurs travaux tendraient à démontrer que les souvenirs ne sont pas détruits par des maladies neurodégénératives, mais seulement rendus inaccessibles.

Les chercheurs ont placé dans un premier temps les souris dans un environnement "créateur de peur" (une cage où elles ont reçu des décharges électriques). Les souris ont ensuite été réparties en deux groupes : celles du premier groupe ont été laissées dans l'environnement habituel de leurs cages blanches standard ; celles du second ont été placées dans des cages "stimulantes" équipées de manèges et de jeux colorés. Toutes les souris ont ensuite été remises dans les cages électrifiées : les souris exposées à un environnement stimulant se souvenaient mieux du choc électrique que les souris laissées dans leurs cages standard.

Dans un deuxième temps, les souris ont été traitées avec des inhibiteurs de l'histone déacétylase (HDAC). L'utilisation de ce type de médicament a induit les mêmes résultats que la stimulation environnementale. Pour Li-Huei Tsai, il pourrait donc être possible d'améliorer les capacités d'apprentissage et mémorielles d'un malade même après de très graves pertes de mémoire liées à une dégénérescence du cerveau.

Selon Fischer et ses collègues, l'accès à cette mémoire à long terme s'effectuerait par le rétablissement du réseau synaptique, par un mécanisme encore inconnu. Le poids du cerveau est le même dans les deux groupes de souris, prouvant que la quantité de neurones reste inchangée. En revanche, la quantité de synaptophysine, un neurotransmetteur, est nettement supérieure pour le groupe privilégié. Tout se passe comme si un environnement stimulant pouvait favoriser le développement de nouvelles connexions entre neurones en empêchant l'expression de certains gènes qui, lorsqu'ils sont activés, provoquent une destruction de neurones.

MIT

Chirurgie : la révolution des techniques non intrusives
Vendredi, 11/05/2007 - 00:00

Qu'il s'agisse d'éviter les cicatrices en retirant une tumeur cérébrale par les narines, une vésicule par voie vaginale, ou encore en réalisant une appendicectomie par la bouche : la chirurgie par les voies naturelles ne cesse de se développer. Une avancée médicale et esthétique majeure, en particulier pour les enfants dont les cicatrices suivent la croissance.

Une semaine après qu'une équipe de chirurgiens new-yorkais a annoncé le retrait d'une vésicule biliaire par voie vaginale, une équipe du centre médical de Pittsburgh (Pennsylvanie) a évité à un enfant de quatre ans de se réveiller avec des cicatrices au visage, en lui retirant une tumeur par les narines. En Inde, des médecins ont annoncé avoir réalisé de leur côté une appendicectomie par la bouche.

C'est une chirurgie encore débutante et pas très agréable à regarder, mais les chercheurs explorent cette nouvelle voie qui utilise des instruments minces passant par les voies naturelles, évitant ainsi toute incision dans la peau et le muscle.

De nombreuses questions demeurent, mais les médecins estiment que cette approche est porteuse d'espoir, notamment d'une convalescence plus courte, moins douloureuse et sans cicatrices apparentes. Dans le cerveau, par ailleurs, elle peut éviter d'avoir à manipuler les tissus, ce qui pourrait abîmer les fonctions cérébrales et oculaires. Pour les interventions abdominales par la bouche, le vagin ou le rectum, elle pourrait éviter d'avoir à traverser des tissus sensibles. En profondeur, là où les tissus ne ressentent pas la douleur, les gestes eux-mêmes pourraient être moins traumatisants.

Certaines chirurgies abdominales, notamment au niveau de l'intestin, peuvent demander une semaine, voire plus, de repos à la maison. Avec la chirurgie par les voies naturelles, l'espoir en théorie serait que les patients puissent se rendre à leur travail dès le lendemain, a déclaré le Docteur David Rattner, de l'hôpital général du Massachusetts. "Ce serait comme aller chez le dentiste pour une dévitalisation", a-t-il ajouté.

Concernant les tumeurs cérébrales, passer par le nez permet au patient de manger tout de suite plutôt que d'attendre quelques jours, et évite le risque d'une intubation et d'une trachéotomie pour faciliter la respiration, a ajouté le Docteur Amin Kassam.

Depuis deux ans, les médecins du centre médical de Pittsburgh arrivaient à atteindre la moelle épinière par le nez. Ils avaient même retiré par cette voie des tumeurs de la taille d'une balle de base-ball, les émiettant pour extraire des morceaux de la taille de grains de popcorn.

Toutefois, certaines tumeurs du cerveau ne sont pas complètement accessibles par le nez et c'est pourquoi, dans le cas du petit garçon cité plus haut, il a fallu finir de retirer la tumeur en passant par le côté du crâne, en pratiquant une incision cachée sous les cheveux.

Le secret de la technique est d'opérer avec des instruments très fins qui peuvent être introduits dans les conduits naturels, en associant une caméra vidéo et un faisceau lumineux centrés sur le site opératoire. Les médecins peuvent ainsi suivre la progression des instruments sur un écran vidéo.

Mais de nombreuses questions demeurent : les cancers peuvent récidiver quand ils ne sont pas totalement retirés, souligne le Docteur Gail Rosseau, chef du service de chirurgie de l'Institut neurologie-orthopédie de Chicago ; il est encore trop tôt pour savoir si le retrait par le nez peut entraîner plus de récidives qu'une ablation par le crâne ; le risque de méningite à partir du liquide céphalo-rachidien est aussi un problème à envisager. Aujourd'hui, les chirurgiens préfèrent passer par le cerveau, mais qu'en sera-t-il dans dix ans ? Nul ne sait, répond le Docteur Rosseau.

Dans le vaste champ de la chirurgie abdominale, le Docteur Marc Bessler, qui a retiré la vésicule d'une patiente par voie vaginale, estime que la vésicule et l'appendice feront partie des organes retirés par le vagin. C'est selon lui une "révolution" comparable à l'arrivée il y a une quinzaine d'années de la laparoscopie, qui remplace une longue incision par des trous, limitant la souffrance et le temps de convalescence. Pour le Docteur Rattner, le potentiel de la chirurgie par voies naturelles réside surtout dans les interventions entraînant aujourd'hui une longue interruption de travail, comme l'ablation d'un rein ou d'une partie de l'intestin, ou une opération liée à l'obésité.

AP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top