RTFlash

RTFLASH Recherche & Technologie
NUMERO 440
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Juillet 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le baromètre 2007 des technologies à la mode
Un matériau moléculaire intelligent pour le stockage et la manipulation de l'information
La Commission européenne choisit la norme Nokia de TV mobile
Avenir
HAL-5 : l'exosquelette qui nous rapproche du cyborg
Matière
Les biocarburants couvriraient 15 % de la demande en carburant en 2030
France: l'approvisionnement en électricité assuré jusqu'en 2014
La Californie va construire la plus grande ferme solaire au monde
Espace
Une combinaison spatiale révolutionnaire.
De la vapeur d'eau détectée sur une exoplanète
Terre
L'Etat fédéral américain neutre en carbone en 2050
Une étude sonne l'alarme sur le climat futur du Nord-Est américain
Épargner l'eau potable grâce à un nouveau système domestique
Vivant
Cancer du sein : un nouvel outil de recherche
La dépression : un facteur de risque cardio-vasculaire supplémentaire
Evolution accélérée en cas de danger
Découverte d'un gène impliqué dans l'asthme de l'enfant
Espoirs pour les leucodystrophies
Comment le cerveau évalue les performances
Edito
Växjö : un modèle suédois de développement écologique



En Suède, le développement durable et la lutte contre le réchauffement climatique ne sont pas seulement l'affaire de l'Etat, même si la Suède est le premier pays au monde à s'être fixé l'objectif « zéro pétrole » d'ici 20 ans. Alors que l'Union européenne veut réduire de 20 % ses émissions de CO2 d'ici à 2020, la ville de Växjö, au sud de la Suède produit déjà plus de la moitié de toute son énergie consommée à partir de sources renouvelables. Cette commune de 80 000 habitants a ainsi diminué de 24 % ses émissions de CO2 entre 1993 et 2005. Et elle espère les réduire de moitié d'ici à 2010. Un engagement salué par la Commission européenne, qui lui a décerné le premier prix de l'énergie durable pour l'Europe.

Växjö est devenu un exemple, sur le plan national comme à l'étranger, pour tous ceux qui veulent démontrer que la durabilité est payante. Un mode de pensée écologique collectif, au cours des dernières décennies, a permis d'obtenir des gains économiques, en même temps qu'un air plus pur et des eaux plus claires. Tout avait démarré par une catastrophe écologique. Dans les années 60, deux des lacs de Växjö furent gravement pollués. Un immense projet de sauvetage fut lancé dans les années 70 et les méthodes utilisées sur le Lac Trummen obtinrent une reconnaissance mondiale grâce à leur efficacité.

Depuis, de nombreuses autres mesures ont été prises en faveur de l'environnement. Sarah Nilsson, responsable de la planification énergétique au sein de la municipalité, fait partie des concepteurs du programme « Pas de combustible fossile à Växjö ». Un programme adopté à l'unanimité par les responsables politiques locaux en 1996, stipulant que les émissions de dioxyde de carbone fossile par habitant devront avoir diminué de moitié en 2010, par rapport à 1993.

La Société suédoise de conservation de la nature a également exercé une influence importante. Växjö avait besoin d'une autorité environnementale, de quelqu'un qui puisse désigner les problèmes et déterminer si Växjö est sur la bonne voie. La société a envoyé des experts pour former élus et fonctionnaires qui sont aujourd'hui incollables sur le réchauffement climatique et les gaz à effet de serre.

Plus de 60 % de la surface de Växjö est couverte de forêts. Ce qui fait de la production de bois l'un des principaux secteurs industriels. La biomasse bois peut paraître un choix d'énergie écologique évident pour une telle population, mais lorsque la centrale thermique de Växjö a commencé à chercher des alternatives au pétrole au début des années 1980, c'était loin d'être le cas. Les frais d'investissement étaient alors considérables et il existait peu ou quasiment pas de fournisseurs de biomasse.

Depuis, Växjö est devenu le pionnier suédois de la biomasse bois, dans un pays lui-même très boisé. Aujourd'hui 14.000 appartements, 1.700 maisons, l'hôpital, des hôtels et des entreprises sont connectés au réseau de chaleur. Aujourd'hui, les deux tiers du chauffage de Växjö proviennent de ce combustible. En outre, dix ans après le lancement du programme « Pas de combustible fossile à Växjö », les émissions de CO2 par habitant ont baissé de 21 %. La plupart des diminutions ont été réalisées dans le secteur du chauffage, mais également dans ceux de l'électricité et des transports.

La biomasse a également été bénéfique pour le porte-monnaie des usagers. Les investissements et efforts initiaux commencent à porter leurs fruits, à la fois pour ceux qui se chauffent par la centrale locale, et sous forme de bénéfices pour ceux qui l'exploitent. Sarah Nilsson reconnaît que le travail environnemental représente, tout d'abord, un combat important. Quels que soient les changements à apporter, ils sont incontestablement plus onéreux au départ que la solution présente.

Pour aider les politiciens à voir au-delà des finances actuelles, Växjö a lancé un "ecobudget", un modèle de budget environnemental. Il est conçu pour démontrer aux décideurs comment économiser des ressources naturelles, un peu comme on doit éviter de dilapider ses avoirs financiers.

Le prochain défi majeur de Växjö concerne les transports. Les énergies renouvelables ne couvrent que 2 à 3 % de la consommation en carburant des véhicules. Et ce malgré les primes à l'achat de voitures propres, les parkings gratuits et autres mesures incitatives mises en place par la ville pour encourager. Växjö mise donc sur la fabrication locale de biocarburants. Depuis quelques années, la station de traitement des eaux usées produit du biogaz à partir des boues d'épuration. Le combustible permet de couvrir en partie les besoins en électricité du site et, depuis peu, il est vendu aux particuliers. Certes, la production reste limitée. Mais Steve Karlsson, responsable du projet, espère pouvoir l'augmenter en utilisant les déchets ménagers produits par les habitants.

L'université de Växjö dirige pour sa part un programme international de recherche, financé en partie par l'Union européenne, visant à développer un nouveau biocarburant le diméthyléther (DME) à partir de la biomasse. Des experts originaires de huit pays européens participent à ce projet, baptisé Chrisgas et financé par l'Union Européenne et l'Agence suédoise à l'énergie.

En 2006, les élus se sont fixé de nouveaux objectifs pour les dix ans à venir. Växjö s'est engagée à réduire de 20 % sa consommation d'électricité par habitant d'ici à 2015, et à diminuer de 70 % ses émissions de CO2 avant 2025. La municipalité veut aussi encourager l'agriculture biologique, augmenter le recyclage des déchets ménagers, réduire sa consommation de papier, étendre la surface de ses réserves naturelles et limiter les rejets de nitrates dans les lacs. Quand on demande au Maire de Växjö si l'écologie est compatible avec le développement économique, sa réponse est immédiate: «Nous savons ici qu'économie et écologie sont deux concepts qui vont ensemble, même si ce n'est pas évident au premier abord».

A quelques semaines du « Grenelle » de l'Environnement souhaité par le Président de la République, l'exemple de Växjö nous montre à quel point les collectivités locales ont un rôle d'expérimentation et de laboratoire déterminant à jouer pour sortir de l'ère des énergies fossiles et montrer que développements économique et écologique sont désormais inséparables.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le baromètre 2007 des technologies à la mode
Vendredi, 20/07/2007 - 00:00

Gartner s'est livré cette année encore à un petit exercice de classification. Résultat, un modèle qui différencie les cinq cycles de la mode high-tech, selon la maturité des technologies et leur visibilité. Car toutes les technologies ne se valent pas. Il y a celles qui connaîtront une adoption de masse d'ici deux ans, et pour lesquelles Gartner ne se fait pas de souci. C'est le cas de la TNT, qui a réussi depuis le printemps 2005 une remarquable percée en France, de la télévision numérique par le câble et le satellite, des baladeurs multimédias popularisés par l'iPod, ou encore de la téléphonie par IP à domicile et de la vidéo à la demande que les fournisseurs ajoutent à leurs offres. La presse en parle déjà depuis plusieurs années et les consommateurs sont prêts. Aussi, les taux de pénétration oscillent entre 20 et 50 %, explique Gartner.

Les technologies qui atteignent le « pic d'attentes » sont dans une situation totalement inverse. Incontournables dans les médias, elles font l'objet « d'un enthousiasme débordant et d'attentes irréalistes », souligne Gartner, qui conseille le plus souvent à ses clients de patienter avant d'adopter. De fait, leur arrivée à maturité n'est pas attendue avant deux à cinq ans, au mieux, voire entre cinq et dix ans. Dans cette catégorie, on retrouve la convergence fixe/mobile, les réseaux légaux de « peer-to-peer », la télévision sur mobile ou les nouveaux formats de DVD. Souvent, ces procédés risquent de décevoir et de tomber temporairement dans l'oubli médiatique. C'est le cas des Media Center, de la VOD sur PC, et surtout de la télévision par Internet. Seule l'Europe, tirée par la France, fait exception, relève Gartner.

Ces technologies auront tout de même l'occasion de revenir sur le devant de la scène et de prouver leur valeur. Après avoir été au coeur de l'actualité, les téléviseurs haute définition, les magnétoscopes numériques, la vidéo à la demande sur mobile et le WiFi à domicile sont sur le chemin d'une adoption de masse. Mais cette évolution se révèle finalement plus lente et plus discrète que prévu. Rien à voir avec leurs débuts fracassants des technologies « révolutionnaires » aux retombées conséquentes. En 2007, c'est la diffusion de contenus sur les consoles de jeu qui occupe ce créneau, aux côtés des écrans OLED, des widgets ou des ordinateurs ultra-mobiles. Mais là, le taux d'adoption avoisine seulement le pourcent, selon Gartner.

Expansion

Un matériau moléculaire intelligent pour le stockage et la manipulation de l'information
Vendredi, 20/07/2007 - 00:00

Une avancée importante vient d'être réalisée dans le domaine des nanotechnologies et des matériaux intelligents. Des chercheurs de deux laboratoires du CNRS à Toulouse (LCC - Laboratoire de chimie de coordination et LAAS - Laboratoire d'analyse et d'architecture des systèmes) ont réussi à fabriquer un réseau de plots nanométriques aux propriétés uniques : ces plots réagissent à des changements de température, de pression, de champ magnétique ou de composition chimique du milieu environnant en subissant une modification de leurs propriétés électroniques (transition de spin). Ces deux états électroniques, état ON (haut spin) et état OFF (bas spin), sont stables à température ambiante. La transition de l'un vers l'autre est réversible. Cette avancée scientifique permet d'envisager le développement de mémoires d'ordinateur de très haute densité et de capteurs chimiques de taille nanométrique. Elle ouvre aussi de grandes perspectives dans le domaine de l'optique et la manipulation de l'information.

Les chercheurs toulousains sont en effet parvenus à mettre sous forme de plots nanométriques (nommés 'DOTS' dans l'appellation anglaise) un matériau à transition de spin. Ainsi, un réseau de plots de 30 nm de diamètre, espacés régulièrement de 200 nm a été réalisé. Ces plots passent de l'état ''bas spin'' de couleur rouge à l'état ''haut spin'' de couleur jaune, soit par un léger chauffage, soit par un éclairement pulsé avec un laser vert, avec des impulsions de l'ordre de la nano-seconde. Certaines substances chimiques ainsi que des variations de champ magnétique ou de pression appliquée sont aussi capables de provoquer cette transition entre les deux états électroniques. Point important en vue des applications potentielles : la transition de spin a lieu à température ambiante.

Ces travaux sont un pas de plus vers l'ordinateur moléculaire et les composants nanoélectroniques. En effet, la bistabilité de ces nanostructures dans l'état haut spin (ON) et bas spin (OFF) permet d'envisager de stocker de l'information binaire dans des structures de dimensions moléculaires. Ainsi, un bit d'information serait stocké dans une structure de 30 nm voire plus petite encore. Ceci représente une alternative potentielle pour déplacer les limites (autour de 70 nm) de miniaturisation des composants électroniques conventionnels.

Mais ce n'est pas la seule application qu'envisagent les chercheurs. La réactivité de ces nanomatériaux à des substances chimiques permettrait d'en faire des capteurs de taille nanométrique extrêmement performants. De même, leur sensibilité aux variations de pression appliquée, de température ou de champ magnétique leur ouvre des perspectives dans l'industrie des instruments de mesure. Les propriétés optiques de ce matériau sont tout aussi intéressantes. En effet, un verre recouvert de ces plots nanométriques pourrait être le composant actif de base de filtres optiques aux caractéristiques modulables à volonté. Cette mise en forme originale d'un matériau susceptible de stocker une information binaire à température ambiante est une étape indispensable vers de nouvelles mémoires moléculaires.

CNRS

La Commission européenne choisit la norme Nokia de TV mobile
Vendredi, 20/07/2007 - 00:00

La Commission européenne a choisi la technologie DVB-H de diffusion de la télévision mobile, qui est promue par le finlandais Nokia, comme norme européenne et, peut-être, mondiale. Cette décision devrait encourager son utilisation et l'exécutif européen a annoncé qu'il présenterait en 2008 des propositions pour la rendre le cas échéant obligatoire. Elle suit ainsi la stratégie suivie pour le GSM dans les années 1990, ce qui a permis à cette norme de s'imposer sur presque toute la planète, espérant accélérer le déploiement de la télévision mobile dans l'Union européenne.

"Le moment est décisif pour l'Europe", a déclaré Viviane Reding, commissaire chargée de la société de l'information. "Nous pouvons soit devenir des leaders mondiaux, comme nous l'avons fait pour la téléphonie mobile grâce à la norme GSM, qui a été développée par l'industrie européenne, soit laisser d'autres régions se tailler la part du lion sur le marché." L'adoption de la télévision mobile dans l'UE s'est faite à un rythme lent alors que les concurrents de l'Europe ont accompli des progrès rapides, puisque le taux de pénétration en Corée du Sud représente actuellement 10 % contre 1 % en Italie, le pays de l'UE où cette technologie est la plus utilisée.

Or, le chiffre d'affaires de ce marché est susceptible d'atteindre 20 milliards d'euros en 2011 et le nombre de téléspectateurs mondiaux prévu est de 500 millions. Pour s'imposer au niveau mondial il faut éviter la fragmentation du marché et la multiplicité des technologies qui déroutent le consommateur et les producteurs de contenu. La norme DVB-H (Digital Video Broadcasting for Handhelds) "est le candidat le plus sérieux pour la télévision mobile, avec des essais et des lancements commerciaux réussis dans 18 pays européens ainsi que dans un nombre croissant d'autres pays", souligne la Commission européenne.

Il s'agit d'aller vite, l'année 2008, avec le championnat du monde de football et les Jeux olympiques d'été, étant jugée cruciale pour assurer le lancement de la télévision mobile puisque les consommateurs seront tentés de l'utiliser. Dans le même temps, la Commission exhorte les Etats membres à mettre le plus rapidement possible à la disposition de la radiodiffusion mobile les fréquences libérées lors passage de la télévision analogique traditionnelle à la télévision numérique.

Cela concerne surtout la bande UHF (470 à 862 MHz), qui est considérée comme la plus adaptée à la télévision mobile. L'exécutif européen a par ailleurs entamé les préparatifs pour l'ouverture d'une autre bande, dite L (1452 à 1492 MHz), qui peut constituer une solution de rechange.

Les autorités européennes interviennent parce que les acteurs des secteurs des équipements de télécommunications, du logiciel, de la diffusion et du contenu ne sont pas parvenus à un consensus sur la norme à adopter. La compagnie américaine Qualcomm, qui a développé une norme concurrente, a dit son incompréhension devant cette décision de la Commission. "Je suis déconcerté", a déclaré l'un de ses responsables, Omar Javaid, selon lequel le véritable problème est l'absence de fréquences, par le choix de la norme. Pour l'instant, la plupart des téléspectateurs "mobiles" utilisent les réseaux de troisième génération (3G), mais la qualité est limitée.

LP

^ Haut
Avenir
Nanotechnologies et Robotique
HAL-5 : l'exosquelette qui nous rapproche du cyborg
Vendredi, 20/07/2007 - 00:00

Etudié pour aider les personnes à mobilité réduite et handicapées, le HAL-5 (Hybride Assistive Limb pour Membre d'Assistance Hybride) est un exosquelette qui accroît la force de la personne qui la porte. Développée par l'ingénieur Yoshiyuki Sankai, cette armure permet de porter des charges très lourdes comme de marcher plus vite sans fournir d'efforts supplémentaires.

L'armure fonctionne grâce à un ordinateur et des piles qui activent les articulations motorisées. Des capteurs sont placés sur la peau du porteur. Ils détectent les faibles impulsions électriques envoyées dans les muscles par le cerveau et activent les servo-moteurs qui vont développer la puissance musculaire du porteur. C'est ainsi qu'un handicapé tétraplégique a pu monter sur le mont Klein Matterhorn dans les Alpes suisses (4164 mètres), porté par un alpiniste chevronné équipé d'un HAL3, le modèle ne renforcant que la partie inférieure du corps.

Le constructeur immobilier Daiwa House Inudstry & Co. a investi en début d'année près d'un milliard de yen afin de financer la R&D de Cyberdine et de mettre HAL-5 en production pour fin 2007. La production annuelle estimée à 400 unités devrait permettre la vente (3200 ? l'unité) comme la location (de 400 à 2000?/mois) d'exosquelettes. Parallèlement, Daiwa House compte développer des maisons spécialement faites pour des personnes âgées ou handicapées équipées d'exosquelette HAL. Une infirmière pourrait ainsi déplacer une personne âgée pour lui administrer un traitement ou l'aider dans sa toilette.

VA

^ Haut
Matière
Matière et Energie
Les biocarburants couvriraient 15 % de la demande en carburant en 2030
Vendredi, 20/07/2007 - 00:00

D'après un rapport de Global Insight, le monde produira 380 milliards de litres de biocarburants par jour en 2030. Cette proportion pourrait atteindre 35 % aux Etats-Unis, premier consommateur mondial de carburant, ou au Brésil - où 15 % du parc automobile permet aujourd'hui de rouler à l'éthanol pur ou avec de l'essence additionnée de 20 à 25 % d'alcool.

Selon Global Insight, l'industrie automobile peut adapter ses produits aux biocarburants, car tous les véhicules sont déjà prêts à fonctionner avec 5 % de biocarburants, et les véhicules neufs peuvent tolérer un mélange comportant jusqu'à 30 %.

Le développement prévu des biocarburants a récemment suscité des inquiétudes sur ses conséquences pour les prix agricoles, dopés par la demande. Mais le cabinet estime que des cultures non alimentaires pourraient être développées pour réduire la dépendance à l'égard des cultures alimentaires. Global Insight cite en exemple plusieurs variétés d'algues.

PC

France: l'approvisionnement en électricité assuré jusqu'en 2014
Vendredi, 20/07/2007 - 00:00

L'approvisionnement de la France en électricité devrait être assuré au moins jusqu'en 2012, grâce aux nouveaux investissements lancés depuis deux ans et à des politiques de maîtrise de la consommation, estime le gestionnaire du réseau de transport d'électricité RTE. RTE a publié des prévisions bisannuelles moins pessimistes que les précédentes en 2005. "On est passé d'un signal rouge à un signal orange", a résumé le président de RTE, Dominique Maillard, lors d'une conférence de presse. L'apparition de besoins supplémentaires a été "repoussée de deux ans" par rapport aux précédentes prévisions, selon lesquelles l'approvisionnement de la France en électricité était assuré seulement jusqu'à fin 2009.

L'approvisionnement sera assuré jusqu'en 2012, compte tenu des moyens de production d'électricité actuels ou en construction (centrales électriques, éoliennes...), et jusqu'en 2014 compte tenu des projets "dont la réalisation semble probable", affirme RTE dans ses prévisions à l'horizon 2020. Au-delà de 2012, il faudrait 10.500 mégawatts (MW) de moyens de production supplémentaires pour passer le cap de 2020. Au-delà de 2014, il faudrait 4.000 MW de moyens de production nouveaux. Ces prévisions plus rassurantes sont dues à la construction, depuis deux ans, de nouvelles centrales électriques à cycle combiné (de gaz et de vapeur), à "l'essor" des éoliennes, et à la future mise en service en 2012 du réacteur nucléaire de troisième génération EPR de Flamanville (Manche).

L'énergie éolienne devrait atteindre en 2012 une puissance de 7.000 MW (capacité théorique dans des conditions optimum de vent), tandis que les projets de nouvelles centrales représentent 10.000 MW en cumulé. Le réacteur de Flamanville apportera, lui, une puissance supplémentaire de 1.600 MW. "Il y a encore un potentiel très important de développement de l'éolien en France", a insisté M. Maillard, pour qui l'éolien peut représenter en France jusqu'à 20.000 MW. Si les moyens de production se développent, le "défi" pour RTE sera de "renforcer le réseau" en fournissant de "bonnes conditions de raccordement", a souligné M. Maillard, qui a succédé à André Merlin à la tête de RTE le 18 mai.

En outre, la maîtrise de la consommation d'énergie "est vraiment entrée dans les moeurs", grâce à des "politiques publiques incitatives", s'est félicité le président de RTE. RTE prévoit ainsi une progression de la consommation d'électricité "plus modérée" d'ici 2020, en hausse de 1,3 % par an en moyenne d'ici 2010, et de 1 % par an sur la décennie suivante. Pour autant, a prévenu M. Maillard, "les projets d'investissements ne sont jamais acquis", quand ils se heurtent à l'opposition des riverains.

Surtout la consommation "de pointe", liée à des usages spécifiques de l'électricité concentrés sur certaines heures de la journée, continue d'augmenter fortement, notamment l'hiver avec l'utilisation du chauffage électrique --très répandu en France.

A cet égard, la France doit parfois importer son électricité en période de pointe mais son solde reste "exportateur", a indiqué M. Maillard. Par ailleurs, la France n'atteint pas encore, avec ses moyens de production actuels, le taux de 21 % de consommation par des énergies renouvelables en 2010, comme souhaité par le gouvernement, a-t-il rappelé.

RC

La Californie va construire la plus grande ferme solaire au monde
Vendredi, 20/07/2007 - 00:00

Une compagnie de San Francisco a annoncé qu'elle projetait de construire la plus grande ferme solaire au monde, près de Fresno, en Californie. La ferme solaire de 80 megawatt aura une superficie totale d'environ 260 hectares et lorsqu'elle sera achevée en 2011, elle sera 17 fois plus grande que la plus grande ferme solaire des Etats-Unis, d'après Cleantech America LLC, une compagnie privée.

La ferme solaire sera également sept fois plus grande que la plus grande ferme solaire du monde en Allemagne. Bill Barnes, PDG de Cleantech, a déclaré que cette ferme solaire, baptisée Community Choice serait un grand changement pour l'énergie renouvelable et ferait de la Californie un leader mondial pour les grands projets d'énergie solaire. La Californie prendrait ainsi la place de l'Allemagne, en tant que centre de l'énergie solaire dans le monde.

« Nous pensons que les fermes solaires de cette échelle vont avoir un impact sur l'industrie » a déclaré Bill Barnes. « Nous pensons que c'est la vague du futur ». Bill Barnes a refusé de dire le coût de construction estimé de la ferme solaire Community Choice.

« Nous pensons que l'impact sur l'industrie sera similaire à l'impact de l'ordinateur Les fermes solaires telles que Community Choice permettront de réaliser des économies d'échelle et permettront de réduire le coût du solaire » a déclaré Bill Barnes. Cleantech avait annoncé récemment deux autres de ses projets de construction de fermes solaires.

Cleantech s'associera à l'agence publique California Construction Authority pour la réalisation et la construction de ses projets. Parmi les obstacles à franchir avant que la nouvelle ferme solaire puisse être construite, il y a l'achat du terrain dans la Vallée de San Joaquin en Californie, l'établissement de lignes de transmission, et d'un contrat avec un fabricant de panneaux solaires photovoltaïques.

Cleantech prévoit de vendre l'électricité générée par l'énergie solaire - en quantité suffisante pour alimenter 21000 foyers- au Kings River Conservation District, qui est un organisme d'Etat qui fournit l'énergie à douze villes et à deux comtés dans la Vallée Centrale de la Californie. Kings River est le gestionnaire de l'eau pour le groupe des Autorités pour l'énergie de la Vallée de San Joaquins en Californie, groupe qui a été formé en novembre dans le but d'acquérir et de produire assez l'électricité pour ces 12 villes et ces deux comtés.

ANE

^ Haut
Espace
Espace et Cosmologie
Une combinaison spatiale révolutionnaire.
Vendredi, 20/07/2007 - 00:00

Finis, les énormes scaphandres spatiaux que revêtent les astronautes lors de leurs sorties dans le vide sidéral pour réparer un panneau solaire de la Station Spatiale Internationale ? Si l'actuelle combinaison EMU (Extravehicular Mobility Unit) de la Nasa convient encore pour les sorties dans l'espace, elle n'est pas à la hauteur des ambitions de l'agence spatiale américaine. Celle-ci compte en effet retourner sur la Lune et envoyer des hommes sur Mars,et les combinaisons actuelles sont trop lourdes et limitent trop les mouvements. La Nasa a donc lancé un appel aux concepteurs de combinaisons. Sur les rangs, ce prototype présenté par le MIT. Ce « Bio-Suit » innove. Au lieu d'utiliser du gaz pour reproduire la pression nécessaire à la survie du corps humain dans l'espace, elle compte sur le principe des « lignes de non-extension », découvert dans les années 60.

Le corps de l'astronaute est passé au scanner. Un logiciel calcule alors ces fameuses lignes, qui sont en fait celles qui ne s'étirent pas, même quand le sujet est en mouvement. Une combinaison en élasthanne et nylon est alors fabriquée sur mesure. Les contre-pressions sont concentrées sur ces lignes, ce qui n'entrave donc pas le mouvement. Autres atouts : sa légèreté et sa sécurité. Si une micrométéorite perce la « Bio-Suit », il sera facile de la réparer dans le vide avec une rustine, selon ses concepteurs.

A l'heure actuelle, le prototype peut assurer les deux-tiers des pressions nécessaires pour survivre dans l'espace. Dava Newman estime que le modèle final devrait arriver à temps pour le retour sur la Lune et les premières missions martiennes. Il pourrait s'agir d'un hybride entre la BioSuit et de l'ancien système de pressurisation gazeuse pour le torse et le casque. En attendant, sur la plancher des vaches, ces innovations pourront servir à l'entraînement des athlètes ou à la rééducation des blessés.

Figaro

De la vapeur d'eau détectée sur une exoplanète
Vendredi, 20/07/2007 - 00:00

Une équipe de Français et de Britanniques affirme avoir détecté de la vapeur d'eau dans l'atmosphère de l'exoplanète découverte en 2005. Lorsqu'une équipe menée par l'Observatoire de l'UNIGE a découvert l'exoplanète HD 189733b, en octobre 2005, la communauté scientifique s'est tout de suite enthousiasmée. Très grosse et très lumineuse, relativement proche de nous, elle est parmi les exoplanètes les plus faciles à étudier. Les résultats n'ont pas manqué: des traces de vapeur d'eau ont été détectées dans son atmosphère. Une première en matière d'exoplanète, relève Nature qui publie l'étude signée par des Britanniques et des Français. A Genève pourtant, les leaders de la traque des planètes extrasolaires sont curieux de connaître les détails de ce résultat.

HD 189733b, située à 63 années-lumière, et dotée d'une masse 380 fois plus importante que la Terre, est une exoplanète gazeuse, classée dans la catégorie des «Jupiter chauds». Très proche de son soleil, elle est brûlante, autour de 1700 degrés.

Autre caractéristique, rare mais essentielle pour l'étude de son atmosphère, l'exoplanète transite, c'est-à-dire que, vue de la Terre, elle passe exactement devant son étoile. Du coup, l'intensité de cette dernière baisse d'environ 3 %.

Analysant les données récoltées par le puissant télescope spatial infrarouge Spitzer, de la NASA, les chercheurs ont estimé que, en passant devant son «soleil», l'exoplanète absorbe sa lumière d'une façon qui n'est explicable que par la présence de vapeur d'eau dans son atmosphère.

«L'an dernier, des Américains ont annoncé qu'ils ne voyaient pas d'eau sur cette exoplanète, rappelle l'astronome genevois Frédéric Pont. Ce genre de mesures et leurs analyses sont extrêmement difficiles.» Le débat est ouvert et n'est certainement pas clos. Du reste, le chercheur à l'Observatoire de Genève travaille actuellement sur d'autres données, «également très complexes», afin de déterminer la présence ou non de vapeur d'eau.

Eau ou pas eau, de toute façon cette exoplanète ne serait pas habitable: trop chaude et gazeuse. N'empêche, la présence d'eau reste une composante essentielle, avec une température clémente pour lui donner l'état liquide, pour le développement de la vie extraterrestre. La «Terre habitable», découverte en avril dernier toujours par l'Observatoire de Genève, ouvrait cette perspective. Beaucoup plus petite et moins lumineuse que HD 189733b, elle reste toutefois très difficile à étudier.

Le véritable intérêt de ce travail, outre le résultat, est la méthode. «L'important est que l'on ait réussi à faire ce type de mesures, confirme Frédéric Pont. La prouesse est surtout technique.» Dans les dix ans à venir, la méthode pourrait bien être employée pour un environnement favorable à la vie?

ESA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Etat fédéral américain neutre en carbone en 2050
Vendredi, 20/07/2007 - 00:00

Selon un rapport du Congressional Budget Office (CBO), le coût de la neutralité carbone pour l'ensemble de l'administration américaine s'élèverait à environ 2,7 milliards de dollars sur les 10 prochaines années. Le rapport du CBO est annexé au projet de loi introduit le 7 juin dernier par le représentant Henry Waxman (D-Californie), président de la commission sur la supervision et la réforme de l'administration (Oversight and Government Reform), visant à rendre l'ensemble des opérations de l'Etat fédéra neutres en carbone en 2050. On estime que les activités de l'administration fédérale résultent en l'émission de plus de 100 millions de tonnes de dioxyde de carbone chaque année.

Le projet de loi obligerait à un gel des consommations énergétiques en 2010 suivi d'une réduction annuelle de 2 %. Par ailleurs, il prévoit :

- un programme pilote d'achat de compensations carbone, l'achat par les agences fédérales de véhicules à faibles émissions de carbone (conforme aux normes californiennes lorsque celles-ci entreront en effet),

- l'adoption de standards énergétiques élevés pour les nouveaux bâtiments fédéraux (un bâtiment construit en 2010 devra consommer 60% d'énergies fossiles en moins par rapport à un bâtiment de 2003, contrainte qui sera ensuite revue à la baisse de 10% tous les cinq ans pour atteindre la neutralité carbone en 2030), l'établissement par l'Agence de protection de l'environnement (EPA) d'un marché de permis (cap-and-trade) à l'usage de l'administration,

- la possibilité de poursuivre en justice le gouvernement fédéral au titre de dommages créés par le réchauffement climatique (à hauteur de 1,5 million de dollars).

Selon le CBO, environ un tiers des dépenses seraient consacrées à l'achat d'énergies renouvelables et à des programmes d'efficacité énergétique, un autre tiers concernerait le renouvellement de la flotte de véhicules.

L'ensemble du gouvernement fédéral représente un peu plus de 1% de l'énergie consommée aux Etats-Unis, l'équivalent de la consommation totale d'un Etat comme l'Oregon (3,7 millions d'habitants). 2/3 de la consommation correspond à la mobilité et aux transports, 1/3 au fonctionnement des installations fédérales.

BE USA

Une étude sonne l'alarme sur le climat futur du Nord-Est américain
Vendredi, 20/07/2007 - 00:00

Dans une étude d'envergure, publiée le 12 juillet, une association de chercheurs, l'Union of Concerned scientists, a montré ce qu'il adviendrait du Nord-Est, la région du pays qui compte à la fois une grande concentration de population et d'importantes ressources naturelles. Deux scénarios ont été explorés, l'un pessimiste, où l'homme ne changerait rien à ses habitudes, et l'autre optimiste, où le monde entreprendrait des efforts pour réduire les émissions de gaz à effet de serre.

Dans les deux scénarios, la température s'élèverait de plusieurs degrés d'ici à la fin du siècle, mais pas dans les mêmes proportions. Dans le cas de figure pessimiste, les températures moyennes hivernales gagneraient 4,5 à 6,5 0C et les étés de 6 à 14 0C, ce par rapport aux moyennes historiques. Dans le scénario optimiste, la température ne monterait que de 3 à 4,5 0C l'hiver et de 1,5 à 4 0C l'été.

Cet épais rapport est l'oeuvre d'une cinquantaine d'universitaires et de chercheurs dont certains travaillant pour des agences fédérales. Les travaux ont été dirigés par Peter Frumhoff, un des principaux auteurs du rapport du GIEC, créé en 1988, pour évaluer les risques de changements climatiques provoqués par l'homme.

L'étude de l'Union of Concerned Scientists s'efforce de traduire les chiffres de la climatologie en images concrètes. Des villes telles que Boston, Atlantic City ou New York connaîtraient des inondations fréquentes et catastrophiques. Les stations de ski, nombreuses dans l'Etat de New York, pourraient avoir à fermer leurs portes : de tout le Nord-Est, il n'en resterait que dans le Maine.

Le réchauffement induirait une "migration" vers le nord de certaines essences d'arbres, ce qui, par effet de cascade, modifierait la faune et notamment la faune aviaire. Ainsi, le loriot disparaîtrait des environs de Baltimore. Il s'agit d'un exemple de nature à frapper les esprits car cet oiseau est l'emblème de l'équipe locale de base-ball. Autre exemple d'une longue liste : trente jours par an, Philadelphie pourrait connaître des températures supérieures à 38°C.

Certains des changements sont déjà inévitables parce que les gaz à effet de serre, en augmentation depuis le début de la révolution industrielle, se conservent longtemps dans l'atmosphère. Mais selon les déclarations de Peter Frumhoff au Washington Post, "les conséquences les pires peuvent être évitées si nous agissons vite".

LM

Épargner l'eau potable grâce à un nouveau système domestique
Vendredi, 20/07/2007 - 00:00

Un système de recyclage de plus en plus populaire utilise les eaux ménagères - comme celles de la douche, de l'évier ou de la lessive - pour évacuer le contenu des toilettes et préserver l'eau potable. Environnement Canada affirme que les toilettes représentent le tiers de la consommation en eau d'un ménage - plus que la lessive, la cuisine et le nettoyage.

Trish Matheson, de la ville de Kelowna en Colombie-Britannique, utilise un système à eaux ménagères (ou eaux grises) depuis deux ans dans son domicile de trois étages. Après s'être renseignée au sujet du système d'économie d'eau mis au point par l'entreprise montréalaise Brac Systems, Mme Matheson et son mari ont accepté d'en faire l'essai et en sont depuis devenus des distributeurs.

L'eau grise est filtrée et désinfectée au chlore avant d'être réutilisée. Attendez-vous à voir l'eau de la cuvette prendre la couleur des brassées de lavage - les couleurs foncées donnent à l'eau une légère teinte de bleu - et à une faible odeur de chlore, prévient-elle. «J'ai toujours été préoccupée par l'utilisation de l'eau, explique Mme Matheson, une femme de 31 ans. Je n'ai jamais compris pourquoi on utilisait de l'eau traitée pour la rendre potable pour actionner la chasse d'eau.»

Selon les Nations unies, cinq milliards de personnes habiteront en 2025 une région où l'eau manquera. Si quatre millions de personnes recyclaient leurs eaux ménagères, en un an on pourrait remplir un aquarium large de deux mètres et profond d'un mètre et l'enrouler une fois autour du monde, a expliqué Dennis Yasar, le président de Brac Systems.

«Là où j'ai grandi en Allemagne, on ne parlait que d'économiser (l'eau), a-t-il dit. A l'école, on ne parlait que de ça. Je n'en revenais tout simplement pas de voir à quel point les gens gaspillaient ici et ça me dérangeait...» Le recyclage de l'eau grise permettrait d'économiser 20 000 litres d'eau par personne par année au Canada, a-t-il ajouté - environ la taille d'une petite piscine ou le tiers de leur consommation annuelle.

Canoe

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du sein : un nouvel outil de recherche
Vendredi, 20/07/2007 - 00:00

A l'Institut Curie, afin d'aider les cliniciens dans leur recherche de traitements plus performants, l'équipe coordonnée par Marie-France Poupon dans l'Unité Inserm 612 « Génotoxicologie, signalisation et radiothérapie expérimentale » vient de développer la plus grande série de modèles de tumeurs du sein humaines greffées sur des animaux, établie à ce jour. Cet outil, issu d'un travail de six années, n'aurait pu être élaboré sans la collaboration de l'ensemble des spécialistes de l'Institut Curie et de l'Inserm, oncologistes médicaux, chirurgiens, anatomopathologistes et biologistes.

Ces modèles de tumeurs humaines xenogreffées chez la souris reproduisent la génétique, la génomique et l'histologie des tissus tumoraux des patientes et réagissent de manière identique aux chimiothérapies. Ils ont ainsi les mêmes spécificités que les tumeurs originales des patientes : surexpression des récepteurs HER2, absence ou présence de récepteur des oestrogènes, mutation de P53, etc. Vingt-cinq modèles de souris de tumeurs du sein de profils biologiques différents ont ainsi pu être établis.

Cette série de modèles d'une grande variété constitue un outil exceptionnel pour la recherche pré-clinique. Elle va permettre de tester l'efficacité de nouvelles molécules, de nouvelles associations thérapeutiques, mais aussi d'analyser la réponse au traitement, ou son absence, et de l'adapter aux caractéristiques de la tumeur. Les essais thérapeutiques chez les patientes pourront ainsi être mieux orientés et la mise au point de nouveaux traitements accélérée.

Aujourd'hui, le travail des chercheurs se poursuit dans le cadre de la création d'un Laboratoire d'investigation pré-clinique dans le Département de Transfert à l'Institut Curie, afin d'élargir cette série de modèles de tumeurs à d'autres types de cancers tels que les mélanomes, les tumeurs de l'enfant, mais aussi les cancers du poumon, des voies aérodigestives supérieures, de l'ovaire, de la prostate, du côlon. Avec 42 000 nouveaux cas par an en France, le cancer du sein est le cancer le plus fréquemment rencontré chez les femmes.

Inserm

La dépression : un facteur de risque cardio-vasculaire supplémentaire
Vendredi, 20/07/2007 - 00:00

Les syndromes dépressifs sont très fréquents chez les patients âgés (de l'ordre de 10 à 20 % au-delà de 65 ans). Chez les patients sains comme chez les coronariens connus, la dépression semble être un facteur de risque d'événements cardiovasculaires. Une équipe américaine a cherché à savoir s'il pourrait y avoir un lien entre dépression et athérosclérose.

Les données de 3 781 patients (âgés de 65 ans ou plus) issues de la Cardiovascular Health Study ont été réexaminées. La présence de symptômes dépressifs avait été systématiquement recherchée à l'aide d'une échelle validée (Center of Epidemiologic Studies Despression Scale) et l'épaisseur de l'intima-média des carotides primitives (IMT : Intima-Media Thickness) mesurée par échographie.

Après ajustement sur l'âge, le sexe, l'origine ethnique, la consommation d'alcool, la glycémie, l'index de masse corporelle, il ressort des analyses multivariées que les patients âgés de plus de 65 ans ayant des symptômes dépressifs ont un IMT significativement supérieur à ceux des patients n'ayant pas de symptôme de dépression (β : 0,01826 mm ; écart-type : 0,00806 ; p : 0,03).

Après élimination des patients ayant une IMT déjà augmentée lors de l'entrée dans ce suivi, il apparaît que le risque à 3 ans de voir l'IMT devenir pathologique est majoré chez les patients ayant des symptômes dépressifs (risque relatif RR] : 1,30 ; intervalle de confiance à 95 % [IC] : 1,10-1,44 si l'on retient le chiffre de 1 mm comme IMT pathologique et RR : 1,21 ; IC : 1,00-1,46 si l'on retient 1,14 mm). Les résultats sont identiques si l'on ne tient compte pour l'analyse que des sujets n'ayant pas d'antécédents cardiovasculaires.

[JIM

Evolution accélérée en cas de danger
Vendredi, 20/07/2007 - 00:00

Les papillons mâles de l'espèce Hypolimnas bolina,qui avaient été presque entièrement décimés par une bactérie ont retrouvé leur vigeur en seulement 10 générations, ont constaté des chercheurs partis sur les îles Savaii et Upolu de l'Etat des Samoa, dans l'océan Pacifique. Dans les îles de Polynésie, les populations de bolinas, dont les mâles ont des ailes ornées de taches bleues, sont très souvent infectées par les bactéries Wolbachia.

Ces bactéries colonisent les systèmes reproducteurs des femelles des papillons et se transmettent ainsi aux descendants. Cependant Wolbachia est sélective : seules les femelles l'intéressent et elle tue les rejetons mâles. Le ratio mâle/femelle est donc déséquilibré dans les populations de bolinas infectés par la bactérie. En 2001, il ne restait plus que 1 % de mâles Hypolimnas bolina sur les îles Savaii et Upolu, rapportent Gregory Hurst (University College London, GB) et Sylvain Charlat (CNRS, rattaché à l'Université de Californie pendant l'étude).

A Upolu, la population de mâles avait augmenté dès 2005 et atteignait 41 % en 2006. A Savaii, le taux était toujours de 99 % de femelles au début de l'année 2006 mais à la fin de l'année il y avait 39 % de mâles, ont constaté les chercheurs après un recensement. Ce rebond des papillons mâles a été permis par une évolution très rapide : la transmission d'un gène qui permet aux descendants mâles de survivre, même si les femelles qui se reproduisent sont infectées par Wolbachia.

Pour vérifier que ce n'était pas la bactérie qui avait changé, les chercheurs ont pris des femelles de Savaii et Upolu et les ont fait se reproduire avec des mâles issus d'une autre île. Ils ont observé qu'au bout de trois générations la capacité de la bactérie à tuer redevenait active. C'est donc bien la sélection naturelle d'individus porteurs d'un gène suppresseur qui a permis aux mâles de reprendre du poil de la bête. Les chercheurs vont désormais tenter de localiser précisément ce gène chez le papillon.

NO

Découverte d'un gène impliqué dans l'asthme de l'enfant
Vendredi, 20/07/2007 - 00:00

Une équipe internationale menée par des chercheurs de l'Imperial College de Londres, a isolé un gène sur le chromosome 17, qui serait un marqueur de l'asthme chez l'enfant. Sa seule présence augmenterait de 60 % à 70 % le risque de développer la maladie. Plus précisément, ce gène modifierait l'expression d'un nouveau gène dénommé ORMDL3, directement impliqué dans la survenue de l'asthme chez l'enfant.

« Seuls les asthmatiques présentent un niveau élevé d'ORMDL3 » précise le Docteur Miriam Moffatt, qui a co-dirigé cette étude. Celle-ci a porté sur plus de 2 000 petits Européens, dont pratiquement une moitié d'asthmatiques. « Nous ne savons pas encore comment ce gène interfère dans le déclenchement de l'asthme. Mais le fait que son expression soit si importante chez les jeunes asthmatiques nous laisse penser que nous pourrions, à terme, développer une thérapie ciblant le ORMDL3 », conclut son co-auteur le Docteur William Cookson. Rappelons que l'asthme est la maladie chronique la plus fréquente chez l'enfant. En France, elle toucherait un million de moins de 15 ans.

TI

Espoirs pour les leucodystrophies
Vendredi, 20/07/2007 - 00:00

D'origine génétique, les maladies dites de leucodystrophies ont pour point commun de s'attaquer au système nerveux central, qui comprend le cerveau et la moelle épinière et d'y provoquer de graves lésions. Comme elles touchent plus particulièrement la substance blanche entourant les nerfs, on les a regroupées sous le terme générique de leucodystrophies (du grec "leuco", qui signifie blanc). Elle frappent une naissance sur 2 000 (3 enfants par semaine), mais peuvent aussi ne se manifester qu'à l'âge adulte.

"Le trouble commun aux leucodystrophies est une pathologie génétique affectant les cellules qui fabriquent la myéline, en l'occurence les oligodendrocytes dans le système nerveux central", explique le professeur Patrick Aubourg (service d'endocrinologie pédiatrique de l'hôpital Saint-Vincent-de-Paul, Paris, et directeur de l'unité 745 de l'Inserm). La myéline forme une gaine autour des cellules nerveuses et de leurs prolongements, les axones. Ce manchon joue un double rôle. D'une part, il protège les fibres nerveuses et, d'autre part, il accélère fortement leur vitesse de conduction, et donc la propagation de l'influx nerveux et du potentiel d'action.

Aujourd'hui, il existe des espoirs tangibles côté thérapeutique. La greffe de moelle osseuse classique permet de stabiliser la démyélinisation. Le premier essai mondial de thérapie génique dans l'ALD, impliquant l'équipe du professeur Aubourg a débuté il y a un an. L'idée est d'effectuer une autogreffe de cellules souches hématopoïétiques, modifiées après le prélèvement en y introduisant une version normale du gène.

Directrice de recherche à l'Inserm (U 546), Anne Baron travaille sur la réparation de la myéline. "Il existe deux approches en cours d'expérimentation, résume la chercheuse. L'une, qui n'est pas complètement au point, utilise la capacité spontanée des cellules souches présentes dans le système nerveux central adulte à fabriquer de la myéline lorsqu'il existe une démyélinisation, comme dans une sclérose en plaques. La seconde fait appel à la thérapie cellulaire au moyen de cellules souches neurales de foetus et les cellules commençant à se différencier en oligodendrocytes, cellules qui fabriquent de la myéline. Les travaux visent à aider les cellules souches à se différencier de manière stable vers ce type de cellule."

LM

Comment le cerveau évalue les performances
Vendredi, 20/07/2007 - 00:00

Déterminer la qualité d'une action, qu'elle soit bonne ou mauvaise, est une fonction cérébrale fondamentale : elle permet à la fois l'apprentissage de nouvelles habiletés (cognitives ou motrices) et la modification de comportements qui n'ont pas parfaitement atteint leur but initial. La manière dont le cerveau réalise cette "évaluation des performances" reste mal connue, même si de récentes découvertes suggèrent qu'une partie du cortex préfrontal, le cortex cingulaire antérieur (ou CCA), est impliquée dans cette fonction.

À l'aide d'une tâche cognitive complexe, amenant des singes rhésus à faire fréquemment des erreurs, une équipe du Laboratoire Mouvement adaptation cognition à Bordeaux a étudié avec précision le mode de fonctionnement des neurones du CCA. Premier résultat : la majorité de ces cellules sont activées lors de la présentation tant d'une récompense que d'un signal d'erreur. Elles sont donc capables de détecter aussi bien le succès que l'échec. Avec une précision notable toutefois, ce codage neuronal est nettement plus important en réponse à une erreur qu'à un succès.

D'autre part, ces activités fluctuent fortement selon le contexte dans lequel les informations relatives à la performance sont présentées. C'est ainsi qu'une récompense délivrée de façon inattendue induit une activation des neurones moins importante que lorsque l'animal la reçoit après avoir été préparé. Corrélativement, les neurones augmentent progressivement leur fréquence de décharge en fonction de la “qualité” de l'erreur commise. Effectivement, une absence de réponse est corrélée à une activité neuronale faible, et cette dernière augmente d'autant plus lorsque le sujet tente d'agir de manière précoce. Elle devient maximale lorsqu'il effectue un choix qui s'avère erroné.

Autre point d'importance, les activités neuronales observées sont toujours proportionnelles à l'engagement du sujet dans la tâche. Le CCA semble donc à même de fournir une représentation centrale de l'adéquation entre l'action et le but qui la sous-tend. Ce qui garantit une adaptation très rapide à des situations nouvelles ou changeantes. Contrepartie à cette flexibilité, une mise en jeu anormale de ce mécanisme peut conduire à des effets dramatiques. Prenons l'exemple des patients souffrants de troubles obsessionnels compulsifs. Ces derniers relatent bien souvent le sentiment que “quelque chose ne va pas” dans ce qu'ils viennent de faire, quand bien même ce n'est manifestement pas le cas. Une connaissance précise de la façon dont les individus perçoivent leur erreur ouvrira peut-être l'une des voies vers une meilleure compréhension, voire le traitement de ce type de pathologie.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top