RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 448
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Octobre 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
France Télécom va amener l'ADSL à tous les Auvergnats
Mis au courant par téléphone
Les universités parisiennes préparent leur révolution numérique
Avenir
Nanotechnologies : le français Albert Fert obtient le prix Nobel de physique
Matière
Ethanol cellulosique : les Etats-Unis font flèche de tout bois
Terre
Emissions de CO2 : la France pourra-t-elle tenir ses objectifs ?
Vers une baisse des coûts de piégeage du CO2 grâce aux nanotechnologies ?
Les nanotechnologies au service de l'écoconstruction
Le carburant vert jaillira-t-il des océans ?
L'idée lumineuse de la Chine pour réduire l'effet de serre
Plan climat de Paris : 30 % de réduction des émissions de gaz à effet de serre d'ici 2020 et une priorité à l'habitat
Vivant
Le Nobel de médecine récompense des travaux sur les cellules souches
Cancer de la peau : la piste d'un traitement par thérapie génique
Traitement ciblé du cancer : la piste des micro RNA
Recherche
560 km avec un plein d'hydrogène
Transports publics : 43,5 milliards nécessaires contre le réchauffement climatique
Edito
50 ans après Spoutnik, la conquête de l'espace trouve un nouveau souffle



Au cours d'un récent colloque sur les 50 ans de l'exploration spatiale à Pasadena, en Californie, les nouvelles puissances spatiales asiatiques, Chine, Japon et Inde, ont confirmé leurs ambitions spatiales et se sont clairement posées en rivales des Etats Unis et de l'Europe pour la conquête de l'espace. Les Chinois ont envoyé leur premier homme dans l'espace en octobre 2003 et ont l'intention d'expédier une sonde sur la Lune avant la fin de cette année. Le Japon a lancé à la mi-septembre son premier engin destiné à tourner en orbite autour du satellite naturel. L'Inde espère elle aussi conquérir la Lune au premier semestre 2008.

Tant New Dehli que Pékin ont évoqué la possibilité d'envoyer des hommes sur la Lune à moyen terme, alors que les Etats-Unis veulent y revenir en 2020, 48 ans après leur dernière mission. La Nasa s'est en outre donné pour objectif de faire fouler la surface de Mars à un homme en 2037. "Alors qu'en 2057 nous fêterons le 100e anniversaire du Spoutnik, nous pourrions bien célébrer les 20 ans de la conquête de Mars", a affirmé l'administrateur en chef de la Nasa. Mais des astrophysiciens, ingénieurs spatiaux et autres scientifiques américains de haut niveau sont loin de partager cet optimisme, pointant le peu d'intérêt qu'éprouvent aujourd'hui les jeunes de leur pays pour le secteur de l'espace et le manque d'ambition du gouvernement en matière de formation de ses futures élites scientifiques.

Pendant ce temps, les Asiatiques redoublent d'effort pour rattraper leur retard : un demi-million d'ingénieurs ont été diplômés en 2004 en Chine, 200'000 en Inde et seulement 70'000 aux Etats-Unis, selon un rapport au ton alarmiste de l'Académie américaine des Sciences publié cette année. Les auteurs de ce rapport baptisé "Rising above the gathering storm" (Surmonter la tempête qui se prépare) mettent en garde contre un "décrochage" technologique des Etats-Unis : "Beaucoup de gens pensent que les Etats-Unis seront toujours les meilleurs au monde en science et en technologie, mais cela pourrait n'être plus le cas" à l'avenir, préviennent-ils.

Les grandes puissances asiatiques, le Japon, la Chine et l'Inde, sont lancées dans une course à la conquête de la Lune et veulent faire du satellite de la Terre une plate-forme d'exploration de l'espace et de la planète Mars. Ainsi, le Japon, deuxième puissance mondiale, a lancé avec succès à la mi-septembre une fusée transportant une sonde d'observation de la Lune, première étape du plus ambitieux programme lunaire depuis la mission américaine Apollo en 1969. "Nous voulons explorer la Lune, mieux la connaître", a déclaré Keiji Tachikawa, président de l'agence japonaise d'exploration spatiale JAXA. Cette mission "Kaguya" vise à mieux comprendre l'origine et l'évolution de la Lune.

Au-delà, le rêve du Japon est de construire une base humaine internationale sur la Lune. "La Lune n'est plus seulement un endroit à visiter, mais nous devons envisager d'y habiter et de l'exploiter", a plaidé M. Tachikawa. Le Japonais s'exprimait en marge d'une conférence internationale sur la conquête de l'espace qui s'est tenue à Hyderabad, dans le sud de l'Inde. 2.000 scientifiques, astronautes, constructeurs de satellites ont débattu des moyens de profiter de la forte croissance attendue de l'industrie spatiale mondiale au cours des dix prochaines années.

Le secteur pourrait représenter 145 milliards de dollars d'activité entre 2007 et 2017 contre 116 milliards entre 1997 et 2006, estime le cabinet spécialisé Euroconsult. Et l'Inde y nourrit de fortes ambitions. Le géant économique asiatique, aux ambitions de puissance mondiale, veut mener 60 missions spatiales d'ici à 2013, y compris vers la Lune et vers Mars, a indiqué Prithviraj Chavan, ministre auprès du Premier ministre.

New Delhi a lancé avec succès début septembre un satellite de télécommunications destiné à remplacer un autre détruit en 2006, faisant croître ses espoirs de rafler une part du marché mondial du lancement de satellites lourds, évalué à 2,5 milliards de dollars par an.

En janvier, l'Inde avait réussi, pour la première fois de son histoire, à récupérer sur Terre une capsule spatiale qu'elle avait envoyée quelques jours auparavant : une mission préparatoire à un futur vol habité dans l'espace. L'agence indienne de recherche spatiale (ISRO) a promis d'envoyer d'ici à 2009 une sonde inhabitée vers la Lune puis d'ici à 2013 une mission similaire vers Mars, avant de tenter d'envoyer un jour un être humain dans l'espace. Une sonde indienne pourrait partir en mars ou avril 2008 vers la Lune, a prédit B.N. Suresh, directeur du centre spatial Vikram Sarabhai, dans l'Etat du Kerala.

C'est aussi l'an prochain que l'Inde fixera la date d'une mission habitée vers la Lune, a rappelé G. Madhavan Nair, patron de l'ISRO. "Cela prendra sept ou huit ans", a-t-il dit. Mais la Chine rivale a plusieurs longueurs d'avance.

Pékin a effectué deux missions habitées en orbite ces trois dernières années, devenant le troisième pays, après les Etats-Unis et la Russie, à envoyer par ses propres moyens des êtres humains dans l'espace. Le programme spatial chinois prévoit aussi des missions lunaires, qui pourraient démarrer cette année avec l'envoi d'un satellite d'exploration. "Il y a un très fort regain d'intérêt pour l'exploration de diverses planètes", a constaté Sun Laiyan, patron de l'agence spatiale chinoise. De fait, la Nasa veut envoyer un Homme sur Mars d'ici à 2037, a déclaré le patron de l'agence spatiale américaine, Michael Griffin. "Nous avons besoin de retourner sur la Lune pour pouvoir aller encore plus loin, jusqu'à Mars", a renchéri le porte-parole de l'Agence spatiale européenne, Franco Bonacina.

Mais cette montée en puissance des puissances asiatiques en matière spatiale ne doit pas faire oublier une réalité incontournable: les Etats Unis dépensent à eux seuls plus de 30 milliards de dollars par an dans exploration spatiale, soit quatre fois plus que l'Union européenne et la Russie réunies. Grâce à cet investissement sur le long terme les Etat Unis resteront une grande puissance spatiale incontestée dans les décennies à venir et conserveront très probablement leur avance technologique dans ce domaine stratégique.

L'espace et les technologies qui en découlent sont également en train de devenir des instruments de maîtrise et de puissance incontournables dans les domaines de l'environnement, de l'agriculture et de l'aménagement du territoire, qui sont devenus des enjeux économiques et politiques majeurs en ce début de siècle. Après demain, l'espace offrira également de nouvelles sources d'énergie qui pourrait transformer notre civilisation.

La mise en oeuvre de programme spatiaux à long terme et l'investissement dans la recherche spatiale (nouveaux types de satellites, nouveaux modes de propulsion ionique, nouveaux systèmes de détection et de communication) sont plus que jamais indispensables pour les pays ou entités politiques qui veulent demain être à la fois de grandes puissance politiques, technologiques, économiques et stratégiques. L'Inde, La Chine et le Japon ne s'y sont pas trompés et si l'Europe veut garder son niveau d'excellence et de compétitivité techno-industrielle elle devra, face au géant américain et aux puissances émergentes, augmenter considérablement son effort communautaire dans ce domaine essentiel pour notre avenir.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
France Télécom va amener l'ADSL à tous les Auvergnats
Vendredi, 12/10/2007 - 00:00

On appelle cela un « PPP ». Le Conseil régional d'Auvergne et France Télécom ont conclu un partenariat public privé - le premier du genre selon l'AFP - pour que les derniers foyers de ce territoire encore privés d'ADSL puissent être équipés. Cet accord, baptisé « Toute l'Auvergne en haut débit », assurera à 35 000 foyers une connexion minimimale de 512 Kbits/s d'ici à un an et demi. Au début de 2009, la quasi-totalité de la population (99,6 %) aura alors accès à l'ADSL.

Pour les coins d'Auvergne qui demeureront non éligibles, France Télécom aura recours à des connexions satellitaires à Internet. Au bout de 10 ans, les infrastructures déployées deviendront propriétés de la collectivité. Elles seront néanmoins immédiatement accessibles, explique l'AFP, à tous les fournisseurs d'accès et à tous les opérateurs, pour que la concurrence puisse s'exercer. Le budget de ce projet atteint près de 39 millions d'euros sur dix ans. L'Etat apporte une participation de 4,8 millions d'euros, et l'Europe de 10 millions. Aujourd'hui, nombre de conseils régionaux, généraux ou communautés de communes se mobilisent pour combler la fracture numérique. C'est le cas de la Manche ou encore de la Seine et Marne qui recourt au WiMAX, au Wi-Fi et au CPL (courant porteur en ligne) pour satisfaire les habitants privés de haut-débit.

OINet

Mis au courant par téléphone
Vendredi, 12/10/2007 - 00:00

NTT DoCoMo vient de mettre au point un prototype de téléphone portable utilisant la conductivité du corps humain pour communiquer en champ proche avec les objets environnants. Notre corps étant composé à 70 % d'eau, il conduit très bien l'électricité par la peau. Des appareils utilisant le corps humain comme support d'un signal codé sur une onde électrique ont donc commencé à voir le jour. DoCoMo, toujours prêt à rajouter de nouvelles fonctionnalités dans les téléphones portables pour être à la pointe de l'innovation dans ce domaine, a eu l'idée d'utiliser cette technologie pour décupler les possibilités des mobiles.

Le corps humain servant de médium à l'information lors de son transit, il faut un dispositif émetteur de l'information, un dispositif récepteur de l'information et un dispositif capable de la traiter. Plutôt que de créer plusieurs appareils pour chaque fonctionnalité envisagée, DoCoMo les concentre en un seul appareil : le téléphone portable, tantôt émetteur, tantôt récepteur qui peut traiter les informations de communication. Celui-ci génère un champ électrique NFC (Near Field Communications) capable de s'étendre au corps humain par simple proximité avec celui-ci.

Les technologies NFC ou communication en champ proche en français, sont déjà très utilisées au Japon. Elles permettent d'émuler un système à carte sans contact sur un mobile par exemple. Des applications diverses comme le porte-monnaie électronique ou le passage automatique des barrières d'entrée/sortie des gares voient le jour au Japon. Dans ces solutions, on doit approcher le téléphone portable du dispositif lecteur pour que la communication sans contact s'établisse. En étendant le champ d'action du mobile au corps humain, DoComo conserve les opérations NFC habituelles, mais ouvre aussi de nouvelles perspectives car le contact avec la peau est suffisant, le téléphone restant dans la poche.

Avec ces "Intrabody NFC", il est ainsi possible de rajouter une personne à son carnet d'adresse simplement en lui serrant la main, d'être identifié à l'entrée d'une pièce rien qu'en en touchant la poignée de la porte d'accès, d'avoir un auto-ajustement de l'inclinaison des sièges et rétroviseurs pour le conducteur d'une voiture par sa simple présence derrière le volant, d'envoyer une clé cryptographique lorsque l'on tape un message au clavier, par simple contact avec les touches.

On peut également imaginer des systèmes anti-vol de voiture (et d'autres appareils) ou la contextualisation d'interface selon leur utilisateur (exemple de la distinction conducteur-passager dans une voiture pour éviter que le chauffeur ne passe trop de temps sur un écran rempli de trop d'options). Le prototype de DoCoMo utilise une puce développée par la jeune pousse Kaiser Technology qui peut transmettre des données à 40 kilobits par seconde seulement. NTT DoCoMo veut faire passer ce débit à l'ordre du mégabit par seconde. Les quantités d'électricité mises en jeu sont annoncées comme 1000 fois moins importantes que le seuil de dangerosité pour le corps humain. DoCoMo prévoit une commercialisation de son portable du futur dans les années à venir.

BE

Les universités parisiennes préparent leur révolution numérique
Vendredi, 12/10/2007 - 00:00

A partir de la rentrée 2008, les étudiants des universités de Paris devraient pouvoir disposer d'un environnement numérique de travail. C'est en tout cas ce qu'a annoncé le Conseil de Paris, sur proposition de Sandrine Mazetier, députée de la capitale et adjointe chargée de la vie étudiante. La Ville disposera d'une enveloppe de deux millions d'euros pour équiper ses universités parisiennes : un dispositif de Web conférence permettra de visionner des cours en direct, une plateforme SMS pourra alerter les étudiants des changements de planning de dernière minute ou des convocations, et une bibliothèque virtuelle donnera la possibilité de consulter les références et ouvrages de la bibliothèque universitaire. Enfin, un service d'accès au dossier social étudiant piloté par les services du Crous figure également au programme.

Depuis cette année, les universitaires parisiens ont déjà accès à une carte étudiante « multiservices ». Grâce à cette carte qui fait office de porte-monnaie électronique, ils peuvent régler leur repas au Crous, ou bien encore l'utiliser comme n'importe quelle carte Moneo (pour le stationnement notamment).Pour la rentrée 2008, la Ville envisage d'intégrer à la carte le pass Imagin'R qui donne accès à des tarifs réduits sur les transports d'Ile-de-France pour les 15 à 25 ans. A terme, tous ces éléments pourraient aboutir à une carte estudiantine unique et commune à toutes les universités de Paris.

RT

^ Haut
Avenir
Nanotechnologies et Robotique
Nanotechnologies : le français Albert Fert obtient le prix Nobel de physique
Vendredi, 12/10/2007 - 00:00

Le prix Nobel de Physique de cette année récompense la technologie utilisée pour lire l'information stockée sur des disques durs. C'est grâce à cette technologie qu'une miniaturisation radicale des disques durs a été possible ces dernières années", introduit l'Académie des sciences royales suédoises, dans un communiqué qui justifie son choix. Attribué au Français Albert Fert et à l'Allemand Peter Grünberg, cette récompense vient souligner autant l'exploit scientifique que les applications concrètes qui découlent des travaux des deux hommes

Leurs travaux portent sur la magnétorésistance géante ou GMR et l'électronique de spin. Synthétiquement, l'électronique de spin s'intéresse à la réaction du courant électrique, et notamment des électrons, lorsqu'ils traversent une couche ferromagnétique. Appliquée à l'informatique, cela signifie qu'au lieu d'appliquer une charge négative ou positive sur les électrons pour les guider, on agit sur leur propriété de spin (qui est une sorte d'aimant) pour l'attirer vers une substance magnétique proche.

«En orientant cette aimantation, il est donc possible d'agir sur le spin et de contrôler le mouvement des électrons. Cependant, pour l'exploitation de ces idées et l'éclosion de l'électronique de spin, il a fallu attendre les progrès technologiques de la fin des années 80 qui ont permis l'élaboration de couches ultra-minces et de structures artificielles de toute petite échelle», expliquait le physicien Albert Fert, alors qu'il recevait la médaille d'or 2003 du CNRS.

Grâce à ces recherches, l'industrie informatique a pu mettre au point des capteurs de champ magnétique très sensible, et réduire la résistance électrique des couches magnétiques des disques durs. Concrètement, il était possible de stocker plus d'informations sur une même surface, et en changeant de capteur, il était également possible de les lire. On estime aujourd'hui que la GMR a permis aux fabricants de disque dur d'augmenter dans un facteur x100 l'espace disponible sans multiplier les couches. Mieux, les travaux des deux chercheurs ont inspiré d'autres réflexions autour de l'électronique de spin. Par exemple, les fabricants de disques durs s'intéressent désormais à la GMR en courant perpendiculaire. Des recherches qui leur ont permis de dépasser aujourd'hui le teraoctets sur des disques durs de dernière génération. Ces travaux sont également étudiés pour élargir la capacité de stockage des mémoires à magnétorésistance ou MRAM. Persistante, ce type de mémoire pourrait remplacer à terme les mémoires vives temporaires, ou DRAM.

JDN

^ Haut
Matière
Matière et Energie
Ethanol cellulosique : les Etats-Unis font flèche de tout bois
Vendredi, 12/10/2007 - 00:00

Depuis la mention de l'éthanol cellulosique dans le discours sur l'état de l'Union prononcé par le président Bush en janvier 2006, les initiatives et annonces se multiplient à propos de la mise en place de nouvelles filières de bioéthanol utilisant notamment les matériaux cellulosiques.

Un jour avant la clôture de l'année fiscale (30 septembre 2007), le DoE a attribué 10 millions de dollars de reliquats de crédits à chacun des trois Bionergy Centers déjà lauréats en juin dernier d'un budget total de 375 millions de dollars sur 5 années. Cet apport supplémentaire permettra à chacun des centres de débuter immédiatement leurs recherches.

L'Université du Tennessee (Knoxville) a annoncé la conclusion d'un partenariat avec Mascoma corporation pour la construction de la première usine pilote (5 millions de gallons par an) utilisant l'herbe des prairies (Panic érigé, Panicum virgatum, Switchgrass). L'usine, implantée à Monroe County, qui devrait être livrée en 2009, représentera un investissement de 40 millions de dollars, tandis que 27 autres millions seront dépensés parallèlement dans des activités de R&D. L'Université du Tennessee est également impliquée dans le Bioenergy center dont le chef de file est Oak Ridge National Laboratory. L'Etat du Tennessee entend par ailleurs devenir leader dans la filière "Switchgrass". Macoma Corp. est déjà à l'origine de deux autres usines utilisant des matériaux cellulosiques qui seront implantées dans les Etats de New York et du Michigan.

Enfin, le Département d'Etat a officiellement lancé la préparation de la World International Renewable Energy Conference, qui aura lieu du 4 au 6 mars 2008 à Washington et devrait rassembler de nombreux délégués internationaux de niveau ministériel.

Lors de la réunion d'information présidée le 2 octobre 2007 par la sous-secrétaire d'Etat pour la démocratie et les affaires globales, Paula Dobriansky, les hauts représentants des différentes agences concernées (DoC, EPA, USDA) ainsi que du Council on Environmental Quality ont souligné que la coopération internationale autour du développement du bioéthanol cellulosique serait un des sujets de premier plan de la conférence.

En arrière plan de cet intérêt marqué pour l'éthanol cellulosique, la controverse sur les bénéfices environnementaux des agri-carburants, comme le bioéthanol à base de maïs, ne cesse de se développer. Un récent article cosigné par le Prix Nobel de chimie 1995 Paul Crutzen affirme que les émissions de protoxyde d'azote (N2O) des cultures annulent à elles seules la substitution des carburants fossiles par les biocarburants.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Emissions de CO2 : la France pourra-t-elle tenir ses objectifs ?
Vendredi, 12/10/2007 - 00:00

C'est un rapport qui devrait abondamment alimenter les concertations alors que s'ouvrent les débats du Grenelle de l'environnement. Selon une étude du Centre d'Analyse stratégique diffusée sur son site internet, «la France ne devrait pas être en mesure - comme le prévoit l'Union européenne - de diviser par 4 ses émissions de CO2 d'ici 2050, mais seulement par 2,1 à 2,4».

Dirigée par Jean Syrota, ancien président de la commission de régulation de l'énergie, la commission chargée de la mission a toutefois précisé que la France n'était pas tenue de respecter cet objectif étant donnée la part importante du nucléaire dans son "mix" énergétique.

«Rien ne justifie qu'un citoyen français doive consacrer des moyens économiques importants pour limiter ses émissions à la moitié de celles d'un citoyen allemand ou britannique», précise l'étude. En effet, d'après ces analyses, ce qui fait la différence par rapport aux partenaires européens que sont l'Allemagne, l'Italie, l'Espagne ou la Grande-Bretagne, «c'est que la France a presque totalement «décarboné» sa production d'électricité» grâce à la production hydraulique et nucléaire. Et d'ajouter que Paris doit, tout en développant les énergies renouvelables, maintenir la part de production énergétique nucléaire.

Les propositions du rapport Syrota

BIOCARBURANTS

Alors que les biocarburants divisent les membres du Grenelle, ce rapport demande "l'arrêt des investissements nouveaux" dans la production de biocarburants de première génération, car ils n'utilisent pas toute la plante, "ce qui entraîne des coûts élevés, une utilisation des surfaces agricoles importante et un renchérissement des matières premières concernées (blé, maïs)".

Il propose néanmoins de développer la recherche sur les biocarburants de deuxième génération, qui utilisent toute la plante pour produire de l'énergie.

NUCLEAIRE

Sur le nucléaire, qui fait aussi débat au Grenelle, le rapport propose de développer la recherche en faveur des réacteurs nucléaires de quatrième génération, qui prendront la relève des réacteurs de troisième génération EPR.

TRANSPORTS

Le rapport Syrota propose une augmentation de la taxe intérieure sur les produits pétroliers (TIPP) de 3 centimes d'euro par an pour l'essence, et de 5 centimes pour le gazole.

Il suggère le rétablissement d'une vignette automobile sous la forme d'une taxe annuelle pour les véhicules dont les émissions polluantes dépassent les 120 grammes par kilomètre, avec une progressivité visant à pénaliser les plus polluants d'entre eux.

Il propose la mise en place, par les collectivités locales, de péages urbains.

BATIMENT

Dans le bâtiment existant, il suggère d'étendre aux propriétaires-bailleurs les avantages fiscaux pour les dépenses favorisant les économies d'énergie et l'utilisation d'énergies renouvelables, en les limitant aux équipements "les plus performants".

Il propose de rendre obligatoire un "ravalement thermique" (isolation) des immeubles dans un délai de dix ans.

Vers une baisse des coûts de piégeage du CO2 grâce aux nanotechnologies ?
Vendredi, 12/10/2007 - 00:00

Un projet européen baptisé NANOGLOWA (Nanomembranes against Global Warming) s'est assigné pour mission d'élaborer une nouvelle technique de piégeage du CO2 émis par les centrales électriques à l'aide des nanotechnologies. Les membranes nanostructurées pourraient en effet diminuer la consommation énergétique et les coûts de piégeage du CO2, les rendant ainsi plus intéressantes que les technologies actuelles.

Chaque année, l'Europe produit et dégage dans l'atmosphère une gigatonne de dioxyde de carbone, dont environ un tiers provient de centrales électriques à combustibles fossiles. Le piégeage et le stockage du carbone pourraient réduire ces émissions jusqu'à 90 %. L'idée consiste donc à stocker le carbone ainsi capturé sous terre, par exemple, dans des poches de gaz vides ou des nappes aquifères. Les méthodes de piégeage actuelles impliquent une absorption et un refroidissement non sélectif.

Au cours du processus d'absorption, les gaz émis - composés principalement d'azote, d'eau, de particules de poussière, et bien entendu, de CO2 - circulent à travers différents bains dans lesquels le dioxyde de carbone s'allie à des amines. Cette technologie est toutefois loin d'être efficace en termes d'énergie ou de coût, étant donné qu'elle peut accaparer jusqu'à 25 % de l'énergie effectivement produite et qu'elle nécessite de grandes installations et le recours à des substances chimiques, affirme l'équipe du projet NANOGLOWA. La séparation du CO2 à l'aide de membranes ne consommerait en revanche qu'un maximum de 8 % de l'énergie produite et exigerait un coût d'installation inférieur. Il reste toutefois à mettre au point des membranes adéquates.

À ce jour, cinq types distincts de nanomembranes sont développés simultanément dans le cadre de ce projet:

- des membranes polymères:

- - membranes de transport par diffusion en copolymères blocs;

- - membranes à courant porteur stationnaires en acétate de cellulose ou polyamides;

- - membranes ionomères à haute tension en matériaux modifiés électriquement;

- des membranes à carbone:

- - membranes à carbone à tamis moléculaire;

- des membranes céramiques.

Les membranes polymères sont économiques, mais elles semblent se dilater lorsqu'elles sont mises en contact avec le CO2 à une pression élevée. Leur sélectivité et, partant, leur efficacité pourraient donc être sensiblement affaiblies. Les membranes à carbone sont bien développées et attestent une bonne sélectivité, déclare l'équipe NANOGLOWA, mais elles pourraient être contaminées par les gaz émis par la centrale électrique.

Enfin, les membranes céramiques sont extrêmement stables et présentent une grande longévité étant donné qu'elles réagissent bien aux conditions extrêmes telles que les hautes températures. Après leur développement dans des laboratoires universitaires, ces membranes seront expérimentées dans des centrales électriques pilotes au cours de la cinquième et dernière année du projet (2011).

Le projet NANOGLOWA mobilise 26 organisations, dont six universités et cinq opérateurs de centrales électriques, ainsi que des partenaires industriels et des petites et moyennes entreprises (PME) issus de 14 pays européens. Financé à hauteur de 7 millions d'euros par la Commission européenne au titre du sixième programme-cadre, le projet coûte 12,5 millions d'euros au total.

Cordis

Les nanotechnologies au service de l'écoconstruction
Vendredi, 12/10/2007 - 00:00

Dans un récent rapport intitule "Nanotechnology for green building", le Dr Elvin, directeur de Green Technology Forum, met en avant les possibilités technologiques et commerciales qu'offrent les nanotechnologies en matière d'ecoconstruction. Le rapport souligne que certaines grandes villes américaines telles que Chicago ou Seattle ont déjà instauré des règles afin que les nouveaux bâtiments construits respectent certaines normes écologiques. Néanmoins les technologies actuellement disponibles ne permettent pas dans toutes les circonstances de respecter ces normes et le développement des nanomatériaux semble être la solution idéale pour résoudre ces problèmes.

Le rapport identifie plus de 130 entreprises et plus de 50 projets de recherche en nanomatériaux et répertorié un certain nombre de domaines qui pourraient bénéficier des nanotechnologies, comme par exemple les matériaux de construction (béton, acier, matériaux composites, plastiques, polymères, etc.), les matériaux pour l'isolation phonique et thermique (aérogel, couches minces), la création de peintures aux caractéristiques nouvelles (auto-nettoyantes, anti-bactériennes, anti-corrosions).

Les nanotechnologies pourraient également permettre une gestion plus efficace de l'énergie avec la fabrication de sources lumineuses a haut rendement (LED, OLED), le développement de l'énergie solaire (silicium, organique), du stockage de l'énergie électrique, de la purification de l'air et de l'eau.

BE

Le carburant vert jaillira-t-il des océans ?
Vendredi, 12/10/2007 - 00:00

Les océans et les mers constituent le second grenier alimentaire de l'humanité, sans doute la source ultime de protéines. Mais ce sont peut-être aussi notre future source de carburants liquides, neutres en CO2, le nouveau gisement duquel on va extraire les biomatériaux, bioplastiques et autres fibres qui prendront le relais des hydrocarbures d'origine fossile, au fur et à mesure de leur épuisement. Il y a un peu plus de dix ans, de nombreuses équipes de recherches se sont lancées dans l'étude des algues. Si leur usage dans l'alimentation et la cosmétique est bien connu, l'intérêt des algues pour produire de l'essence ou du diesel était tombé en désuétude dès l'effondrement des prix du pétrole. Depuis deux ans, tout a changé : en Europe comme aux Etats-Unis, les chercheurs multiplient les communications scientifiques. Pour plusieurs équipes, l'avenir de la production de biocarburants ne se jouera en réalité plus dans les champs car les besoins alimentaires limiteront de facto l'utilisation de la biomasse à des fins énergétiques. A l'inverse, la production d'algues n'est a priori pas limitée par la contrainte des surfaces. Des travaux planchent sur la création d'étangs géants qui seraient dédiés à la production d'algues, certaines produisant naturellement de l'huile, donc une source de diesel, et d'autres livrant des sucres et donc une source de bioéthanol. Des étangs qui pourraient également servir de bioréacteur naturel pour absorber des déchets et épurer des eaux souillées.

Selon les chercheurs danois de l'Institut national de recherche environnementale (NERI-DMU), l'algue très connue, la laitue de mer (Ulva lactuca) serait une bonne candidate pour la production de bioénergie. Selon leurs estimations préliminaires, il est possible de produire (théoriquement) 700 fois plus de biomasse par hectare avec des algues en comparaison d'un champ de blé. De plus, la laitue de mer a une croissance très rapide et contient un pourcentage élevé d'hydrates de carbone. L'Ulva et les espèces proches sont largement répandues dans le monde et constituent même un problème environnemental en raison de leur prolifération (eutrophisation). Autre avantage des algues: elles poussent aussi dans les eaux salées, polluées et pas uniquement dans les aquifères d'eau douce qui se font rares. Dans le cas de la laitue de mer, sa prolifération pourrait même être stimulée par l'injection de CO2 excédentaire produit par les centrales électriques à gaz ou au charbon; les algues transformeraient indirectement le CO2 en diesel ou bioéthanol. Le laboratoire américain NREL (National Renewable Energy Laboratory), qui avait passé au crible le potentiel des macro et micro-algues, vient tout juste de relancer des recherches. Selon l'un de ses directeurs, Eric Jarvis, cité par la Technology Review du MIT, «l'envolée des prix du pétrole change la donne. L'intérêt pour les algues est immense en ce moment car ce sont sans doute de très bons candidats pour produire des biocarburants.»

A priori, le procédé le plus économique consisterait à «cultiver» des algues dans des étangs. En pleine mer, les algues risquent en effet d'être à tout moment dispersées par le ressac des vagues. Les ingénieurs imaginent des étangs clos ou de véritables plates-formes marines utilisant des tubes immergés afin de protéger les cultures et de faciliter la récolte. Des ingénieurs allemands, spécialisés dans l'aquaculture, proposent d'associer de telles fermes à des parcs éoliens en pleine mer et de production de moules et autres fruits de mer, histoire de rentabiliser d'autant les investissements offshore.

Mais les algues n'ont pas fini de nous étonner. Ainsi, la spiruline, une algue aux multiples vertus alimentaires et thérapeutiques, fait l'objet de recherches nouvelles très intenses. Des chercheurs pensent qu'elle serait le catalyseur idéal pour produire naturellement l'hydrogène, le vecteur de l'énergie de demain dont rêve Nicolas Hayek.

LT

L'idée lumineuse de la Chine pour réduire l'effet de serre
Vendredi, 12/10/2007 - 00:00

La Chine, à l'origine 70 % des ampoules de la planète, accepte d'abandonner progressivement la production de lampes à incandescence au profit d'ampoules à l'efficacité énergétique accrue. Elle se place, avec l'Australie, en pays leader dans ce domaine.La transition pourrait s'étaler sur les dix prochaines années, estime Monique Barbut, directrice générale du Fonds pour l'Environnement Mondial (FEM). « Nous initions une campagne mondiale pour interdire les ampoules peu efficaces, a expliqué Monique Barbut, à l'occasion du Sommet Environnemental Reuters à Washington.

Le programme de la Chine sera formellement annoncé en décembre lors de la rencontre dédiée au climat à Bali, en Indonésie », a-t-elle ajouté. Orienter la production vers des ampoules plus efficaces pourrait supprimer l'émission de 500 millions de tonnes de gaz à effet de serre annuellement, l'équivalent de la moitié des émissions de l'Allemagne, a précisé Monique Barbut. La Chine est le premier pays à rejoindre le programme. Le fonds investira environ 17 millions d'euros pour la seule section chinoise. D'autres participants pourraient s'ajouter, comme le Mexique, l'Indonésie, le Venezuela et le Costa Rica, selon Monique Barbut. « Si nous le voulons et que les pays acceptent, le changement pourrait avoir lieu dans les dix prochaines années », estime la présidente. Le FEM est une des plus riches agences de financement au monde et aussi l'une des moins connues.

Avec un fonds fiduciaire avoisinant les 2,3 milliards d'euros, l'agence basée à Washington est le bras financier des accords intergouvernementaux sur la biodiversité, le changement climatique et les polluants organiques. Elle soutient également les accords concernant les eaux internationales, l'ozone et la désertification. Au fur et à mesure de l'avancement du programme de substitution des ampoules, l'agence environnementale prévoit la mise en place d'un fonds destiné à fournir les plus pauvres en ampoules plus efficaces.En effet, les ampoules développées récemment coûtent quatre fois plus cher que les ampoules moins efficaces, mais leur durée de vie est dix fois plus longue.À éclairage égale, les lampes fluorescentes compactes utilisent entre un quart et un cinquième de l'énergie utilisée par des lampes à incandescence.

Parmi les pays riches, l'Australie a déjà décidé de supprimer progressivement les lampes à incandescence d'ici à 2010. « Le projet est en discussion avec les pays européens et les États-Unis, ajoute Monique Barbut. Mais sur ce point, la Chine est en avance par rapport aux Américains. » « L'envergure internationale du programme pourrait avoir un impact sur le nombre de types d'ampoules en production. Elles pourraient passer de trente à quatre ou cinq, prédit Monique Barbut.

ALC

Plan climat de Paris : 30 % de réduction des émissions de gaz à effet de serre d'ici 2020 et une priorité à l'habitat
Vendredi, 12/10/2007 - 00:00

Adopté à l'unanimité par le Conseil de Paris le 1er octobre, ce document vise en particulier à réduire les émissions de gaz à effet de serre liées aux logements. l'un des principaux postes d'émissions de carbone de la ville (1,75 million de tonne équivalent carbone ou 35000GwH d'énergie consommés annuellement), à égalité avec le transport des personnes et des marchandises, selon le Bilan Carbone de l'Ademe. Une convention a été signée entre la ville, les professionnels du bâtiment et l'Agence nationale de l'habitat (Anah) pour faciliter l'information des particuliers. Les objectifs que s'est fixé la capitale française pour elle-même sont les suivants : 30% de réduction des émissions de gaz à effet de serre (GES) d'ici 2020 par rapport au niveau de 2004; 30% de réduction des consommations énergétiques du parc municipal et de l'éclairage public ; 30 % des consommations provenant d'énergies d'origine renouvelable.

Concernant le territoire parisien, le plan climat prévoit une diminution de 25 % des émissions de GES et de 25 % des consommations énergétiques, qui doivent provenir à 25 % des énergies renouvelables. Une agence parisienne du climat sera par ailleurs créée, qui devra, selon l'adjoint au maire chargé de l'environnement Yves Contassot, «devenir la référence tant pour les projets de la ville que pour tous les acteurs du territoire parisien». A Paris, le patrimoine bâti de l'habitat et du tertiaire est à l'origine de 27% des émissions de GES à Paris, essentiellement à travers le chauffage. La ville prévoit donc de diagnostiquer 3.000 équipements publics sur 3 ans et de mettre en oeuvre un plan de rénovation de son parc, à travers la rénovation thermique des bâtiments, le renouvellement des équipements de chauffage ou de ventilation, la réduction des consommations électriques, la gestion performante de l'éclairage public, et l'accroissement de la part des énergies renouvelables dans la consommation. Un Ainsi, les émissions de GES du patrimoine, hors transports, pourraient être réduites de 39 % d'ici 2020. Un plan de réhabilitation des logements sociaux est par ailleurs prévu, la priorité étant donnée au quart le plus énergivore.

Localtis

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le Nobel de médecine récompense des travaux sur les cellules souches
Vendredi, 12/10/2007 - 00:00

Les Américains Mario Capecchi et Oliver Smithies, ainsi que le Britannique Martin Evans, se sont vu décerner le prix Nobel de médecine pour des découvertes sur les cellules souches embryonnaires qui ont permis de comprendre le rôle joué par certains gènes dans le développement de maladies telles que le diabète, les maladies cardio-vasculaires ou le cancer. Les trois scientifiques ont été couronnés pour la mise au point du ciblage génétique, une technique qui consiste à désactiver ou modifier certains gènes de souris afin d'étudier comment ces gènes affectent la santé. L'utilisation du ciblage génétique a permis d'améliorer la connaissance de "nombreux gènes impliqués dans le développement embryonnaire, la physiologie de l'adulte, le vieillissement et les maladies", selon le communiqué de la Fondation Nobel.

Selon le comité Nobel, les travaux des trois chercheurs ont contribué à mettre en lumière "les rôles de nombreux gènes dans le développement embryonnaire, la physiologie adulte, le vieillissement et la maladie". Les résultats de leurs recherches ont fait émerger la technique médicale du "ciblage de gène" - méthode qui, en neutralisant certains gènes, permet aux chercheurs d'établir le rôle individuel des gènes en matière de santé et de maladie.

"La mise au point de la technologie du ciblage de gène chez la souris a exercé une influence profonde sur la recherche médicale", a déclaré Stephen O'Rahilly, responsable du service de biochimie clinique à l'Université de Cambridge. "Grâce à cette technologie, nous comprenons beaucoup mieux le rôle de gènes précis dans les circuits de l'ensemble de l'organisme et sommes mieux à même de prédire si l'action médicamenteuse sur ces circuits est susceptible d'avoir des effets bénéfiques en cas de maladie."

Les premières annonces concernant des souris manipulés de cette manière remontent à 1989. Plus de 10.000 gènes de souris différents ont pu être étudiés grâce à cette technique, a déclaré le Comité Nobel. Cela représente la moitié des gènes que possèdent ces rongeurs. Le Comité souligne que le ciblage génétique a envahi tous les domaines de la biomédecine et estime que "ses bénéfices pour le genre humain vont continuer de croître pendant de nombreuses années". Bien que le ciblage génétique utilise les cellules souches embryonnaires de souris, la recherche est très différente concernant le traitement des maladies par les cellules souches. Chez les humains, les cellules souches pourraient notamment produire des cellules nerveuses pour être transplantées sur des patients.

NO

Cancer de la peau : la piste d'un traitement par thérapie génique
Vendredi, 12/10/2007 - 00:00

La peau semble être une candidate idéale pour les traitements par thérapie génique, qui consistent à introduire dans des cellules du patient la version normale du gène (gène thérapeutique) dont l'altération est responsable de la maladie. Ces traitements doivent cibler les cellules souches, qui sont à l'origine des autres cellules de la peau et dont la durée de vie, quasi-illimitée, garantit que le gène transféré ne va pas disparaître à mesure que la peau se renouvelle. Or, on sait isoler et cultiver les cellules qui composent la peau, re-générer de la peau en laboratoire et réaliser des greffes, comme on le pratique déjà chez les grands brûlés. On peut donc envisager d'isoler des cellules souches, de les « corriger » par thérapie génique, puis de régénérer une peau saine à partir de ces cellules, pour la greffer aux patients.

Mais la thérapie génique ne touche pas (ou exceptionnellement) la totalité des cellules. Dans le cas de maladies génétiques qui prédisposent les patients au cancer de la peau, il faut procéder à l'élimination des cellules non corrigées, qui risqueraient d'être à l'origine d'une nouvelle tumeur. Cette étape s'appelle la « sélection après correction génétique ». Jusqu'à présent, en plus du gène thérapeutique, on introduisait un gène de résistance à un antibiotique (souvent d'origine bactérienne), puis les cellules étaient cultivées en présence de cet antibiotique, de sorte à ce que toutes les cellules non corrigées soient éliminées. Cette méthode de sélection, si elle permettait de faire des expériences sur la souris « immunodéprimée », était incompatible avec les greffes, pour des problèmes de toxicité et de rejet provoquées par le gène de résistance à l'antibiotique

L'objectif des travaux de l'équipe Génétique et physiopathologie des cancers épidermiques, au laboratoire Génomes et cancer (CNRS/ Université Paris-Sud 11, Institut Gustave Roussy) est de corriger les cellules de l'épiderme des patients atteints d'une maladie génétique rare appelée xeroderma pigmentosum. Cette maladie se caractérise par une intolérance à la lumière solaire et une très forte prédisposition aux cancers de la peau. Les patients ne bénéficient d'aucun traitement efficace. Les recherches basées sur la correction génétique représentent donc un espoir important. Les chercheurs ont conçu une méthode de sélection des cellules génétiquement corrigées compatible avec les perspectives de greffe.

Pour cela, les cellules génétiquement manipulées ont été « étiquetées » à leur surface à l'aide d'une petite protéine humaine permettant de les reconnaître, puis de les purifier sans les endommager (il n'y a dans ce cas a pas de gêne de résistance à un antibiotique). La population cellulaire obtenue est presque exclusivement constituée de cellules souches. Ces cellules conservent leurs propriétés. Elles sont capables de se multiplier au laboratoire pendant plus d'une année et de régénérer une peau reconstruite (un modèle de peau simplifié). Elles sont aussi capables de régénérer à très long terme une peau normale, lorsqu'elles sont greffées chez la souris. La méthode développée prouve donc son innocuité et devrait être compatible avec la greffe chez les patients atteints de maladies génétiques cutanées (xeroderma pigmentosum, épidermolyses bulleuses...). Les chercheurs se proposent, dans un premier temps, de remplacer les autogreffes des patients atteints de xeroderma pigmentosum, victimes de nombreuses tumeurs qu'il faut enlever, par des autogreffes de cellules génétiquement corrigées.

SG

Traitement ciblé du cancer : la piste des micro RNA
Vendredi, 12/10/2007 - 00:00

Malgré les progrès réalisés ces dernières années dans la compréhension des mécanismes moléculaires impliqués dans la carcinogenèse et la découverte de nouveaux traitements, le cancer reste la deuxième cause de mortalité dans le monde et certains types comme le glioblastome (cancer au niveau du cerveau) ou le mésothéliome malin (dû essentiellement à une exposition à l'amiante) n'ont pas encore de traitement efficace pour une survie qui varie de quelques mois à deux ans après détection.

Les échecs thérapeutiques sont souvent dus au stade avancé au moment de la détection, à l'impossibilité de recourir à la chirurgie, à la toxicité de la chimiothérapie et à l'acquisition d'une résistance au traitement. De nouvelles pistes de traitement sont actuellement en cours d'exploration. Les micro-RNA constituent l'une des nouvelles voies qui visent à empêcher de façon spécifique l'expression de gènes indispensables au développement et à la croissance tumorale.

Ces "micro RNA" sont des ARN de toute petite taille, (de 15 à 30 nucléotides), qui ne codent pour aucune protéine mais jouent un rôle important dans la régulation des gènes impliqués dans le développement, la différentiation, la prolifération, l'apoptose et d'autres processus cellulaires. De nombreuses publications ont montré que les micro RNA, appelés ARN interférents (ARNi), sont capables de rendre un gène silencieux ou de dégrader de façon spécifique les ARN messagers "indésirables" et ainsi empêcher des pathologies dont le cancer.

Une étude récente réalisée par le Pr. Corsten et ses collaborateurs de la Harvard Medical School de Boston vient de montrer que le niveau de micro ARN-21 était élevé dans des cellules de gliome, et que sa suppression induisait l'inhibition de la prolifération des cellules et une éradication complète de la tumeur induite dans le cerveau de la souris. D'autre part, Shi et ses collaborateurs du "Kimmel Cancer Center" de Philadelphie, montrent que l'inhibition spécifique du récepteur de l'insuline, par ARNi (miR145), provoque l'inhibition de la croissance de cellules d'un cancer du colon. Ces deux récentes découvertes démontrent les nouvelles perspectives offertes par les ARNi dans le développement de nouvelles approches thérapeutiques dans le traitement du cancer

BE

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
560 km avec un plein d'hydrogène
Vendredi, 12/10/2007 - 00:00

Le constructeur automobile japonais Toyota a réussi à faire rouler pendant 560 km une voiture à batterie à combustible avec un seul plein d'hydrogène, grâce à un nouveau réservoir qui permet de stocker davantage de gaz à haute pression. Ce voyage sans arrêt entre Osaka et Tokyo a été effectué, avec la climatisation branchée en permanence, par une nouvelle version du véhicule à batterie à combustible FCHV, a indiqué Toyota.

Cette nouvelle version dispose d'un réservoir à hydrogène pressurisé capable de contenir deux fois plus de gaz que celui du modèle précédent (la pression à laquelle ce gaz est stocké étant doublée). Ce nouveau réservoir porte l'autonomie maximale du véhicule à 750 km, a affirmé le groupe ce week-end. Toyota est un pionnier des voitures à batterie à combustible. Les batteries à combustible ont pour particularité de ne pas rejeter de substances nocives dans l'atmosphère, se contentant de produire de l'électricité, d'émettre de la chaleur et de déverser de l'eau.Le principal obstacle à la commercialisation de masse de ce type de moteur «propre» reste pour l'instant la difficulté de stocker de l'hydrogène à haute pression dans une voiture pour obtenir une autonomie acceptable. Les chercheurs japonais prévoient que la commercialisation à grande échelle des voitures à batterie à combustible n'interviendra que vers 2020, une fois tous les obstacles techniques et de coût surmontés.

Wikio

Transports publics : 43,5 milliards nécessaires contre le réchauffement climatique
Vendredi, 12/10/2007 - 00:00

Une réduction de 20 % des gaz à effet de serre émis par les transports publics d'ici 2020 nécessiterait un investissement de 43,5 milliards d'euros, selon une estimation du Groupement des autorités responsables des transports (GART) rendue publique mardi 2 octobre. Ce chiffrage a été remis au ministre de l'Ecologie et du développement durable, Jean-Louis Borloo, par l'association d'élus présidée par le député-maire de Grenoble, Michel Destot. Dans le cadre de la préparation du Grenelle de l'Environnement, le ministre avait confié au GART une mission d'évaluation du montant des investissements nécessaires dans les transports en commun, pour réduire de 20 % à l'horizon 2020 les émissions de gaz à effet de serre (GES) liées aux transports urbains et périurbains.

Selon le GART, le développement des transports en commun en site propre (TCSP, métros, tramways ou bus en site propres) sera particulièrement pertinent pour permettre un transfert de l'automobile vers le transport collectif, plus économe en "espace consommé" et en pollution, en offrant une vitesse commerciale égale ou supérieure à celle de l'automobile. Si nous voulons changer la donne (...) nous devons à la fois développer les infrastructures (notamment tramways et bus) et les services (fréquences, amplitudes horaires, vitesse commerciale) souligne le GART dans la note remise au ministre. Le budget de 43,5 milliards d'euros envisagé par le GART permettrait d'atteindre un trafic proche de 60 milliards de voyageurs par transports en commun à l'horizon 2020 contre 49 milliards dans un scénario "au fil de l'eau". Le trafic était de 35 milliards en 2005, représentant seulement 10% des déplacements quotidiens dans les villes moyennes et 20% en Ile-de-France.

Le GART estime qu'il faudrait investir 26,8 milliards d'euros en Ile-de-France pour augmenter les capacités en renouvelant les matériels roulants, en automatisant des circulations et en créant 200 km d'infrastructures supplémentaires (1.650 km actuellement).L'enveloppe serait de 16,7 milliards en province, en particulier pour doubler la taille du réseau de TCSP (2.500 km contre 1.200 km actuellement).

NO

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top