RTFlash

RTFLASH Recherche & Technologie
NUMERO 400
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Octobre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Japon : NTT bat le record de capacité de transmission sur fibre optique
Puy-de-Dôme : une clinique suit ses malades grâce au Wi-Fi
Un nouveau record de communication cryptée quantique
Fibre optique : près de 42 millions d'abonnés dans le monde vers 2010
Sharp : un téléviseur LCD avec trois images différentes selon l'angle de vue
Prescrire des jeux vidéo pour mieux soigner
Matière
Japon : une structure musculaire robotique pour rééduquer les bras paralysés
Un nouveau dispositif de chauffage combine la géothermie et le solaire thermique de manière optimale
Un nouveau type de silicium pour le solaire photovoltaïque
Les supercondensateurs au secours des véhicules propres
Espace
Premières images haute résolution de la surface de Mars
Premières images de planètes en formation
Terre
Le mystère du méthane enfin expliqué
Trou record dans la couche d'ozone au-dessus de l'Antarctique
Nobel de physique à deux Américains pour la confirmation du big bang
Vivant
Cancer du colon : le pronostic lié à la vigueur du système immunitaire
Cancer du poumon : bientôt un test de dépistage sanguin précoce ?
Le Prix Nobel de médecine récompense deux chercheurs américains
Edito
Biocarburants : il faut passer à la deuxième génération



Le ministre de l'Economie et des Finances Thierry Breton a reçu, le 26 septembre, le rapport d'Alain Prost, intitulé "Flexfuel 2010", concernant la généralisation en France de l'usage d'un biocarburant, l'E85. S'appuyant sur ce rapport très favorable au développement des biocarburants, le ministre a annoncé le lancement en 2007 de 500 "pompes vertes" au bioéthanol, afin de proposer aux automobilistes "une essence verte beaucoup moins chère".

Au plus tard en 2010, chaque station-service devra mettre à disposition du consommateur à la fois de l'essence et des biocarburants, a indiqué le ministre, ajoutant qu'il faudrait doubler en France la capacité de production de bioéthanol. Le coût de l'E85 - avec une part d'éthanol de 85% pour 15% d'essence - au kilomètre, doit être "assez proche du prix du gazole", a ajouté M. Breton.

Actuellement, le plan français en matière de biocarburants, annoncé en juin 2006, prévoit leur montée en puissance afin qu'ils représentent 7 % du volume des carburants vendus en 2007 et 10 % en 2015, contre 1,75 % en 2006. Sur le plan agricole 400 000 ha sur 10 millions d'hectares cultivés en céréales et betteraves permettent de satisfaire l'objectif d'incorporation de 7 % de biocarburants en 2010 pour la filière essence.

Mais alors que la France accélère la mise en place de la filière biocarburant sur ses terres, la Suède possède déjà une longueur d'avance sur notre pays et s'affirme comme le pays pionnier en matière de biocarburants. Aujourd'hui, la Suède est le plus gros consommateur d'éthanol en Europe et l'énergie représente pour la filière agricole suédoise environ 10 % du chiffre d'affaires de la coopérative nationale suédoise.

Quant aux constructeurs automobiles et aux consommateurs, ils ont résolument pris le virage des biocarburants: en 2005, en Suède, les véhicules "propres" ont ainsi représenté 10 % des immatriculations. Et la tendance est à la hausse. Sur le premier trimestre 2006, ils représentent 12 %.

Cette évolution a été largement favorisée par la politique très volontariste du gouvernement mise en oeuvre par le gouvernement suédois depuis 2004. Afin d'imposer l'E 85 (mélange constitué d'essence et de 85 % d'éthanol) dans le pays, la Suède a en effet décidé de supprimer les taxes sur le bio-éthanol jusqu'en 2013. A la pompe, l'E 85 est ainsi affiché à 0,87 euro le litre, contre 1,25 euro pour le SP 95. Cet allégement s'accompagne d'une baisse de 20 à 30 % de la TVA sur l'achat de ces véhicules "propres".

Par ailleurs, afin de soutenir un peu plus encore le développement du bio-éthanol, le gouvernement donne lui même l'exemple. Les administrations publiques (Police, Poste...) ont, en effet, pour obligation de réaliser 75 % de leurs achats de véhicules avec ce type de carburation. Et pour tous les véhicules "propres", les péages sont gratuits !

Depuis le 1er avril dernier, toutes les stations qui vendent plus de 3 000 m3 d'essence ou de gazole par an, sont obligées de proposer une alternative énergétique à leurs clients. Qu'il s'agisse, d'ailleurs, de bioéthanol, de biogaz ou de toute autre énergie.

En Suède, les collectivités locales sont en pointe en matière d'initiative pour promouvoir l'usage des biocarburants. La ville de Stockholm représente ainsi 40 % des véhicules "propres" vendus en Suède. La capitale a, en effet, pris en début d'année la direction d'un programme international pour l'utilisation de bioéthanol dans les transports. A la fin de l'année, 60 % de la flotte municipale fonctionnera ainsi grâce à des biocarburants. Stockholm a rendu tous les parkings et les péages urbains gratuits pour ce type de véhicules. Enfin fin 2006, 25 % des bus en circulation dans la capitale suédoise fonctionneront au biogaz ou au bioéthanol. L'objectif est de porter cette proportion à 50 % pour 2011.

Mais la Suède, non contente d'être en pointe dans les biocarburants de première génération, a également l'intention d'exploiter pleinement les immenses ressources de sa biomasse pour produire des biocarburants de deuxième génération n'entrant pas en compétition avec les productions alimentaires (bois, paille et résidus biologiques de nos ordures). Actuellement, 80 % de l'éthanol consommé en Suède provient de la canne à sucre brésilienne mais la Suède compte démarrer en 2008 une usine de production d'éthanol à partir de déchets de bois et de blé.

Il est vrai qu'en Suède comme en France ces biocarburants de deuxième génération représentent une solution d'avenir qui fait sauter le goulot d'étranglement lié à la limitation des surfaces agricoles pouvant être consacrées aux biocarburants. En France, en 2004, quelque 300 000 hectares étaient consacrés aux biocarburants. On devrait approcher le million d'hectares en 2007 - pour produire 1 million de tonnes - ce qui représente 3 % de la surface agricole utilisée du pays. Si l'on voulait obtenir 35 millions de tonnes, pour couvrir nos besoins en gazole, il faudrait mobiliser 35 millions d'hectares, soit la totalité de la surface agricole hexagonale. Les objectifs annoncés comme accessibles, et sans doute acceptables, se situent autour de 3 millions de tonnes. Il convient donc de développer de nouvelles filières énergétiques qui utilisent une ressource moins limitée et ne soient pas en concurrence avec l'usage alimentaire.

L'avenir appartient donc à la conversion de biomasse lignocellulosique d'origine forestière et agricole : bois, paille, déchets végétaux. Autre axe de recherche : la production de gaz de synthèse (à partir de charbon, de gaz naturel ou de biomasse ; Gas To Liquid ou BTL) pour fabriquer des carburants de synthèse.

La France possède tous les atouts pour relever ce défi majeur : la forêt française est la deuxième d'Europe. Elle progresse de 50 000 hectares par an et couvre actuellement, avec les autres espaces boisés que sont peupleraies, bosquets et arbres épars, 16,6 millions d'hectares, soit un peu plus de 30 % du territoire métropolitain, contre environ 10 millions d'hectares au début du XXe siècle. En outre, notre pays est en pointe en matière de recherche pour la transformation du bois et des déchets végétaux en biocarburants.

Un récente étude révèle que 89 % des français se déclarent prêts à acheter un véhicule roulant au biocarburant, et 68 % sont mêmes prêts à payer plus cher à la pompe pour « rouler propre ». Cette prise de conscience de nos concitoyens montre que si nous savons faire preuve, comme la Suède, d'une volonté politique forte et d'une vision de l'avenir à long terme, nous pouvons, d'ici 10 ans, devenir un pays pionnier au niveau mondial en matière de production de biocarburants à partir du bois et de ses dérivés. Souhaitons que la France se donne les moyens de relever ce défi majeur pour son économie, l'emploi et l'environnement.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Japon : NTT bat le record de capacité de transmission sur fibre optique
Vendredi, 06/10/2006 - 00:00

Le géant des télécommunications japonais NTT a annoncé le 29 septembre avoir battu un nouveau record de capacité de transmissions de données sur fibre optique à titre expérimental.

NTT a expliqué dans un communiqué être parvenu à une capacité de transmission de 14 terabits par seconde (Tbit/s) sur une distance de 160 kilomètres en utilisant une seule fibre dans laquelle ont été créés 140 canaux ayant chacun un débit de 111 gigabits par seconde (Gbit/s). Jusqu'à présent, le record en la matière était de 10 Tbit/s en laboratoire. L'augmentation des capacités de transmission de données s'appuie sur la combinaison de plusieurs technologies dont le multiplexage de longueur d'ondes (WDM), qui permet de transmettre dans la même fibre des dizaines de canaux se différenciant par la couleur (longueur d'onde) employée.

"Pour réussir cette transmission, nous avions à résoudre deux problèmes simultanément", a détaillé NTT : "d'une part optimiser la technologie de multiplexage de longueur d'ondes, et d'autre part élargir la plage de fréquences de fonctionnement des amplificateurs".

Le but de ces recherches est d'augmenter les capacités des réseaux optiques tout en améliorant leur rentabilité économique."NTT ambitionne de construire un coeur de réseau optique qui excelle en termes de qualité et d'économie, et de promouvoir la réalisation de systèmes de transmission longue distance qui supportent des canaux offrant un débit de 100 Gbit/s" contre 10 ou 40 Gbit/s par canal actuellement, a-t-il précisé.

NTT

Puy-de-Dôme : une clinique suit ses malades grâce au Wi-Fi
Vendredi, 06/10/2006 - 00:00

Dès sa création en 1974, La Clinique de la Châtaigneraie, qui réalise environ 1 500 interventions chirurgicales par mois s'est dotée de moyens informatiques innovants. Les dernières réalisations sont la gestion des commandes repas des patients en chambre et la mise en place d'un réseau sans fil permettant un accès au dossier médical au lit du patient et de fournir un service d'accès à Internet dans les chambres.

Mais cette fois, cet établissement vient de déployer dans ses 16 salles d'opération le système de géolocalisation en temps réel RTLS (Real-Time Location System) d'Ekahau, lui même basé sur le réseau sans fil de Symbol. Doté de deux commutateurs sans fil WS5100 et de 30 points d'accèsAP300 de Symbol, ce système permet la localisation en temps réel des patients et poursuit trois objectifs : "améliorer le confort du patient en réduisant les temps d'attente ; assurer une traçabilité sans faille de son passage au bloc opératoire sans entraîner de surcharge de travail pour le personnel ; fournir aux soignants une information fiable et en temps réel", détaille Marc Blanchet, responsable informatique de la clinique.

Jusqu'alors, le système de traçabilité des patients était manuel. Chacune des salles des deux blocs opératoires de l'établissement étant équipée d'un PC, les infirmières y saisissaient les informations d'entrée et de sortie. Un travail désormais simplifié. Lorsqu'un chariot médical pénètre dans la salle d'attente, un bracelet doté d'un émetteur Wi-Fi est placé à la cheville du patient.

Concrètement, lors de l'arrivée du patient en bloc opératoire, le brancardier alimente le système informatique par deux lectures optiques : une pour le "tag" (l'émetteur) et une autre pour identifier le patient. A partir de ce moment, le tag est tracé et géolocalisé. A la sortie du patient de la salle de réveil, le brancardier identifie le tag avant de le reposer sur le rack de chargement entraînant l'arrêt de la traçabilité. Plutôt qu'une solution basée sur GPS ou RFID, la clinique a préféré la triangulation Wi-Fi. L'établissement était en effet déjà équipé de bornes Wi-Fi pour d'autres applications : chariot de soin informatisé, saisie des commandes des repas au pied du lit, accès internet pour les patients, etc.

Dans le même temps, le personnel enregistre dans le logiciel de gestion des blocs opératoires le code-barres du dossier médical qui accompagne le malade. A chaque changement de salle, le système détecte le déplacement et met à jour automatiquement le logiciel de gestion du bloc. Il est rafraîchi toutes les minutes.

L'ajout de la géolocalisation n'entraîne aucune surcharge de travail pour le personnel de bloc (chirurgiens, anesthésistes, responsable de bloc, infirmières). En revanche, elle leur permet de visualiser en temps réel l'occupation des salles d'opération et de la salle de réveil, et de consulter la liste des patients en attente d'opération présents en sas d'attente. De leur côté, les infirmières peuvent suivre l'avancement des interventions ce qui leur permet de gérer au mieux les retours en services de soins et d'informer les familles quant au déroulement de l'intervention.

« Au départ, nous avions pensé à une solution à base de RFID, souligne Marc Blanchet. Mais elle exigeait trop de portiques, et revenait trop cher. Grâce au réseau Wi-Fi déjà installé, la couverture des dix salles d'opération du bloc central n'a nécessité que l'installation de deux antennes supplémentaires. » Toutefois le système a dû être calibré pour que, par triangulation, le réseau Wi-Fi localise avec précision le patient.

La solution a été déployée par l'intégrateur Airmedis, spécialiste des technologies sans fil en milieu médical. Au total, le projet a coûté 25 000 euros. "Une somme tout à fait raisonnable au regard des objectifs initiaux", estime Marc Blanchet.

Télémédecine

Un nouveau record de communication cryptée quantique
Vendredi, 06/10/2006 - 00:00

Le National Institute of Standards and Technology (NIST), le Los Alamos National Laboratory et le Albion College (Michigan) ont annoncé avoir battu le record de cryptage quantique, avec un échange de clefs sur une distance de 184,6 km (et sur 67,85 km en communication sûre, contre 50,6 km auparavant). Suivant ce critère de mesure, le précèdent record de Northwestern University est largement battu (voir BE Etats-Unis 46). L'expérience a eu lieu au laboratoire du NIST à Boulder (Colorado) et est décrite dans l'édition de septembre du New Journal of Physics.

Le résultat repose sur de nouveaux capteurs : de petits carrés de film de tungstène refroidis à la température de transition entre l'état conducteur ordinaire et l'état supraconducteur (125 mK). Les photons sont détectés par la variation de température induite dans le film. Ces détecteurs sont capables de détecter 65 % des photons reçus avec un faible taux de fausses détections. La limite actuelle de ces détecteurs est leur temps de synchronisation avec la fréquence de transmission des photons : 100 nanosecondes, ce qui peut gêner en cas de communications simultanées, voire induire des distorsions à la réception. Ils sont le résultat d'une coopération entre le Quantum Devices Group du NIST et Stanford.

BE USA

Fibre optique : près de 42 millions d'abonnés dans le monde vers 2010
Vendredi, 06/10/2006 - 00:00

Près de 42 millions d'internautes pourraient avoir accès au web via la fibre optique à l'horizon 2010, selon des estimations de l'Idate qui y consacrera une session lors de son congrès en novembre à Montpellier. L'Asie, avec la Corée du sud (6,3 millions d'abonnés) et surtout le Japon (20,5 millions), est de loin la région où la fibre connaîtra le plus grand développement. Figurent ensuite les Etats-Unis (8 millions) puis l'Europe (7 millions), a détaillé Roland Montagne, responsable du pôle haut débit au sein de l'Idate, l'Institut de l'audiovisuel et des télécoms en Europe.

En Europe, l'Allemagne (2,9 millions) et la France (1,3 million) seraient les pays les mieux placés. Les débits offerts grâce aux technologies DSL ont beaucoup augmenté ces dernières années passant de 512 kilobits/s à 20 mégabits/s mais les limites commencent à se faire sentir, souligne l'Idate. S'il ne fait plus de doute pour nombre d'opérateurs que la fibre optique supplantera à terme les technologies actuelles, reste encore à déterminer le calendrier et les conditions de déploiement.

En France, le fournisseur d'accès Free a été le premier à annoncer des investissements d'un milliard d'euros d'ici 2012 pour lancer le très haut débit par fibre optique. Plus de 4 millions de prises raccordables sont prévues dans ce plan qui concernera tout d'abord Paris. La première offre proposera un débit de 50 mégabits/s (internet, téléphone, télévision) pour 29,99 euros par mois. Le "principal obstacle" au déploiement de la fibre optique est le génie civil, a souligné M. Montagne, qui a insisté sur la nécessité pour les opérateurs de partager le coût de ces travaux et celui des fourreaux (les gaines installées sous terre et dans lesquelles passe la fibre optique).

Dans l'hypothèse où ces équipements ne seraient pas partagés, le budget pour couvrir 40 % de la population française de 2006 à 2015 s'éleverait entre 10,4 milliards et 11,3 milliards d'euros, dont 70 % pour le seul génie civil, selon M. Montagne. Dans le cas contraire, les économies ne seraient pas négligeables. A Paris, par exemple, le passage des fourreaux dans les égouts permet une baisse de 30 % des coûts, selon M. Montagne. Autre "point noir": l'accès aux immeubles rendu difficile en raison des négociations avec les bailleurs et les syndics. "L'Etat et les collectivités locales doivent être des facilitateurs", déclare M. Montagne.

Orange

Sharp : un téléviseur LCD avec trois images différentes selon l'angle de vue
Vendredi, 06/10/2006 - 00:00

Le pionnier des écrans à cristaux liquides (LCD), le japonais Sharp, a annoncé avoir développé un type d'écran capable d'afficher simultanément sur toute sa surface trois images différentes en fonction de l'angle de vue (gauche, centre, droit).Cette technologie peut trouver de nombreuses applications, sur les téléviseurs, les ordinateurs, les systèmes de radionavigation automobiles ou encore les téléphones portables, selon Sharp. Par exemple, trois personnes dans une même pièce pourront suivre trois émissions de télévision différentes sur un même téléviseur, ou bien s'adonner à des jeux vidéos à plusieurs en ayant chacun devant les yeux l'image correspondant à sa place dans le scénario.

Sharp avait déjà présenté l'an passé un écran à deux angles, qui a depuis été adopté par certains constructeurs automobiles comme Toyota pour permettre au passager avant de regarder la télévision pendant que le conducteur lit le plan sur l'écran GPS. "Ce système peut aussi servir dans les lieux publics à afficher trois types d'informations simultanément sur un même écran, chacune ciblant les personnes en fonction de leur direction", a expliqué le constructeur.

Cette prouesse technologique repose sur l'emploi de "barrières" qui permettent de diriger un signal lumineux correspondant à une image dans une seule direction. Sharp, qui a initialement créé les écrans LCD pour de simples calculatrices, a tout misé depuis sur cette technologie. Il a ouvert en août l'usine la plus en pointe dans ce domaine, la seule au monde capable de produire des dalles LCD mères dites de huitième génération compte-tenu de leur taille inégalée.

Sharp

Prescrire des jeux vidéo pour mieux soigner
Vendredi, 06/10/2006 - 00:00

Experts et éditeurs de jeux vidéo se sont réunis à Baltimore le 29 septembre pour la 3e conférence des «Jeux pour la santé», qui examine comment ces jeux peuvent aider à soigner des maladies, à arrêter de fumer ou faciliter un séjour en hôpital. Organisée par l'association The Serious Games Initiatives à la faculté de médecine de l'Université du Maryland à Baltimore, la conférence a permis de faire le point sur différentes expériences allant des jeux d'activité physique utilisés contre l'obésité à ceux qui aident un patient à lutter contre un cancer.

«Nous pensons qu'il y a un énorme potentiel à l'utilisation de jeux pour le bien-être», estime Richard Tate, de HopeLab, un studio qui a créé Re-Mission, un jeu pour les enfants qui sont en traitement contre le cancer. «Il s'agit juste de bien conceptualiser le jeu pour qu'il atteigne son but», ajoute-t-il. Le jeu Re-Mission associe de réelles informations scientifiques à une héroïne animée, baptisée Roxxi, pleine de courage et armée jusqu'aux dents pour débusquer et détruire les cellules cancéreuses dans le corps humain. Les patients qui ont joué à ce jeu se sont révélés plus aptes à accepter leur traitement et ont cru en leur victoire contre le cancer, affirme HopeLab, le studio créateur du jeu, basé à Palo Alto en Californie.

HopeLab a reçu quelque 30 000 commandes pour ce jeu, provenant de 55 pays, depuis le lancement de Re-Mission en avril, a indiqué Richard Tate. HopeLab travaille à des projets de jeux pour traiter l'autisme, la dépression et l'obésité chez les enfants. «Nous pensons que nous pouvons copier ce modèle», affirme M. Tate.

Outre HopeLab et d'autres éditeurs de jeux, la conférence de Baltimore accueillera notamment le National Institutes of Health et le Centre de contrôle des maladies (Centers for Disease Control), selon l'organisateur Ben Sawyer. «Notre objectif veut montrer notamment qu'une technologie aussi importante que celle des jeux vidéo peut avoir une utilisation qui dépasse de loin le divertissement, tout en sachant que se divertir fait partie d'une vie saine», ajoute M. Sawyer. Dans les écoles publiques de l'État de Virginie Occidentale, une étude est en cours pour déterminer si le fait de jouer, c'est-à-dire de danser avec le jeu Dance Dance Revolution (DDR) du japonais Konami Corporation, aide les enfants à se maintenir en forme.

CP

^ Haut
Matière
Matière et Energie
Japon : une structure musculaire robotique pour rééduquer les bras paralysés
Vendredi, 06/10/2006 - 00:00

Une coentreprise du groupe d'électronique japonais Matsushita et de l'univeristé de Kobe, Activelink, a dévoilé à Tokyo un système robotique permettant, selon ses chercheurs, de rééduquer un bras paralysé à la suite d'une attaque cérébrale. L'appareil, qui pèse 1,8 kilogramme, se présente sous la forme d'une combinaison dont l'une des manches comporte un système de capteurs et de compresseurs d'air avec des muscles artificiels en gomme. Le dispositif permet de détecter les signes de volonté de mouvement et d'accompagner les muscles déficients. Le fait de répéter les gestes avec ce système de rééducation permet progressivement de recouvrer les capacités musculaires naturelles, selon les chercheurs.

Activelink prévoit de tester cet appareil, dont un prototype moins abouti avait déjà été présenté l'an passé, sur des patients hémiplégiques dans les prochains mois. Il devrait être commercialisé auprès de structures médicales d'ici à mars 2009.

JDNet

Un nouveau dispositif de chauffage combine la géothermie et le solaire thermique de manière optimale
Vendredi, 06/10/2006 - 00:00

Une installation "géo-solaire thermique" a été développée conjointement par la société de géothermie GEFGA et par l'entreprise de toiture en zinc et collecteurs solaires RHEINZINK. Cette installation pilote a pour objectif de combiner de manière optimale les avantages de la géothermie et du solaire thermique pour assurer l'alimentation énergétique des bâtiments. Dans un système "geo-solaire thermique", l'installation solaire est reliée au cycle géothermique : en hiver, la pompe à chaleur utilise la chaleur du sous-sol pour chauffer l'habitation ; en été, le sous-sol récupère l'énergie excédentaire générée par l'installation solaire.

Ce dispositif permet d'améliorer le cycle de la pompe à chaleur et diminue la consommation électrique nécessaire à son fonctionnement. Afin d'optimiser cette installation, l'institut de recherche sur l'énergie solaire de Hameln entreprendra une série de tests d'exploitations durant les deux prochaines années. Ce projet de recherche est soutenu par la fondation allemande pour l'environnement (DBU). Le "géo-solaire thermique" sera l'un des thèmes du 9e forum de géothermie qui se déroulera du 15 au 17 Novembre à Karlsruhe.

BE

Un nouveau type de silicium pour le solaire photovoltaïque
Vendredi, 06/10/2006 - 00:00

Selon la "Solar Energy Industries Association" (SEIA), le secteur du solaire photovoltaïque connaît depuis 5 ans une croissance annuelle de 30%. Les constructeurs ont vendu en 2005 pour plus de 15 milliards de dollars de nouveaux produits à travers le monde. En raison de cette forte croissance, l'approvisionnement en silicium cristallin (silicium pur à 99,99999 %), matériau de base des cellules solaires et également utilise par l'industrie microélectronique, n'arrive plus a suivre les besoins du marche. Dans le monde entier, il n'existe que quelques fabricants de silicium cristallin et leurs lignes de production sont deja au maximum de leurs capacités.

Lors d'une réunion, l'année dernier, du Conseil critique sur les matériaux, Sematech (association d'industries du semi-conducteur), les analystes ont prévu un manque de 6.000 tonnes de poly-silicium cette année, 12.000 tonnes en 2007, et 20.000 tonnes l'année suivante. Les chercheurs de la société Dow Corning viennent récemment d'annoncer qu'ils ont développé un matériau dérivé du silicium "métallurgique", qui peut être mélangé à du silicium poly-cristallin traditionnel de grande pureté pour fabriquer des cellules photovoltaïques de bonne qualité.

Ce résultat pourrait permettre de faire face à la croissance de l'industrie photovoltaïque. Grâce à l'utilisation du silicium "métallurgique", un matériau bien meilleur marché et pur à seulement 98 %, la nouvelle technologie de Dow Corning a le potentiel de transformer de manière significative l'industrie photovoltaïque.

Le silicium "métallurgique" est normalement employé dans les applications telles que le raffinage de l'acier, et comme ingrédient de base pour d'autres produits chimiques. Dow Corning a l'intention d'accélérer fortement la production de ce nouveau type de silicium grâce à son usine située au Brésil à Santos Dumont. Le matériau composite final possède selon Rudy Miller, Directeur marketing chez Dow Corning, les mêmes performances et caractéristiques de fabrication que celui utilisé traditionnellement avec l'avantage d'être significativement moins cher.

BE USA

DOE

Les supercondensateurs au secours des véhicules propres
Vendredi, 06/10/2006 - 00:00

Des chercheurs du Centre interuniversitaire de recherche et d'ingénierie des matériaux (CIRIMAT, CNRS - Université Paul Sabatier de Toulouse) et de l'université de Drexel (Philadelphie, Etats-Unis) viennent de mettre au point un procédé permettant d'augmenter considérablement la quantité d'énergie stockée par des supercondensateurs. Ces systèmes de stockage d'énergie, dont les applications industrielles étaient jusqu'alors limitées en raison de leur faible densité énergétique, devraient permettre de faire progresser notamment le développement des véhicules "propres".

Les supercondensateurs, également appelés supercapacités, sont des systèmes de stockage de l'énergie intermédiaires entre les batteries et les condensateurs diélectriques (deux conducteurs séparés par un isolant). Ils ont été longtemps considérés comme la solution au problème posé par, d'un côté, la vitesse de décharge limitée des batteries et, de l'autre côté, la demande croissante de puissance pour l'alimentation des équipements électroniques ou électriques de dernière génération. Cependant, leur application était limitée par la quantité d'énergie qu'ils étaient capables de contenir. C'est cette dernière, en effet, qui définit la durée de la décharge, aujourd'hui limitée à quelques secondes.

Les matériaux utilisés classiquement dans les supercondensateurs sont des carbones que l'on a plongés dans un liquide contenant des ions positifs et négatifs, puis soumis à un courant électrique.

Des chercheurs du Centre interuniversitaire de recherche et d'ingénierie des matériaux (CNRS - Université Paul Sabatier de Toulouse), sous la responsabilité de Patrice Simon, et de l'université de Drexel (Philadelphie, Etats-Unis) ont travaillé sur des carbones dérivés de carbures (CDC), matériaux qui permettent de contrôler très précisément la taille des pores formés. Ils ont montré que, contrairement à ce qui était admis jusqu'à présent, les pores d'une dimension inférieure à 1 nanomètre contribuent de façon importante au processus de stockage de charges, augmentant ainsi la densité d'énergie de ces systèmes de plus de 50 % !

Ces travaux devraient permettre le développement d'une nouvelle génération de supercondensateurs à haute densité d'énergie, ouvrant ainsi la voie à des applications dans le domaine des transports (notamment en accélérant le développement des véhicules "propres", électriques ou hybrides, ou utilisant des piles à combustible) et des secteurs industriels dans lesquels les supercondensateurs sont déjà largement utilisés (sauvegarde de mémoire par exemple).

CNRS

^ Haut
Espace
Espace et Cosmologie
Premières images haute résolution de la surface de Mars
Vendredi, 06/10/2006 - 00:00

La sonde Mars Reconnaissance Orbiter de la NASA a envoyé, le 29 septembre, ses premières images haute résolution de la surface de Mars prises depuis son orbite basse, à seulement 280 kilomètres d'altitude. Les performances de la caméra HiRISE (High Resolution Imaging Science Experiment) étaient très attendues par les scientifiques de la mission car elle doit fournir des images de la surface de Mars avec une résolution inégalée.

Cette première image a été prise au-dessus de Ius Chasma, l'un des embranchements de Valles Marineris, la région des grands canyons martiens. La résolution de l'image est de 29,7 centimètres par pixel, ce qui permet de voir des roches de seulement 90 centimètres de diamètre, précise la NASA.

Mars Reconnaissance Orbiter est arrivé en orbite autour de la planète rouge le 10 mars 2006 et a passé six mois à corriger sa position. A l'issue de son insertion la sonde décrivait une orbite très elliptique, entre 300 et 45.000 km. Désormais elle est stabilisée entre 250 et 316 km et entame en novembre sa première phase d'observation de deux ans. Au cours de cette période, MRO va littéralement inonder les scientifiques de données, avec un débit 10 fois plus élevé que les sondes précédentes.

MRO

NASA

Premières images de planètes en formation
Vendredi, 06/10/2006 - 00:00

Les images d'un système planétaire en formation ont été prises pour la première fois, autour d'une étoile plus massive que notre Soleil, a annoncé une équipe franco-néerlandaise sur le service en ligne de la revue scientifique américaine Science. Ces images de "très haute qualité" obtenues avec la caméra VISIR du Très Grand Télescope (VLT) de l'Observatoire européen austral (ESO) du mont Paranal (Chili) montrent un disque protoplanétaire, une formation de gaz et de poussières pouvant s'agréger et former des planètes.

"Ce disque, très étendu et flamboyant, contient très vraisemblablement assez de gaz et de poussières pour donner naissance à des planètes", écrivent les chercheurs. Pour le responsable de l'équipe, Pierre-Olivier Lagage, du Commissariat à l'Energie atomique (CEA) à Saclay, "c'est la première fois qu'une telle structure, seulement envisagée à partir de modèles théoriques, est prise en photo (en infra-rouge) autour d'une étoile massive".

Les auteurs de l'étude estiment que l'image "nous fournit une chance rare d'observer les conditions prévalant juste avant, ou pendant, la formation de planètes". Le disque est au moins 12 fois plus étendu que l'orbite de la planète la plus éloignée de notre Soleil, Neptune. "Une telle géométrie ne peut s'expliquer que si le disque contient une très grande quantité de gaz - dans ce cas au moins dix fois la masse de Jupiter - et plus de 50 fois la masse de la Terre en poussières", notent les auteurs.

Il se trouve autour d'une étoile jeune dénommée HD 97048, âgée de seulement quelques millions d'années et située à environ 600 années-lumière. L'étoile est 40 fois plus lumineuse que le Soleil et 2,5 fois plus massive. "Les planètes se forment à l'intérieur de disques protoplanétaires massifs, gazeux et contenant beaucoup de poussières se trouvant autour d'étoiles naissantes", un phénomène plutôt "fréquent puisque plus de 200 planètes ont déjà été observées autour d'étoiles autres que notre Soleil", a souligné Pierre-Olivier Lagage.

SD

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le mystère du méthane enfin expliqué
Vendredi, 06/10/2006 - 00:00

Puissant gaz à effet de serre (son pouvoir de réchauffement global (PRG) est 23 fois supérieur à celui du gaz carbonique), le méthane intriguait depuis longtemps les scientifiques. En effet, voilà de nombreuses années que les concentrations dans l'atmosphère du gaz naturel sont stables, alors que la production et l'utilisation du méthane ne cessent de croître. Selon les résultats de travaux publiés par une équipe internationale, dirigée par Philippe Bousquet, du laboratoire des sciences du climat et de l'environnement (LSCE, laboratoire conjoint CEA-CNRS-université de Saint-Quentin) et publiés dans Nature, le mystère semble enfin s'éclaircir.

Le déclin observé dans les années 1990 s'explique notamment par la chute brutale de la production industrielle et minière des pays du bloc communiste. Mais, d'après les mesures effectuées dans 68 stations réparties sur la planète, les rejets anthropiques de méthane ont recommencé à progresser à la fin de cette décennie, sans pour autant que la concentration de CH4 n'augmente dans l'atmosphère.

En fait, cette croissance a été largement «compensée» par une réduction des émissions naturelles de méthane. En effet, durant la décennie 1990, environ 5 % des terres inondées -marais, rizières, par exemple- ont été asséchés naturellement (sécheresses) ou à la suite de l'action de l'homme (drainage). Or, ces zones humides sont de grandes productrices de méthane.

L'autre grande surprise est la prédominance des rejets de gaz naturel effectués par les marais. Jusqu'à présent, les scientifiques estimaient que les plus grands émetteurs naturels de méthane étaient les feux de forêts ou de brousse. Les résultats de l'étude ne sont pas forcément une bonne nouvelle. Certes, la concentration de méthane s'est stabilisée pendant quelques années. Mais s'en tenir là, c'est oublier que le réchauffement climatique devrait faire fondre des zones considérables de permafrost qui, en dégelant, relâcheront très probablement des volumes considérables de... méthane.

JDE

Trou record dans la couche d'ozone au-dessus de l'Antarctique
Vendredi, 06/10/2006 - 00:00

La couche d'ozone, qui protège la terre des rayonnements ultra-violets du soleil, affiche pour 2006 les pertes les plus importantes jamais enregistrées dans le cours d'une seule année au-dessus de l'Antarctique, a annoncé le 2 octobre l'Agence spatiale européenne (ESA).

Les mesures de la couche d'ozone effectuées par les satellites de l'ESA font apparaître une perte de 40 millions de tonnes en octobre, dépassant le précédent record de 39 millions de tonnes enregistré en 2000, indique l'agence dans un communiqué. Ce déficit est calculé en mesurant la superficie et la profondeur du trou dans la couche d'ozone, située dans la stratosphère à environ 25 km au-dessus de la terre.

Cette année, le trou atteint environ 28 Millions de km2, soit une superficie équivalente à celle mesurée en 2000 et sa profondeur - estimée à 100 unités Dobson - atteint le record mesuré en 1990, poursuit l'ESA. Une unité Dobson (DU, pour Dobson Unit en anglais) est définie comme une couche de 0.01 mm d'épaisseur à la température et à la pression de l'atmosphère standard. L'ozone, une molécule issue de l'oxygène, permet de filtrer les rayonnements dangereux des ultra-violets du soleil qui endommagent la végétation et peuvent provoquer des cancers de la peau.

La couche d'ozone qui protège ainsi la terre est endommagée par la production et l'usage de produits chimiques, spécialement le chlore et les chlorofluorures de carbone (CFC, gaz d'aérosols et réfrigérants).

La réaction chimique qui altère la couche d'ozone atteint son maximum sur les températures froides de haute altitude durant l'hiver en hémisphère sud, normalement de fin août à octobre."Une perte aussi significative suppose des températures très basses dans la stratosphère, combinées à la lumière du soleil", a expliqué Claude Zehner, ingénieur atmosphérique à l'ESA.

"Cette année, cette perte extrême enregistrée peut s'expliquer par les plus faibles températures enregistrées au-dessus de l'Antarctique depuis 1979", a-t-il ajouté. L'étude de l'ESA confirme les craintes exprimées par l'Organisation météorologique mondiale (OMM), qui prévenait déjà que le trou dans la couche d'ozone atteindrait en 2006 un nouveau record. Au cours de la dernière décennie, la couche d'ozone a diminué en moyenne de 0,3 % par an. Pour la protéger, des restrictions d'usage des CFC ont été décidées par le Traité de Montréal du 16 septembre 1987. Malgré ces restrictions, la quantité de pollution stockée dans l'atmosphère est telle que des trous semblables à celui observé aujourd'hui devraient continuer d'apparaître dans les 20 prochaines années, selon les experts de l'OMM.

ESA

Nobel de physique à deux Américains pour la confirmation du big bang
Vendredi, 06/10/2006 - 00:00

Le prix Nobel de physique a récompensé le 3 octobre deux Américains responsables d'une mission spatiale de la Nasa qui a permis de renforcer la théorie du Big Bang pour expliquer l'origine de l'univers. Les deux chercheurs John Mather et George Smoot étaient les maîtres d'oeuvre du projet COBE, le satellite lancé par l'agence spatiale américaine en 1989 pour recueillir les variations thermiques dans l'espace grâce à l'étude des radiations cosmiques.

"L'observation très détaillée effectuée par les lauréats grâce au satellite COBE a joué un rôle majeur dans le développement de la cosmologie moderne en une science précise", a estimé dans ses attendus l'Académie des sciences royale de Suède qui décerne ce prix. C'est la première fois depuis la création en 1901 du Nobel de physique qu'une mission spatiale est ainsi à l'honneur.

"Les résultats de COBE ont renforcé le scénario du Big Bang pour expliquer l'origine de l'univers", a indiqué l'Académie dans ses attendus. Mather, 60 ans, est un astrophysicien au centre spatial Goddard de la Nasa dans le Maryland (nord-est des Etats-Unis) et son co-lauréat Smoot, 61 ans, est professeur de physique à l'université de Berkeley (Californie).

Smoot était chargé d'analyser les variations infimes de température des radiations cosmiques.

Selon la théorie du Big Bang, le cosmos s'est formé il y a environ 13,7 milliards d'années après une méga explosion et l'univers avec des températures d'environ 3.000 degrés s'est refroidi progressivement au fur et à mesure de son expansion. Les expérimentations à partir de COBE portaient sur les variations de températures et le bruit de fond cosmique, trace lointaine de l'univers à son commencement.

Ces variations de température montrent comment la matière dans l'univers a commencé à se former. "C'était nécessaire pour que les galaxies, les étoiles et en dernier ressort le vivant puissent se développer", explique l'Académie royale.

Le succès de la mission fut immédiat. Après seulement neuf minutes d'observation, les premiers résultats furent recueillis. Le physicien britannique Stephen Hawking n'avait pas caché son enthousiasme, déclarant en 1992 que la mission COBE était "la plus importante découverte du siècle, sinon de tous les temps". Les mesures de Mather et Smoot ont balayé toutes les théories concurrentes sur l'Univers primordial. "Beaucoup de gens ont essayé, mais aucune bonne explication n'a été trouvée (sur l'origine de l'Univers) et la théorie du Big Bang est confirmée", a expliqué Mather, interrogé par la fondation Nobel après l'annonce du prix.

UCB

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du colon : le pronostic lié à la vigueur du système immunitaire
Vendredi, 06/10/2006 - 00:00

Une étude publiée dans la revue américaine Science par une équipe française montre que la qualité de la réponse immunitaire est un facteur déterminant pour apprécier le pronostic du cancer du colon. Avec 36 000 nouveaux cas par an, le cancer colo-rectal est au premier rang des cancers, aussi bien chez les femmes que chez les hommes. C'est aussi une maladie grave, à l'origine de 16 000 décès par an. L'âge moyen au moment du diagnostic se situe autour de 70 ans. Malheureusement, comme les premiers symptômes apparaissent tard, ces tumeurs sont encore trop souvent détectées à un stade avancé.

Pour formuler le pronostic d'un cancer colo-rectal, on se base sur l'évaluation de l'extension de la tumeur, au sein de la paroi digestive et dans les ganglions proches. Pour la première fois au monde, des chercheurs ont ainsi fait la preuve que la présence de certains lymphocytes, potentiellement capables de reconnaître et de détruire les cellules tumorales, était l'élément le plus déterminant pour l'évolution ultérieure des patients. L'évaluation de ce critère apparaît même plus importante que celle de l'extension de la tumeur au sein de la paroi digestive et dans les ganglions voisins.

Cette étude confirme l'intérêt de l'approche immunologique dans la lutte contre le cancer. « Mais il faut maintenant comprendre les raisons pour lesquelles certains patients ne développent pas ou du moins pas assez de réaction immune au niveau du site de la tumeur », expliquent les chercheurs. « Et trouver le moyen de réenclencher ou d'amplifier cette réponse. » Les chercheurs espèrent notamment pouvoir utiliser certaines cytokines capables d'attirer et d'amplifier les « lymphocytes mémoire » pour stimuler un système immunitaire défaillant. A terme, ces recherches devraient déboucher sur de nouveaux outils thérapeutiques qui pourront être utilisés seuls ou en synergie avec les traitements classiques, chimiothérapie et radiothérapie.

Science

Cancer du poumon : bientôt un test de dépistage sanguin précoce ?
Vendredi, 06/10/2006 - 00:00

Un test sanguin capable de dépister un cancer du poumon à un stade précoce pourrait sauver des millions de vies, si les résultats préliminaires présentés lors du Congrès annuel de la société européenne de médecine oncologique se confirment. Ce Congrès réunit quelque 10.500 médecins, chercheurs, représentants de l'industrie pharmaceutique et des organisations non gouvernementales.

Chez les fumeurs, les modifications génétiques sont fréquentes. Chez ceux qui développent un cancer, tout comme chez ceux qui souffrent d'autres maladies pulmonaires, on observe souvent le même type de dégénérescence cellulaire. Mais à un certain moment, les patients qui développent un cancer du poumon présentent des changements différents au niveau moléculaire. Le test fait la part entre un cancer du poumon et d'autres maladies pulmonaires, notamment l'emphysème.

"Le but de ce test sanguin est de dépister les patients à un moment-clé, avant que le cancer ne s'étende", explique le Dr Paris Kosmidis, directeur de l'oncologie à l'hôpital Hygeia d'Athènes (Grèce), qui est extérieur à l'étude. "Si nous attrapons ce cancer à temps, nous avons prouvé par la pratique que nous pouvons le traiter".

Le nouveau test détecte différents types de protéines sécrétées dans le sang par des cellules cancéreuses. Pour les chercheurs, cette signature protéique caractéristique du cancer du poumon pourrait être reconnue longtemps avant l'apparition des symptômes, et avant qu'elle ne soit visible à la radio, donnant aux patients la possibilité d'un traitement précoce, ce qui renforce leurs chances de survie.

"Cette découverte pourrait aider à surmonter un immense problème dans le domaine du diagnostic", a déclaré le Dr William Jacot, auteur principal de l'étude et médecin oncologue de l'hôpital Arnaud de Villeneuve, à Montpellier. Lui et ses collègues ont analysé des échantillons de sérum de 170 patients, parmi lesquels 147 présentaient un cancer du poumon et 23 une maladie pulmonaire chronique, à la recherche de la signature protéique des cellules cancéreuses. Leur test a identifié le cancer du poumon correctement dans presque 90 % des échantillons testés.

"Ce n'est pas encore suffisamment au point pour être utilisé comme un outil de surveillance, mais c'est mieux que les marqueurs de tumeur traditionnels", a indiqué William Jacot, ajoutant que la méthode employée dans ce test avait besoin d'être améliorée et ses résultats confirmés par des études plus vastes menées sur plus de gens en bonne santé, de manière à ne pas fausser les résultats.

Près de 75 % des patients atteints d'un cancer du poumon sont diagnostiqués à un stade déjà avancé, et le pronostic est en général mauvais, avec un maximum de 16 % de personnes survivant au moins cinq ans après le diagnostic. Le cancer du poumon est le plus courant sur la planète, avec en moyenne deux millions de personnes diagnostiquées chaque année.

Bien que les experts n'envisagent pouvoir utiliser ce test en routine médicale que dans cinq à 10 ans, il est selon eux prometteur. "Si ces résultats sont confirmés, ce test aura un impact incroyable", a déclaré le Dr Hans-Joachim Schmoll, directeur du service d'hématologie et d'oncologie de l'Université Martin Luther de Wittenberg (Allemagne). Un test similaire capable de détecter précocement un cancer de l'ovaire est en cours d'évaluation. Si l'approche française marche, les scientifiques devraient être capables de l'adapter à d'autres types de cancers.

AP

Le Prix Nobel de médecine récompense deux chercheurs américains
Vendredi, 06/10/2006 - 00:00

Les Américains Andrew Fire et Craig Mello se sont vu décerner le prix Nobel de médecine 2006 pour leur découverte d'un mécanisme de régulation de l'expression des gènes, l'interférence ARN, ouvrant la voie à de nouveaux traitements. Andrew Fire, qui travaille au prestigieux Institut de technologie du Massachusetts (MIT), est né en 1959. Craig Mello, qui est né en 1960, travaille pour sa part à la tout aussi prestigieuse Université d'Harvard, à Boston.

"L'interférence ARN" est déjà largement utilisée comme méthode d'étude de la fonction des gènes. Elle est à l'étude comme traitement de nombreuses infections virales, notamment du sida, des hépatites et d'autres maladies dont les maladies cardio-vasculaires et le cancer.

L'interférence ARN existe chez les plantes, les animaux et les humains. L'Institut Karolinska de Stockolm, qui attribue le prix, estime cet outil génétique fondamental pour la régulation de l'activité des gènes. C'est par ailleurs une aide pour la défense contre l'infection virale. Pour Erna Moller, membre du Comité Nobel, cette recherche éclaire d'un jour nouveau un processus compliqué qui embrouillait les chercheurs depuis longtemps.

Les gènes agissent en envoyant des molécules, les ARN messagers, à la machine à fabriquer des protéines de la cellule. Dans l'interférence ARN, certaines de ces molécules déclenchent la destruction de l'ARN à partir d'un gène particulier. Résultat : aucune protéine n'est produite. De cette manière, le gène reste effectivement silencieux. Par exemple, un gène à l'origine d'un taux élevé de cholestérol est resté silencieux chez les animaux par interférence ARN.

Fire et Mello ont commencé à travailler sur des vers de terre et ont découvert un mécanisme moléculaire naturel que l'on retrouve aussi bien chez les plantes, les animaux et les humains. L'interférence ARN "est déjà devenu un outil de recherche important en biologie et en biomédecine", a indiqué le comité Nobel en soulignant que l'agriculture pourrait également en bénéficier. Des tests sur des animaux ont déjà permis de bloquer un gène responsable de taux élevé de cholestérol.

Fait assez rare, les travaux des deux lauréats américains sont récompensés par un Nobel quelques années seulement après leur découverte, huit ans, alors que habituellement les délais sont beaucoup plus longs. Les lauréats ont reçu un chèque de 1,4 million de dollars.

AP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top