RTFlash

RTFLASH Recherche & Technologie
NUMERO 539
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Janvier 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet: l'Arcep valide la pose de plusieurs fibres dans les grandes villes
Le MIT présente un écran à reconnaissance de mouvements
Reconnaissance d'image : Google compte sur l'informatique quantique
Livre numérique : la justice française donne raison aux éditeurs face à Google
Les portables, facteur d'éducation dans les pays en développement ?
Matière
La Chine numéro trois mondial de l'énergie éolienne
Neuf pays européens s'associent pour un réseau offshore d'éoliennes
Espace
Une moisson d'exoplanètes renforce l'espoir de trouver la vie ailleurs
Terre
Un arbre artificiel pour piéger le CO2
Vivant
Cancer de la prostate : un nouveau traitement prometteur
Première carte génétique complète pour deux cancers
Des vers pour un traitement plus efficace du cancer
Cancer du poumon : de nouvelles molécules prometteuses
Les biofilms : découverte d'un nouveau mode de propagation des virus
Identification d'un gène de prédisposition à la sclérose en plaques
Des bactéries pour construire des vaisseaux
Des neurochimistes identifient une molécule de la panique
Edito
l'accord de Copenhague est insuffisant mais va dans la bonne direction



Même si l'Accord de Copenhague signé le 18 décembre n'est pas à la hauteur de nos attentes, il comprend plusieurs avancées importantes dans la lutte mondiale contre le réchauffement climatique et doit être replacé dans la perspective d'une prise de conscience planétaire progressive de la question climatique commencée avec le sommet de la Terre de Rio en 1992. A Copenhague, pour la première fois, 192 pays ont reconnu la nécessité de contenir l'augmentation de la température mondiale en dessous de 2 degrés, condition impérieuse afin de conjurer les pires effets du changement climatique.

Afin d'atteindre cet objectif, l'accord précise que les pays industrialisés s'engagent à mettre en oeuvre, individuellement ou conjointement, des objectifs quantifiés de réductions d'émissions à partir de 2020. Ces objectifs devraient être scellés par un traité contraignant avant le 31 Janvier 2010. Les engagements des pays industrialisés devront être «mesurables, notifiables et vérifiables» (règles MRV), afin d'en contrôler la réalité.

Les pays en développement communiqueront eux-mêmes, tous les deux ans, les informations sur leurs politiques nationales, en offrant les éléments ouvrant à des "consultations et analyses internationales", dans le "respect de leur souveraineté nationale" (concession à la Chine).

Un certain nombre de pays en développement, y compris les principales économies émergentes, ont accepté de communiquer leurs efforts pour limiter les émissions de gaz à effet de serre tous les deux ans et devront également préciser leurs annonces de contributions volontaires avant le 31 Janvier 2010.

Les chefs d'Etat ont demandé une révision de cet accord en 2015, afin de permettre un examen de l'objectif à long terme visant à limiter l'élévation de la température moyenne mondiale à 1,5 degré.

Un engagement collectif a été obtenu sur un Fonds alimenté par les pays développés au cours des trois prochaines années à hauteur de 30 milliards de dollars US, l'objectif étant de 100 milliards de dollars par an d'ici 2020, pour répondre aux besoins des pays en développement.

Le président SARKOZY a souligné qu'il mettrait tout en oeuvre pour que l'Europe se dote d'une Organisation européenne de l'Environnement, qui "aura vocation à accepter les candidatures de tous les pays qui voudront participer à ces travaux". Il a également assuré que l'Union européenne porterait bien son objectif de réduction de ses émissions de GES de 20 % à 30 % en 2020 par rapport à 1990, en fonction des engagements qui seront pris par les autres pays du monde en 2010.

Cet accord de Copenhague doit donc être remis dans une perspective historique et politique de long terme et, de ce point de vue, il constitue une avancée réelle vers un nouveau traité mondial plus ambitieux de réduction des émissions de gaz à effet de serre.

Nous devons sortir de notre « européocentrisme » et nous mettre un instant à la place de pays comme l'Inde, la Chine ou le Brésil qui ne nient pas leurs responsabilités présentes dans le réchauffement climatique mais font observer qu'historiquement, ce sont bien les pays développés qui ont déversé dans l'atmosphère, depuis le début de la révolution industrielle, 80 % des gaz à effet de serre anthropiques responsables de l'accélération sans précédent du réchauffement planétaire.

Le fait que depuis deux ans les émissions des pays en voie de développement aient dépassé celles des pays développés ne change rien à cette réalité historique et entraîne une responsabilité politique et morale encore plus forte des pays riches vis-à-vis des pays en développement qui nous demandent une aide massive et durable pour réaliser leur transition énergétique vers une économie « décarbonnée, sans casser leur croissance indispensable pour sortir définitivement leur immense population de la misère et du sous développement.

Même si nos concitoyens, comme le montrent de récentes enquêtes d'opinion, ont à présent bien pris conscience de la réalité et de l'ampleur de la menace climatique au niveau mondial, ils continuent cependant à croire, dans leur majorité, que la France n'est que peu concernée par ce réchauffement annoncé. Malheureusement, il n'en est rien, comme le montre très bien le rapport sur "l'évaluation du coût des impacts du changement climatique et de l'adaptation en France", publié en septembre 2009, par l'Observatoire national sur les effets du réchauffement climatique (Onerc), placé sous la tutelle du ministère de l'écologie. (Voir rapport http://www.ecologie.gouv.fr/Rapport-de-l-ONERC-Changement.html).

Ce rapport qui n'a pas eu un grand écho médiatique montre que notre pays ne sera pas épargné par le réchauffement climatique et que les coûts annuels liés aux changements climatiques pourraient atteindre plusieurs milliards d'euros par an si aucune mesure d'adaptation ne venait à être prise.

L'étude prospective de l'Onerc prend pour hypothèse que l'élévation des températures atteindra entre 3°C et 4°C à la fin du siècle. La répétition des événements climatiques extrêmes (canicules, tempêtes, inondations) ressort comme le risque majeur pour plusieurs secteurs comme l'agriculture, la forêt, ou la production d'énergie. Sans être encore en mesure de les quantifier avec précision, les auteurs mettent aussi en avant "l'existence de seuils au-delà desquels les impacts du changement climatique auront des conséquences graves voire irréversibles".

En matière d'accès à l'eau, à demande constante, la France pourrait connaître un déficit de 2 milliards de m3 par an pour satisfaire les besoins de l'industrie, de l'agriculture et de l'alimentation en eau potable à l'horizon 2050. Cela représente 13 % des besoins actuels. Les zones les plus touchées seraient les zones déjà concernées aujourd'hui par des déficits structurels comme le Sud-Ouest.

Dans le domaine agricole, la hausse des températures s'accompagnera d'une multiplication de pics climatiques et de tempêtes, de sécheresses et d'une grande variabilité d'une année sur l'autre. En prenant l'exemple du blé, l'étude arrive à la conclusion que la récurrence de canicules comparables à celle de 2003, "pourrait, en l'absence de mesures d'adaptation, représenter un coût annuel de plus de 300 millions d'euros" à l'horizon de la fin du siècle.

Le rapport souligne également qu'en l'absence de politiques d'adaptation, le recul de la côte liée à l'érosion ou à la montée des eaux, "devrait concerner plusieurs centaines de milliers de personnes et la destruction de logements pourrait coûter plusieurs dizaines de milliards d'euros à l'échelle du siècle pour la seule région Languedoc-Roussillon".

Face à cette situation préoccupante, la France s'est dotée d'un « Plan Adaptation Climat » qui vise à déterminer et anticiper les mesures à prendre dans tous les domaines pour atténuer les conséquences du réchauffement climatique désormais inéluctable et nous y adapter.

Mais quelles que soient les mesures qui seront prises au niveau national, européen et mondial, cette nécessaire adaptation au changement climatique sera complexe et difficile et ne pourra se faire qu'au prix d'un profond changement de nos comportements privés et de nos habitudes de vie et de consommation.

Comme l'a bien vu Michel Serres dans son dernier essai, l'espèce humaine est pour la première fois de son histoire confrontée à un défi conceptuel inédit et gigantesque qui ne sera pas surmonté uniquement par la technologie, l'action politique ou la mutation économique. C'est seulement en pensant au niveau individuel et collectif, un nouveau lien, un nouveau contrat, une nouvelle solidarité avec notre planète que nous pourrons éviter ou plus probablement limiter les conséquences les plus désastreuses des grands bouleversements climatiques en cours.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet: l'Arcep valide la pose de plusieurs fibres dans les grandes villes
Vendredi, 08/01/2010 - 00:00

L'Autorité de régulation des télécoms (Arcep) a validé la possibilité de poser plusieurs fibres optiques par logement dans les grandes villes, dans le cadre du déploiement dans l'Hexagone de l'internet à très haut débit, a-t-elle annoncé dans un communiqué. L'Arcep, qui s'était dite favorable en juin à une telle possibilité, avait obtenu en septembre le feu vert de l'Autorité de la concurrence, puis début novembre de la Commission européenne. "Après homologation et publication au Journal officiel (...), les opérateurs auront un mois pour publier leurs offres d'accès concernant les déploiements existants et à venir de fibre optique jusqu'à l'abonné", a précisé l'Arcep, qui a adopté sa décision. Le fait de déployer plusieurs fibres par logement était défendu par Free (Iliad) mais vivement critiqué par Orange (France Télécom).

L'opérateur historique a toujours défendu l'option mono-fibre (une seule fibre par logement, louée ensuite aux concurrents), chiffrant le surcoût de l'autre solution à près de 40 %, alors que l'Arcep l'estime à 5 %. Il avait dans la foulée gelé ses investissements.

Orange s'est toutefois "félicité de la clarification réglementaire qu'(il) attendait". "Il s'agit d'un signal clair donné aux investisseurs leur permettant de calibrer leur projet", a indiqué un porte-parole, sans préciser la date de reprise de ses investissements. L'Arcep, qui a supervisé diverses expérimentations, estime que la possibilité de poser plusieurs fibres par logement favorisera la concurrence et assurera un libre choix aux consommateurs.

ARCEP

Le MIT présente un écran à reconnaissance de mouvements
Vendredi, 08/01/2010 - 00:00

Vous le savez peut-être : ce sont les travaux d'un chercheur du MIT, John Underkoffler, qui ont inspiré les célèbres interfaces gestuelles du Minority Report de Spielberg. Bonne nouvelle, l'Institut de technologie du Massachusetts (MIT) travaille encore et toujours sur des écrans novateurs... Qui pourraient être commercialisés bien plus rapidement que ceux que manipule Tom Cruise dans le film.

En témoigne la technologie que vient de présenter une équipe de chercheurs du MIT : un écran LCD tactile multipoint, doublé d'une interface gestuelle capable de reconnaître les mouvements de la main. Le prototype a été baptisé « BiDi », diminutif de « bi-directionnel », car il est à la fois capable de capturer des images (les mouvements) et d'en afficher.

D'un abord moins impressionnant que d'autres technologies concurrentes l'écran BiDi du MIT n'en demeure pas moins très intéressant : il combine interface tactile et gestuelle, et s'appuie sur une technologie d'écrans LCD tactiles naissante, développée notamment par Sharp et Planar Systems, qui consiste à placer une matrice de capteurs optiques entrelacée dans la matrice de cristaux liquides. Une alternative crédible aux écrans tactiles résistifs et capacitifs, largement utilisés sur les téléphones mobiles actuels. Problème : cette technologie ne fonctionne qu'au contact du doigt ou d'un stylet sur l'écran.

Le MIT l'a améliorée pour qu'elle permette, en plus, la reconnaissance des mouvements de main. Pour cela, les chercheurs ont pensé à décaler la matrice de capteurs optiques de 2,5 cm par rapport à la dalle LCD, de quoi capter la profondeur. Ensuite, afin que les capteurs optiques détectent les mouvements de l'utilisateur, le LCD alterne extrêmement rapidement entre deux modes : le mode « affichage », qui permet à l'utilisateur de voir ce qui est affiché à l'écran et un mode « capture », en fait une grille en noir et blanc invisible par l'utilisateur, mais qui laisse passer la lumière nécessaire aux capteurs pour repérer et interpréter les mouvements. L'alternance entre les deux affichages se fait tellement vite que l'oeil ne peut le déceler.

Ses avantages : elle s'appuie sur une technologie existante, ne prend pas de place, fonctionne de très près (contrairement à Natal et à d'autres technologies utilisant des caméras) et pourrait tenir dans un écran plat presque aussi fin que ceux que nous connaissons aujourd'hui.

OINET

Reconnaissance d'image : Google compte sur l'informatique quantique
Vendredi, 08/01/2010 - 00:00

A l'occasion de la conférence Neural Information Processing Systems conference, Google et D-Wave ont présenté leurs travaux dans le domaine de l'informatique quantique. Pour cette démonstration, les chercheurs ont mis au point une technologie, un détecteur capable de reconnaître des voitures grâce à une base d'images. Pour concevoir ce détecteur, Google s'est appuyé sur les algorithmes de calcul adiabatique découverts par Edward Farhi et d'autres chercheurs du MIT. Au niveau matériel, le géant de la recherche s'est associé à D.Wave qui fabrique un processeur : le C4 Chimera.

Même si ces travaux ne sont encore qu'au stade de la recherche, Google explique que l'informatique quantique permet d'obtenir une technologie de reconnaissance plus performante qu'en s'appuyant sur des algorithmes classiques. Pour illustrer les atouts de l'informatique quantique, Hartmut Neven, le directeur technique du projet reconnaissance d'image chez Google, prend l'exemple d'une balle dissimulée dans un coffre composé d'un million de tiroirs. Statistiquement, il faudrait ouvrir en moyenne 500 000 tiroirs avant de trouver la balle. U ordinateur quantiqe n'aurait lui besoin que de 1000 tentatives avant de découvrir l'objet dissimulé dans le coffre.

Au niveau d'un moteur de recherche, un ordinateur quantique réussirait mieux et plus vite là où Google doit pour le moment s'appuyer sur de grandes fermes de serveurs classiques. En informatique quantique, les opérations manipulent non plus des bits mais des qubits.

Dne

Livre numérique : la justice française donne raison aux éditeurs face à Google
Vendredi, 08/01/2010 - 00:00

La décision va-t-elle forcer Google à infléchir ses pratiques ? Dans un jugement très attendu, rendu vendredi 18 décembre, le tribunal de grande instance de Paris a interdit au groupe américain de poursuivre la numérisation et la diffusion d'ouvrages sans autorisation des auteurs et éditeurs. Si Google ne s'exécute pas dans le mois, il devra payer 10 000 euros par jour de retard.

Estimant que Google avait commis des "actes de contrefaçon de droits d'auteur", le tribunal l'a aussi condamné à verser 300 000 euros, au titre des dommages et intérêts, à La Martinière, troisième groupe d'édition français (propriétaire, notamment, des éditions du Seuil), à l'origine de la plainte. Le Syndicat national de l'édition (SNE) et la Société des gens de lettres de France (SGDL), alliés à l'éditeur français, recevront chacun un euro symbolique.

Les professionnels français du livre se sont félicités du jugement, qui leur donne très largement raison. "C'est une grande victoire pour le droit à la création et la protection des auteurs et des éditeurs", a estimé Hervé de La Martinière, PDG du groupe d'édition du même nom.

"Le jugement pourrait faire jurisprudence. D'autres sont prêts à attaquer Google, les Allemands en tête", croit savoir l'éditeur. Un sentiment partagé chez Hachette Livre : "C'est une décision claire, qui rappelle qu'il est interdit, en Europe, de s'approprier les contenus numériques non libres de droits", indique-t-on à la direction du premier groupe français d'édition.

Le contentieux entre Google et les professionnels du livre, français et américains, remonte à 2004, quand la société californienne s'est lancée dans un vaste programme de numérisation de livres, inaugurant sur Internet un service gratuit - Google Books- permettant d'y accéder. Auteurs et éditeurs se sont alors aperçus que certains de leurs ouvrages étaient accessibles en ligne, en intégralité ou par extraits.

LM

Les portables, facteur d'éducation dans les pays en développement ?
Vendredi, 08/01/2010 - 00:00

L'éducation dans les pays en développement - et en particulier dans les zones rurales - bénéficiera de l'accès croissant des populations aux technologies mobiles, explique Pyramid Research dans une étude. On y apprend notamment que l'introduction de ces technologies dans les salles de classe est de nature à améliorer le taux de présence des élèves. Plusieurs approches de par le monde ont ainsi montré des résultats significatifs. Les auteurs reconnaissent cependant qu'à ce jour le lien entre les technologies et les bénéfices à long terme du point de vue des performances scolaires, comme le taux d'alphabétisation ou de calcul, n'a pas encore été démontré. Cela dit, leur utilisation plaît aux étudiants et aide les professeurs à maintenir leur attention. Le rapport préconise donc de maintenir les investissements dans ce secteur, d'autant plus que les pays en bénéficient directement.

Outre une amélioration globale des capacités d'utilisation de l'informatique et d'Internet, l'extension des infrastructures de communication est de nature à participer au développement du pays tout entier. Le rapport souligne que dans bien des régions de ces pays, et en Afrique en particulier, les écoles, les bibliothèques et les cybercafés constituent le principal moyen à la disposition des populations pour se connecter. Avec bien sûr, les mobiles. C'est pourquoi les auteurs considèrent que la mise en place de services éducatifs pourrait constituer une opportunité de croissance majeure pour les opérateurs. Pour que les investissements technologiques dans l'éducation aient un sens, les auteurs expliquent qu'ils doivent être adaptés à la situation des pays et des régions concernées.

Atelier-20091218]

^ Haut
Matière
Matière et Energie
La Chine numéro trois mondial de l'énergie éolienne
Vendredi, 08/01/2010 - 00:00

La Chine est devenue cette année le numéro trois mondial de l'énergie éolienne, annonce, jeudi 31 décembre, l'agence de presse Chine nouvelle. "La capacité installée chinoise atteint à la fin de l'année 20 gigawatts", selon le vice-directeur du département des énergies renouvelables de l'administration nationale de l'énergie citée par l'agence officielle. insi, selon cette source, la Chine dépasse désormais l'Espagne, pour se placer troisième, derrière les Etats-Unis et l'Allemagne. Fin 2008, les Etats-Unis avaient une capacité installée de 25,2 gigawatts, soit 20,8 % de la capacité mondiale, l'Espagne de 16,8 GW et la Chine de 12,2 GW, selon des statistiques officielles chinoises.

La progression chinoise est nettement supérieure à l'évolution mondiale. En 2008, la puissance installée avait doublé pour la quatrième année de suite. "En termes d'ampleur et de rythme, le développement de l'éolien en Chine est absolument sans équivalent dans le monde", soulignait le mois dernier le secrétaire général du Conseil Mondial pour l'énergie Eolienne (GWEC). "Au rythme actuel, ils seront premiers au monde en termes de capacité installée d'ici fin 2011, début 2012."

La Chine, qui est le premier émetteur mondial de gaz à effet de serre, souhaite que les énergies renouvelables représentent 15 % de sa fourniture énergétique d'ici à 2020, contre 9 % l'an dernier. Aujourd'hui le charbon, extrêmes polluant, fournit environ 70 % de l'énergie utilisée en Chine. A titre de comparaison, l'objectif de l'Union européenne est de 20 % pour 2020

AFP

Neuf pays européens s'associent pour un réseau offshore d'éoliennes
Vendredi, 08/01/2010 - 00:00

Neuf pays de l'UE ont signé à Bruxelles une déclaration commune visant à développer un vaste réseau d'éoliennes offshore dans la région "des mers du Nord", une coopération proclamée le jour du démarrage des négociations climatiques de Copenhague. Le texte a été signé en marge d'une réunion des ministres de l'Energie par la Belgique, les Pays-Bas, la Suède, le Danemark, l'Allemagne, le Luxembourg, la France, le Royaume-Uni et l'Irlande.

Les secteurs énergétiques des neuf pays vont concevoir ensemble un plan de travail pour relier les parcs d'éoliennes des différentes mers du nord de l'Europe. "Le potentiel en matière d'énergie éolienne offshore dans les mers du Nord est énorme, dépassant même l'équivalent en énergie du pétrole du Moyen-Orient", insiste la Belgique. Les premiers raccordements devraient intervenir à partir de 2015, tandis qu'un plan complet sera présenté par les ministres concernés à l'automne, a précisé M. Magnette.

Ce type d'initiative va permettre à l'UE de tenir son engagement législatif d'inclure 20 % d'énergies renouvelables dans leur consommation énergétique totale d'ici 2020, un des volets clés de son ambitieux plan climat visant à réduire les émissions polluantes de 20 % d'ici à 2020 par rapport à 1990.

Express

^ Haut
Espace
Espace et Cosmologie
Une moisson d'exoplanètes renforce l'espoir de trouver la vie ailleurs
Vendredi, 08/01/2010 - 00:00

L'exceptionnelle moisson d'exoplanètes de 2009, 85 au total dont au moins une rocheuse comme la Terre, ravive l'espoir de trouver un jour la vie ailleurs dans l'univers, alors que sur Terre de nombreuses espèces risquent de disparaître avant même d'avoir été détectées. Hasard du calendrier, l'ONU a proclamé 2010, "année internationale de la biodiversité", après une année 2009 consacrée à l'astronomie. L'humanité est invitée à préserver les espèces sur Terre après avoir regardé le ciel. L'extrême diversité de la vie terrestre et sa capacité à s'adapter renforce d'ailleurs, selon les astronomes, les espoirs que la vie existe ailleurs.

"On trouve de la vie pratiquement partout là où il y a de l'eau liquide et où elle a pu s'adapter", souligne Marc Ollivier (Institut d'astrophysique spatiale, Orsay), "que ce soit au fond des océans, dans les lacs volcaniques extrêmement acides, dans les lacs et les mers les plus salés" et même des bactéries résistant aux radiations "au coeur des centrales nucléaires".

Il y aurait, selon les scientifiques, entre 8 et 30 millions d'espèces vivantes sur Terre pour seulement 1,8 million connues à ce jour. Mais près du quart de toutes les espèces vivantes pourrait disparaître d'ici le milieu du siècle sous la pression des activités humaines.

Au moment où l'homme fait peser la menace d'une nouvelle extinction massive sur Terre, des efforts croissants sont faits pour trouver la vie ailleurs : 415 planètes tournant autour d'autres étoiles que le Soleil ont été découvertes en l'espace de quatorze ans, dont 85 en 2009, selon le dernier bilan.

"L'année 2009 est vraiment la plus riche en terme de découvertes d'exoplanètes", relève François Bouchy (Institut d'astrophysique de Paris). "C'est 23 de plus qu'en 2007 et 2008", ajoute sa collègue Claire Moutou qui a également contribué à l'identification de la première planète rocheuse comme la Terre, Corot-7b. Trop près de son étoile, c'est un enfer brûlant considéré comme inhabitable. Grâce au satellite Kepler, lancé en mars, les astronomes espèrent trouver des planètes soeurs de la Terre pouvant abriter la vie, alors que les premières exoplanètes détectées à partir 1995 étaient des géantes gazeuses comme Jupiter.

"Les petites planètes, c'est l'objectif des prochaines années", résume Marc Ollivier. "On cherche des endroits où il y a de l'eau liquide", c'est-à-dire des planètes ni trop chaudes, ni trop froides à une distance jugée habitable de leur étoile. Mais, pour l'instant, on ne peut pas "détecter les signatures mêmes de la vie" (vapeur d'eau, méthane, CO2) dans l'atmosphère de petites exoplanètes, a-t-il expliqué. Même avec de meilleurs instruments, il faut que la vie "ait colonisé l'ensemble de la planète" pour laisser dans son atmosphère une signature visible depuis la Terre, souligne Mme Moutou.

Pour les exoplanètes toutes très lointaines, seule l'observation à distance est envisageable, mais des sondes peuvent être envoyées sur Mars, Titan ou d'autres satellites de Saturne ou Jupiter dans l'espoir d'y détecter la vie. Face aux progrès de l'astronomie, l'Eglise s'interroge sur l'existence d'une vie extraterrestre, quatre siècles après avoir condamné au bûcher l'astronome et philosophe Giordano Bruno qui affirmait l'existence d'une infinité de mondes habités.

AFP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Un arbre artificiel pour piéger le CO2
Vendredi, 08/01/2010 - 00:00

Des chercheurs américains ont présenté, au congrès d'automne de l'American Geophysical Union (AGU), un dispositif capable de filtrer l'air ambiant et d'en extraire le dioxyde de carbone (CO2). Baptisé arbre artificiel par ses concepteurs, ce système est présenté comme l'un des moyens de contrecarrer le réchauffement climatique en cours.

Son fonctionnement repose sur une résine adsorbante, capable de piéger, puis de relâcher, les molécules de CO2 présentes dans l'atmosphère. "Lorsque l'air ambiant est sec, le matériau absorbe le CO2, résume Lackner, chercheur à l'université Columbia (New York) et co-inventeur du procédé. Lorsque l'air est humide, il le relâche" pour être stocké. Le fonctionnement de l'arbre artificiel est donc, en apparence au moins, d'une grande simplicité. La résine est conditionnée sous forme de fins filaments, afin de maximiser sa surface de contact avec l'air. Lorsque le vent souffle, l'air passe au travers de ce filtre, qui piège le gaz carbonique ; le matériau est ensuite confiné, plongé dans un air saturé d'humidité, et relâche le CO2 ôté à l'atmosphère.

Celui-ci peut pour finir être liquéfié et durablement séquestré dans une formation géologique, par exemple. La démonstration faite au congrès de l'AGU était réalisée dans une petite enceinte de verre. Mais une unité pilote opérant en plein air a d'ores et déjà été construite, expliquent les deux inventeurs de cet arbre artificiel. Qui, d'ailleurs, ressemble bien peu à un arbre. L'unité-pilote en question est plutôt un baraquement d'une douzaine de mètres de longueur - la chambre de régénération où est relâché le gaz carbonique capturé - coiffé d'un tore d'une dizaine de mètres de diamètre où est installée la résine. Lorsque celle-ci est suffisamment gorgée du principal fauteur d'effet de serre, elle est mise à "dégorger" dans la chambre de régénération.

L'installation pilote fonctionne avec 5 tonnes de cette résine et est capable de "capturer 1 tonne de CO2 par jour", selon M. Lackner. Le chercheur espère pouvoir décupler cette efficacité en améliorant le conditionnement du matériau et en maximisant la surface de contact avec l'atmosphère. Le coût d'une unité est d'environ 200 000 dollars (139 000 euros) mais, précise le physicien, "c'est comme si on construisait une voiture à la main : cela coûte relativement cher".

Des économies d'échelle pourraient permettre de ramener ce coût de production à environ 20 000 dollars. Produit à l'unité, l'arbre artificiel capture 1 tonne de CO2 pour un montant supérieur à 100 dollars, mais une production de masse pourrait amener ce prix à une vingtaine de dollars la tonne, assure M. Lackner.

Des économies sont d'autant plus possibles que la résine miracle est un simple dérivé du pétrole qui "ne coûte que quelques dollars le kilo" et dont la durée de vie est estimée à une dizaine d'années par les chercheurs. Le matériau en lui-même n'a d'ailleurs pas fait l'objet d'un dépôt de brevet, les inventeurs n'ayant breveté le système que dans son ensemble. Celui-ci vient par ailleurs d'être décrit dans la revue European Physical Journal.

UC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la prostate : un nouveau traitement prometteur
Vendredi, 08/01/2010 - 00:00

Une équipe de chercheurs de l'Université de Pennsylvanie vient de montrer, à l'issue d'une étude sur les souris, qu'un anticorps, F77, se fixait aux cellules cancéreuses de la prostate et provoquait la destruction des tissus cancéreux. Cette étude publiée dans la dernière édition de la revue Proceedings of the National Academy of Sciences (PNAS) laisse espérer un nouveau traitement du cancer de la prostate, particulièrement des cancers de la prostate métastatiques androgéno-indépendants.

Le cancer de la prostate est le premier cancer chez l'homme avec plus de 62.000 nouveaux cas et 10.000 décès estimés par an en France. C'est un cancer de bon pronostic avec un taux de survie de 88 % à un an et de 57% à 5 ans. Le risque de décès par cancer de la prostate augmente avec l'âge, 88 % des décès survenant après 70 ans et 75 % après 75 ans. Son surdiagnostic, responsable de la réalisation de biopsies inutiles est proche de 30 %. Son dépistage est effectué par dosage sérique du PSA sérique total. Mais 2 études récentes sur le dépistage du cancer de la prostate publiées dans the New England Journal of Medicine, l'étude européenne (ERSPC) et l'étude américaine (PLCO) sont partagées sur l'efficacité sur la mortalité d'une procédure de dépistage systématique.

Les chercheurs recherchaient des marqueurs de diagnostic et de nouvelles approches thérapeutiques pour le cancer de la prostate. Au cours de leur recherche, ils ont identifié un anticorps capable de se lier à un antigène de la surface cellulaire des cellules cancéreuses prostatiques.

L'étude publiée a été réalisée sur des souris qui ont reçu des d'anticorps F77. Le F77 s'est fixé dans 97 % des cas sur les cellules cancéreuses primitives et dans 85 % des cas sur les tissus cancéreux avec métastases. Le F77 reconnaît donc également les cellules cancéreuses androgéno-indépendantes présentes quand le cancer devient incurable. Il déclenche la destruction des cellules cancéreuses de la prostate et prévoit le développement des tumeurs", indiquent les chercheurs. Enfin, l'étude démontre que l'anticorps F77 est aussi un marqueur unique du cancer de la prostate. Un espoir important pour le diagnostic et le traitement du cancer de la prostate, concluent les chercheurs.

Ce cancer est le second le plus répandu chez les hommes, après le cancer colorectal. L'Organisation mondiale de la Santé (OMS) estime qu'il tue un demi million d'hommes chaque année. Un homme atteint de ce cancer à un stade avancé a un taux de survie à cinq ans de 34 % seulement.

PNAS

Première carte génétique complète pour deux cancers
Vendredi, 08/01/2010 - 00:00

Des scientifiques britanniques ont établi pour la première fois la carte génétique complète de deux formes courantes de cancer (peau et poumons), qui pourrait marquer un tournant dans le traitement de ces maladies, selon deux articles publiées dans le magazine Nature. Les cartes du génome des tumeurs révèlent les mutations d'ADN qui causent des cancers de la peau et des poumons, ce qui pourrait révolutionner la façon dont ces maladies sont diagnostiquées et traitées au cours des prochaines années. Cela pourrait notamment permettre d'élaborer des traitements sur mesure pour les patients.

Les cancers sont provoqués par des altérations génétiques - des mutations de l'ADN - qui peuvent être provoquées par des facteurs environnementaux comme la fumée du tabac, des substances chimiques nocives ou des rayons ultraviolet, qui poussent certaines cellules à croître de façon incontrôlée. Des scientifiques de l'institut Sanger, financé par le Wellcome Trust, et leurs collaborateurs américains et néerlandais, ont cartographié les altérations génétiques créées par les tumeurs chez des patients souffrant de cancer du poumon et d'un mélanome malin, un cancer de la peau pouvant être mortel.

"C'est un moment fondamental dans la recherche sur le cancer. (...) Aujourd'hui, pour la première fois, dans le cas de deux cancers, un mélanome et un cancer du poumon, nous avons fourni une liste complète des anomalies d'ADN", a souligné le professeur Stratton, qui a mené ce projet. Ces recherches permettront aussi de mieux comprendre comment l'organisme essaie de réparer les dégâts causés par les cancers et d'empêcher la maladie de se propager.

Nature

Des vers pour un traitement plus efficace du cancer
Vendredi, 08/01/2010 - 00:00

Des chercheurs de l'Université de Queen ont trouvé un lien entre deux gènes impliqués dans la formation de cancer en examinant des vers. Cette découverte permet d'obtenir des informations cruciales sur l'interaction des gènes et la formation de tumeurs. Cette étude pourrait mener à la création d'un médicament pour le traitement du cancer.

Le gène PTEN joue un rôle très important chez l'homme. En effet, la perte de sa fonction peut provoquer des cancers (70 à 80 % des cancers de la prostate sont dus à la perte de la fonction PTEN). Une autre famille de gènes, appelés récepteurs Eph, sont souvent présents à des niveaux élevés dans les cancers. Aucun lien entre le PTEN et les récepteurs Eph dans la formation des cancers n'avait jusqu'alors été démontré. La présente étude montre une relation entre ces deux gènes chez les vers.

L'équipe de recherche a augmenté les niveaux des récepteurs Eph chez les vers. Ils ont ensuite constaté que le taux de PTEN diminuait et que les vers mourraient prématurément. A l'opposé, lorsque le niveau des récepteurs Eph est réduit, les taux de PTEN augmentent et les vers survivent plus longtemps que la normale. Du fait d'une importante similarité entre les humains et les vers au niveau des mécanismes cellulaires, l'équipe estime que les mêmes principes sont applicables chez l'homme. Toutefois, il faudra d'abord en apprendre plus sur l'interaction entre ces deux gènes chez l'être humain.

Ces résultats pourraient conduire à des percées intéressantes dans le traitement du cancer, et notamment celui du sein. A l'heure actuelle, certaines femmes souffrant d'un cancer du sein développent une résistance aux médicaments. Or ces mêmes femmes ont perdu l'expression du PTEN. Il est supposé que leur Eph est hyperactive, ce qui aurait réduit le taux de PTEN.

BE

Cancer du poumon : de nouvelles molécules prometteuses
Vendredi, 08/01/2010 - 00:00

De nouvelles molécules testées sur des souris apparaissent prometteuses pour combattre le cancer du poumon, et notamment les formes qui deviennent résistantes aux traitements actuels, selon une étude américaine sur l'animal. Ces travaux de l'équipe de Pasi Janne (Dana Farber Cancer Institute, Boston, nord-est des Etats-Unis) sont publiés dans l'édition datée du 24-31 décembre de la revue scientifique britannique Nature. Les nouvelles molécules, des inhibiteurs d'enzymes intracellulaires impliquées dans la prolifération des cellules, ont permis de réduire la croissance des tumeurs broncho-pulmonaires chez des souris, selon les auteurs.

Les chercheurs ont réalisé leurs tests sur des tumeurs désignées sous le terme de cancers "non à petites cellules" (carcinomes à grandes cellules, adénocarcinomes et carcinomes épidermoïdes) qui représentent 70 à 80 % de l'ensemble des cancers bronchiques. Par opposition, la forme moins fréquente (20 à 25 % des cas) des cancers bronchiques est dite "à petites cellules".

Parmi les cancers du poumon les plus fréquents, certains sont porteurs de mutations qui entraînent l'activation permanente d'une protéine particulière, le facteur de croissance épidermique (en anglais : epidermal growth factor receptor ou EGFR).

Les médicaments qui bloquent le récepteur de l'EGFR sont utiles, mais des mutations génétiques peuvent apparaître dans la tumeur et une résistance au traitement se développer. Le nouveau type d'inhibiteurs du facteur de croissance EGFR identifié par Pasi Janne et ses collègues s'attaque à de telles mutations. Ces molécules, qui semblent prometteuses, bloquent sélectivement le récepteur, que la mutation soit d'emblée présente ou qu'elle apparaisse secondairement.

Les chercheurs espèrent que ces molécules seront cliniquement plus efficaces et mieux tolérées que les inhibiteurs actuels, comme l'Iressa et le Tarceva.L'Iressa (nom du principe actif : géfitinib) d'AstraZeneca et le Tarceva (erlotinib) de Roche sont des inhibiteurs d'enzymes du récepteur du facteur de croissance EGFR.

Google

Les biofilms : découverte d'un nouveau mode de propagation des virus
Vendredi, 08/01/2010 - 00:00

Des chercheurs de l'Institut Pasteur et du CNRS dirigés par Maria-Isabel Thoulouze et Andrés Alcover, au sein de l'unité de Biologie cellulaire des lymphocytes, en collaboration avec Antoine Gessain de l'unité d'Epidémiologie et physiopathologie des virus oncogènes, et avec l'Imagopole, viennent de mettre en évidence, pour la première fois dans le monde viral, des structures de types « biofilms », formées par le rétrovirus HTLV-1 à la surface des cellules qu'il infecte. Il s'agit d'agrégats de virus et de matrice extracellulaire riche en sucres, secrétée par la cellule, et dont la synthèse est commandée par le génome du virus, intégré dans le génome cellulaire.

Le virus HTLV-1 (virus de la leucémie humaine des cellules T du type 1) est le premier rétrovirus humain à avoir été isolé, en 1980, trois ans avant la découverte du VIH, rétrovirus responsable du sida. Il infecte quinze à vingt millions de personnes dans le monde, et est à l'origine de pathologies diverses, de la leucémie/lymphome T de l'adulte à des formes de neuromyélopathie (paraparésie spastique tropicale) ou à d'autres syndromes inflammatoires chroniques, comme les dermatites infectieuses, des uvéites ou des myosites. On savait déjà que la transmission de ce virus dans l'organisme de l'hôte infecté se faisait uniquement par contact de cellule en cellule, mais le mécanisme de cette transmission restait encore inexpliqué.

Au sein du biofilm, véritable manteau protecteur et adhésif, HTLV-1 se transmet beaucoup plus efficacement qu'à l'état libre et unitaire. En éliminant le biofilm viral de la surface des cellules infectées, les chercheurs ont en outre réduit de 80% le taux d'infection, soulignant ainsi l'importance que représente ce mode de transmission pour HTLV-1.

Chez les bactéries, les biofilms sont déjà connus depuis longtemps. Sur l'émail de nos dents, ils forment la plaque dentaire. On en trouve également dans les installations industrielles, au sein de notre propre flore intestinale. Lorsqu'ils colonisent les implants médicaux, comme les prothèses ou les cathéters, ils peuvent être source d'infections à répétition. Pour ces raisons, les biofilms bactériens font l'objet de nombreuses recherches visant à limiter leur développement et à les rendre perméables aux traitements anti-bactériens.

CNRS

Identification d'un gène de prédisposition à la sclérose en plaques
Vendredi, 08/01/2010 - 00:00

Des chercheurs du centre de Physiopathologie de Toulouse Purpan (Unité Inserm 563 - Université Paul Sabatier Toulouse III - Immunologie et Pathologies infectieuses) viennent d'identifier, en collaboration avec une équipe suédoise, un gène de prédisposition à la sclérose en plaques. Cette découverte ouvre de nouvelles voies de recherche sur cette maladie mais également sur les pathologies impliquant le système immunitaire en général.

Ces travaux sont publiés dans Science Translational Medecine . La sclérose en plaques est une maladie multi-génique, c'est-à-dire que son développement met en jeu plusieurs gènes. L'implication des gènes du système majeur d'histocompatibilité (HLA) est établie depuis plus de trente ans.

_ Ce n'est que tout récemment que le rôle d'autres gènes a été découvert. Un nouveau gène de prédisposition à la sclérose en plaques, le gène VAV1, vient d'être identifié chez le rat par les équipes de Gilbert Fournié et Abdelhadi Saoudi.

Le rôle de ce gène dans la sclérose en plaques a été découvert initialement en utilisant des modèles expérimentaux en collaboration avec l'équipe suédoise. Forts de cette découverte, les chercheurs français et suédois ont montré l'implication du même gène en pathologie humaine. Pour se faire, ils ont conduit une étude à grande échelle mobilisant plus de 12 000 patients, originaires de plusieurs pays, dont la France.

Le gène VAV1 identifié joue un rôle majeur dans le développement et l'activation des lymphocytes T, acteurs importants du système immunitaire normalement chargés de lutter contre les virus et autres agents pathogènes.

A l'heure actuelle, les chercheurs à l'origine de cette découverte étudient les mécanismes par lesquels ce gène influence la prédisposition à la sclérose en plaques. A terme, ces travaux pourraient conduire au développement de nouvelles approches thérapeutiques dans la sclérose en plaques et d'autres maladies mettant en jeu le même type de dysfonctionnement du système immunitaire.

Inserm

Des bactéries pour construire des vaisseaux
Vendredi, 08/01/2010 - 00:00

Les petites artères coronaires qui assurent l'alimentation du coeur peuvent se boucher lorsque la plaque d'athérome (de graisse et d'autres cellules) devient trop importante à l'intérieur. Les personnes atteintes ressentent alors des douleurs à la poitrine, c'est l'angor qui peut aboutir à l'infarctus lorsque l'obstruction est totale.

Plusieurs techniques permettent de désobstruer les artères mais parfois cela est impossible, les chirurgiens peuvent alors construire une déviation qui permet d'éviter la zone bouchée, c'est le pontage. Généralement, on utilise les veines des jambes des patients pour le réaliser mais dans certains cas c'est impossible. Il faut alors recourir à des vaisseaux artificiels qui eux même risquent d'être obstrués car il n'ont pas les propriétés des veines et des artères naturelles.

La solution réside peut-être dans une bactérie connue sous le nom de xylinum Acetobacter. C'est du moins ce que révèle une thèse de l'Académie Sahlgrenska de l'Université de Göteborg, en Suède. La cellulose produite par cette bactérie pourrait être utilisée pour construire des vaisseaux bien plus proches de leurs équivalents naturels. Elle présente une résistance suffisante pour faire face à la pression artérielle tout en générant moins de risque de caillots.

« Il n'ya pratiquement pas de caillots de sang avec de la cellulose bactérienne, et le sang se coagule beaucoup plus lentement qu'avec tous les matériaux que j'ai utilisés comme comparaison», explique Helen Fink, biologiste moléculaire et auteur de la thèse. «Cela signifie que la cellulose fonctionne très bien en contact avec le sang et constitue donc une alternative très intéressante pour les vaisseaux sanguins artificiels. »

NO

Des neurochimistes identifient une molécule de la panique
Vendredi, 08/01/2010 - 00:00

Une attaque de panique constitue un trouble de l'anxiété sévère, où les symptômes mentaux et physiques semblent se nourrir mutuellement : palpitations cardiaques, gêne respiratoire, transpiration, vertige, se combiner à une sensation de perte de contrôle de soi, à l'impression d'être en train de mourir. Si les origines biologique et psychologique de ces crises sont parfois difficiles à démêler, il a été démontré qu'elles peuvent être induites, tant chez l'homme que chez l'animal, par du lactate de sodium ou des inhalations de CO2. Des médicaments permettent de les juguler, mais ils ne sont pas sans inconvénients (risque de dépendance). Une nouvelle étude illustre le rôle d'une hormone dans ce trouble anxieux, pouvant ouvrir des pistes thérapeutique

Une équipe américano-suédoise a en effet constaté que certaines molécules inhibitrices de l'orexine (aussi nommée "hypocrétine") pouvaient réduire les comportements de panique observés chez des rats sélectionnés pour présenter ces troubles d'angoisse. Philip Johnson (Université de l'Indiana) et ses collègues ont aussi montré que l'activation des neurones qui synthétisent l'orexine est nécessaire à l'apparition de la panique chez ces rats. Enfin, ils ont constaté que des patients sujets à l'anxiété panique présentaient des concentrations d'orexine dans le fluide cérébro-spinal plus élevées que dans un groupe contrôle.

L'orexine a beaucoup été étudiée pour son rôle dans l'éveil et ses troubles : certains chiens narcoleptiques présentent des mutations de récepteurs à orexine, tandis que chez l'homme, c'est la molécule stimulant ces récepteurs qui fait défaut. Récemment, une équipe (unité Inserm 628, université Claude-Bernard, Lyon) a montré que des souris manipulées pour ne pas exprimer l'orexine entraient directement en sommeil paradoxal et en catalepsie. Concernant la panique, "corrélation n'est pas causalité", rappelle M. Lin, qui se demande si les antagonistes de l'orexine utilisés par ses confrères n'induisent pas simplement une somnolence chez les animaux.

LM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top