RTFlash

RTFLASH Recherche & Technologie
NUMERO 519
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Juin 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un nouveau type de radio : la radio à ultraviolets
Jeux vidéo : demain, l'interface sera virtuelle
Le réseau Twitter émerge comme source d'information
Matière
La plus grande centrale géothermique inaugurée en Allemagne
Un nouveau procédé chimique pour les biocarburants de deuxième génération
Une nouvelle membrane composite à l'éthanol pour les piles à combustible
Espace
Une planète de 6 fois la masse de Jupiter
Terre
Le cycle de l'azote a été fondamentalement modifié par les activités humaines
Total expérimente l'enfouissement du gaz carbonique
Vivant
Vers le traitement des maladies génétiques
Alzheimer, maladie infectieuse ?
Des avancées dans la détection du cancer de l'intestin
Mucoviscidose : bientôt des médicaments spécifiques
Découverte d'un gène responsable de la goutte
Edito
Quotas de carbone, Contribution Climat-Energie et Taxe Carbone aux frontières : trois outils complémentaires et indispensables contre le réchauffement climatique



La révision du système européen d'échange de droits d'émission (SCEQE), qui sera d'application entre 2013 et 2020, vise à réduire les émissions de gaz à effet de serre de 21 % par rapport aux niveaux de 2005. Le SCEQE est un système de plafonnement et d'échange («cap and trade»): il plafonne le niveau global des émissions autorisées mais, dans cette limite, il permet aux participants d'acheter et de vendre des quotas, selon leurs besoins, de manière à réduire les émissions de manière efficace. Le nombre de permis émis chaque année dans l'UE diminuera de manière linéaire de façon à réduire le niveau global d'émissions chaque année.

Le SCEQE couvre actuellement plus de 12 000 installations industrielles et centrales électriques (1140 en France), ce qui représente collectivement près de la moitié du volume total des émissions de CO2 de l'UE, et 40 % de ses émissions totales de GES (les 60 % restants étant couverts par une décision «de répartition des efforts» sortant du cadre du SCEQE). Pendant les deux premières périodes d'échanges du SCEQE (2005-2012), la grande majorité des permis ont été accordés gratuitement.

La directive révisée prévoit le principe d'une mise aux enchères progressive des quotas entre 2013 et 2020 mais des exceptions transitoires sont permises pour la production d'électricité, essentiellement pour les nouveaux États membres de l'UE et moyennant certaines conditions.

Des exceptions au principe de la mise aux enchères intégrale sont également possibles pour les secteurs manufacturiers exposés à un risque sérieux de "fuite de carbone", c'est-à-dire la délocalisation de la production vers des pays tiers ayant une politique climatique moins stricte, ce qui entraînerait une augmentation des émissions de CO2 par ces pays.

Le marché européen des quotas de CO2 (SCEQE) , à travers un système d'allocations, planifie la baisse des émissions des industries les plus polluantes (sidérurgie, ciment, verre, raffinage, papier...) mais celles-ci ne représentent que 40 % des émissions européennes de CO2. Le reste - 60 % - provient des transports routiers, de l'agriculture, du chauffage et n'intègre pas le juste prix des dommages environnementaux engendrés par l'augmentation du CO2 rejeté dans l'atmosphère.

L'idée d'une Contribution "climat-énergie", émise à l'occasion du "Grenelle" de l'environnement, est de compléter le système européen de quotas d'émissions de GES et d'intégrer, dans tous les secteurs non couverts par ce système européen, les effets des émissions de gaz à effet de serre dans les systèmes de prix par la taxation des consommations d'énergies fossiles. L'argent ainsi dégagé sera redistribué aux entreprises et aux consommateurs sous forme d'une allocation annuelle ou d'aides spécifiques aux plus défavorisés en situation de précarité énergétique.

Cette CEC devra passer par une augmentation des taxes sur les énergies. La Taxe intérieure sur les produits pétroliers (TIPP) (gazole, super sans plomb et fioul) ne représente que 3,5 % de nos prélèvements obligatoires, tandis que la main d'oeuvre sert d'assiette à 38% de nos prélèvements. Le fioul domestique est ainsi taxé à 21 euros/tonne de CO2 en France contre 56 ?/t en moyenne dans l'UE et 131 ?/t en Suède.

La Finlande a été la première nation à mettre en place une «fiscalité verte» - qui frappe à la fois entreprises et particuliers sous forme d'impôt indirect comme la TVA. Cette taxe écologique, qui rapporte 500 millions d'euros par an (0,3 % du PIB) a été compensée par une baisse des impôts sur le revenu ou des cotisations sociales.

Autre exemple remarquable : le Danemark. Ce pays a été l'un des premiers pays à mettre en place une contribution climat-énergie à la fois sur les entreprises et sur les ménages depuis le début des années 1990. Aujourd'hui, près de 10 % des ressources publiques est perçu au moyen des taxes environnementales.

Un taux de base de 13,5 ? la tonne de CO2 a été imposé aux ménages en 1992 puis aux entreprises en 1993 en plus de toutes les taxes préexistantes. Mais pour des raisons de compétitivité, des abattements ont été accordés aux entreprises et notamment aux industries intensives en énergie.

Au final, les taxes totales effectives sur les ménages s'élevaient à 81 ? la tonne de CO2. Ces effets ont été compensés par des réductions d'impôts sur les bas revenus et par une augmentation des allocations familiales, mais l'idée de mettre en place une prestation spéciale pour aider les personnes les plus touchées par la fiscalité verte a été abandonnée en raison de coûts administratifs trop élevés.

Une étude du département d'économétrie de l'Université de Cambridge montre que la contribution "énergie-climat" a un «effet positif sur l'activité, de l'ordre de 0,5 %, dans six pays qui l'ont introduite. Cette CEC présente donc un triple avantage : elle améliore les bénéfices engendrés sur la croissance, accélère la réduction des émissions de CO2 et améliore la redistribution sociale.

Toujours selon l'université de Cambridge, la taxe produit un avantage compétitif - meilleure efficacité énergétique et réduction des coûts salariaux - pour 5 des 6 pays étudiés, et a été neutre pour le dernier (Royaume-Uni).

Mais pour atteindre cette triple efficacité, écologique et économique et sociale, le CEC doit respecter certains principes fondamentaux.

Premier principe, la neutralité fiscale. L'introduction de cette CEC doit se faire "à fiscalité constante" : elle doit être strictement compensée par une baisse des prélèvements obligatoires de façon à préserver le pouvoir d'achat des ménages et la compétitivité des entreprises.

Cette CCE doit également respecter le principe de progressivité. La valeur carbone est liée aux objectifs globaux de réduction que le monde doit se fixer, aujourd'hui une division par deux des émissions de CO2 en 2050. Mais elle est aussi dépendante du facteur temps, car plus on tarde, plus on accroît le coût pour demain.

Autre principe important, la redistribution. Les sommes collectées doivent être réinjectées dans l'économie de l'environnement, en les redistribuant à chaque citoyen ou en subventionnant l'innovation et les investissements dans les énergies propres et la maîtrise de l'efficacité énergétique.

Il faut également respecter l'universalité de cette contribution. Un kilo de carbone ayant le même impact, d'où qu'il soit émis et par n'importe qui, le prix doit s'appliquer de façon homogène à l'ensemble des acteurs. De récentes études économiques montrent que réduire ses émissions constitue à terme un gain pour l'entreprise.

Enfin, cette contribution doit s'intégrer harmonieusement dans le cadre fiscal existant en matière d'incitation à l'utilisation des énergies renouvelables et aux technologies propres

La CCE doit également s'inscrire en cohérence avec la modernisation globale de notre fiscalité et notamment avec la réforme de la TP qui prévoit la suppression de la taxation des investissements des entreprises et l'allégement de l'imposition d'entreprises industrielles ouvertes à la concurrence et la création d'une taxe d'activité économique assise sur la partie foncière de l'ancienne taxe professionnelle et d'une cotisation sur la valeur ajoutée de l'ensemble des entreprises.

Dans tous les cas, un mécanisme d'ajustement aux frontières pour inclure le carbone importé devra être étudié, afin d'éviter les distorsions de concurrence internationale. Cette taxe carbone aux frontières est donc indispensable pour compléter la contribution climat-énergie (CCE) et le système européen de quotas d'émission de GES car il est nécessaire de soumettre les importations aux mêmes contraintes environnementales que les productions européennes.

La mise en place de ce tryptique, SCEQE étendu, CCE et Taxe carbone aux frontières est indispensable si nous voulons, dans le cadre du futur accord international qui sera conclu en décembre à Copenhague, nous donner les moyens d'empêcher un dérèglement incontrôlable du climat.

A cet égard, et sans faire de catastrophisme, deux études internationales récentes (Voir mon édito 515 du 30 mai) montrent de manière convergentes que, pour avoir une chance de limiter à deux degrés le réchauffement climatique, il faut impérativement limiter à 190 milliards de tonnes (190 gigatonnes) nos émissions de carbone d'ici 2050, ce qui représente seulement vingt ans d'activités humaines au rythme actuel !

Face à cette échéance et à ses enjeux pour notre planète, nous devons combiner de manière nouvelle et pragmatique tous les outils que nous offrent le marché et la puissance publique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un nouveau type de radio : la radio à ultraviolets
Vendredi, 19/06/2009 - 00:00

Depuis plusieurs années, l'armée américaine s'est intéressée à un système de communication qui utiliserait les ultraviolets (UV). Ce nouveau type de dispositif devrait voir bientôt le jour. En collaboration avec l'Army Research Lab (ARL), les scientifiques affirment avoir résolu les derniers problèmes relatifs à la commercialisation d'une telle radio. Ils seraient en effet parvenus à établir un modèle permettant de comprendre suffisamment les processus complexes de diffusion des UV dans l'atmosphère, dernier obstacle majeur à sa conception. Cette nouvelle percée technologique ouvre la voie à une nouvelle forme de communication, à savoir les communications sans ligne de vue directe.

Si les scientifiques ont éprouvé tant de difficultés à concevoir un tel système, c'est qu'à première vue, les UV-C, compris dans la bande de longueurs d'ondes 200 à 280 nm, ne sont pas compatibles avec les communications dans l'atmosphère. Contrairement aux UV-A et UV-B, un signal de forte puissance d'UV-C est absorbé en quelques kilomètres à la surface de la Terre, les photons étant très rapidement capturés par les molécules d'oxygène, d'ozone et d'eau.

Mais, paradoxalement, cette caractéristique intéresse particulièrement les chercheurs qui y voient une radio idéale pour des communications à courte portée sécurisées, car il devient alors très difficile de les intercepter. De plus, d'après les observations de Brian Sadler, chercheur au ARL, les UV-C se caractérisent par un rapport signal/bruit très élevé, permettant l'utilisation de transmetteurs de très faible puissance.

D'autre part, contrairement aux autres procédés optiques qui sont basés sur des transmissions de signaux plus ou moins en ligne directe entre le transmetteur et le receveur, un système UV peut prendre avantage de la diffusion du signal dans l'atmosphère.

Le transmetteur envoie un signal modulé dans le ciel sous la forme d'un cône spatial. Le récepteur établit un champ de réception compris également dans un volume conique et chevauchant le premier. Les communications peuvent alors être transmises grâce au pont formé par ces deux cônes. Ce positionnement est idéal pour des communications dans un milieu urbain dense, là où les communications en ligne directe sont difficiles à mettre en place. Comme le confirme Russell Dupuis, un professeur en optoélectronique à Georgia Tech, "ceci permet de passer outre les angles, les forêts, ou n'importe quel endroit où la lumière peut passer".

A l'aide des composants disponibles actuellement et dans les conditions typiques d'opération, les ingénieurs ont conçu un système de faible puissance qui, lorsque les cônes sont placésde façon adéquate, pourrait transmettre approximativement 100 kb/s à 10 mètres. Ce taux de transmission tombe à moins de 10 kb/s sur une distance de 100 mètres, ce qui est néanmoins encore suffisant pour une communication audio en numérique de bonne qualité.

BE

Jeux vidéo : demain, l'interface sera virtuelle
Vendredi, 19/06/2009 - 00:00

Microsoft s'est jeté dans la bataille : l'entreprise a finalement officialisé le projet Natal. De quoi s'agit-il ? D'un capteur de mouvements utilisant une caméra vidéo 3D dotée d'un micro, positionnée au-dessus de l'écran, qui permet aux joueurs d'interagir sur les jeux avec les mouvements de leur corps.

A la différence de la Wii de Nitendo, ici, plus besoin de manettes, ce sont les placements, mouvements gestuels des mains, des jambes et de la tête, mais aussi ordres vocaux et changements d'intonation dans la voix qui permettront de jouer. L'objectif de ce changement de stratégie de Microsoft : capter cette nouvelle tranche de consommateurs plus grand public et familiale, qui a fait le succès de la Wii, dernière arrivée dans le trio des consoles de nouvelle génération, et déjà gratifiée de plus 50 millions d'exemplaires vendus dans le monde depuis son lancement en 2006, à comparer aux 30 millions de consoles Xbox 360 de Microsoft et 22,5 millions de PS3 de Sony.

Le concept n'est cependant pas nouveau. Dès 2003, l'Eye Toy de Sony ¿ dont 10 millions d'exemplaires ont été vendus dans le monde ¿ permettait, une fois connectée à la Playstation 2, d'interagir par captation des mouvements du corps, en utilisant des jeux dédiés. Mais l'absence de développements spécifiques a, peu à peu, laissé de côté cet accessoire pourtant promis à un bel avenir.

Les véritables avancées technologiques viennent d'Israël où quelques sociétés travaillent depuis plusieurs années sur les interfaces de réalité virtuelle. Parmi elles, 3DV Systems et son concept de ZCam, un prototype de webcam 3D améliorée utilisant la technologie de lumière infrarouge (TOF, Time of Flight). Cette dernière s'est faite rachetée (avec ses 22 brevets) en mars 2009 par... Microsoft afin d'intégrer le projet Natal.

Mais c'est surtout d'une start-up israélienne créée il y a moins de deux ans qu'est venue la véritable révolution. La petite équipe de Cam-Traxa présenté en mai 2008 un logiciel Open Source de reconnaissance d'objets, téléchargeable gratuitement. Le projet CamSpaceest désarmant de simplicité : il suffit de présenter un objet quelconque devant la webcam pour que le logiciel l'évalue, le modélise et l'intègre. L'objet devient alors la manette de jeu. Utilisant et améliorant des algorithmes du domaine public, la plate-forme fonctionne déjà parfaitement sur PC sous Windows avec toute webcam du commerce.

LM

Le réseau Twitter émerge comme source d'information
Vendredi, 19/06/2009 - 00:00

Twitter concerne les médias comme moyen de diffusion de l'information. Selon le site Twitterholic. com, qui tient à jour le top 100 des fils sur le réseau, CNN arrive au quatrième rang, avec 1,69 million de followers (suiveurs) et le New York Times au quatorzième, avec 1 million. Le fil sur les technologies du Guardian (Guardiantech) rassemble 600 000 abonnés - à comparer avec la diffusion du quotidien papier (400 000 exemplaires).

L'audience de la presse française est modeste. Le Monde et Le Figaro arrivent en tête, avec chacun un peu plus de 1 600 followers. Le magazine L'Express encourage ses journalistes à "twitter" sous leur nom ou sous pseudonyme. Les sites d'information "pure players" sont aussi représentés, souvent par leurs journalistes. Pierre Haski, de Rue89, a un millier de suiveurs. Souvent, ces fils fournissent des liens vers les sites d'information et attirent des visiteurs. Certains médias ont lancé des fils spécifiques pour couvrir des événements. C'est le cas de la chaîne Arte.

Twitter est fréquenté par un public de news junkies, accros à l'information. Le réseau s'est ainsi vite créé une réputation dans les breaking news, c'est-à-dire les informations urgentes. Il a été le premier à annoncer l'amerrissage forcé d'un avion dans l'Hudson (New York), le 15 janvier. Il est devenu un outil de veille.

LM

^ Haut
Matière
Matière et Energie
La plus grande centrale géothermique inaugurée en Allemagne
Vendredi, 19/06/2009 - 00:00

Le Ministre fédéral de l'Environnement, Sigmar Gabriel, a inauguré officiellement, le 2 juin 2009, la plus grande centrale géothermique d'Allemagne à Unterhaching, près de Munich. Ecologique et indépendante des conditions météorologiques, la chaleur terrestre ou géothermie est considérée comme une source d'énergie essentielle pour l'avenir. Cependant, elle ne représente encore qu'une proportion négligeable de la production électrique et thermique allemande.

M. Gabriel a souligné que le secteur de la géothermie est un bon exemple de la faculté d'innovation de l'Allemagne et a finalement ajouté : "Quand on n'a pas d'or sous terre, il faut exploiter celui que recèlent les cerveaux". La centrale géothermique de production d'électricité et de chaleur aura une capacité de 3,36 MW. Cette puissance devrait être atteinte à l'été, soit cinq ans après le premier forage. Actuellement, la production atteinte est de 2 MW d'électricité. L'approvisionnement en chaleur avait démarré en automne 2007.

Aujourd'hui, la centrale couvre les besoins énergétiques d'environ un tiers des foyers de la commune d'Unterhaching, qui compte 23.000 habitants. L'installation devrait permettre d'éviter l'émission de 40.000 tonnes de CO2 par an. Elle utilise de l'eau en ébullition entre 122 et 133°C, prélevée par pompage à une profondeur de quelques 3500 mètres.

Le technique dite du "cycle de Kalina", particulièrement efficace, a été utilisée à Unterhaching pour la première fois à l'échelle fédérale. Le principe est le suivant : l'eau bouillante transmet sa chaleur à un mélange d'ammoniac et d'eau (qui s'évapore à basse température), afin de garantir ainsi un meilleur rendement énergétique.

BE

Un nouveau procédé chimique pour les biocarburants de deuxième génération
Vendredi, 19/06/2009 - 00:00

Le Pacific Northwest National Laboratory (PNNL) vient de mettre au point un nouveau procédé conduisant à la conversion, en une seule étape, de la cellulose en produits chimiques précurseurs de la synthèse de carburants et de matériaux plastiques. Cette avancée devrait avoir des retombées importantes notamment pour la filière de production de biocarburants de seconde génération où le problème technique majeur est le processus de conversion de la cellulose en produits fermentés ciblés.

La lignocellulose est composée d'hémicellulose, de lignine et de cellulose. Ces composés organisés en polymères, notamment dans la paroi des cellules de végétaux, jouent un rôle de tuteur pour plante. La robustesse de la lignocellulose est importante pour les végétaux, mais pose un sérieux problème pour les producteurs de biocombustibles. Les sucres, contenus dans la cellulose et l'hémicellulose étant intimement liés entre eux dans la lignocellulose, leur extraction est complexe et constitue un véritable obstacle pour l'industrie des biocarburants.

David King, chercheur au PNNL, présentait ses récents travaux concernant l'optimisation de la dégradation de la cellulose, lors de la réunion nord-américaine de la Société de Catalyse, le 8 juin dernier. La méthode consiste à utiliser un nouveau catalyseur composé de chlorure de cuivre et de chrome dispersés dans un liquide ionique appelé

Ce catalyseur est recyclable et optimise considérablement la dégradation de la cellulose pour des températures inférieures à 120°C; il permet ainsi de réduire les étapes de dégradation de la cellulose en glucose et de conversion du glucose en 5-hydroxyméthylfurfural (HMF), en une seule étape. L'intérêt actuel de l'utilisation de la biomasse comme source de produits chimiques relance le développement de la chimie des composés furaniques.

Le HMF est un intermédiaire clé pour la préparation des polymères. Cette unique étape permet d'éviter les contraintes actuelles des approches multi-étapes, et permet d'envisager l'exploitation de la synthèse de HMF à partir de la cellulose pour la production de biocarburants et de produits plastiques. Le rendement de conversion est de l'ordre de 57 % de la teneur en sucres de la cellulose avec une pureté de 96% pour le produit final (HMF). La co-production de composés indésirables serait limitée.

[BE">EMIM] Cl.

Les liquides ioniques sont des sels organiques possédant des points de fusion inférieurs à 100°C et souvent même inférieurs à la température ambiante. Ils sont employés de plus en plus comme substituts aux solvants organiques traditionnels dans les réactions chimiques. Le rôle des liquides ioniques comme solvants "verts" devient de plus en plus important en synthèse organique. Leur capacité à dissoudre des complexes ou des sels de métaux de transition en fait des solvants de choix pour les réactions catalytiques.

Ce catalyseur est recyclable et optimise considérablement la dégradation de la cellulose pour des températures inférieures à 120°C; il permet ainsi de réduire les étapes de dégradation de la cellulose en glucose et de conversion du glucose en 5-hydroxyméthylfurfural (HMF), en une seule étape. L'intérêt actuel de l'utilisation de la biomasse comme source de produits chimiques relance le développement de la chimie des composés furaniques.

Le HMF est un intermédiaire clé pour la préparation des polymères. Cette unique étape permet d'éviter les contraintes actuelles des approches multi-étapes, et permet d'envisager l'exploitation de la synthèse de HMF à partir de la cellulose pour la production de biocarburants et de produits plastiques. Le rendement de conversion est de l'ordre de 57 % de la teneur en sucres de la cellulose avec une pureté de 96% pour le produit final (HMF). La co-production de composés indésirables serait limitée.

[BE

Une nouvelle membrane composite à l'éthanol pour les piles à combustible
Vendredi, 19/06/2009 - 00:00

Une membrane composite, presque imperméable à l'éthanol grâce à la présence de nanoparticules anorganiques, a été développée à l'Institut Fraunhofer des techniques de surface et bioprocédés (IGB). Les exigences pour une pile à combustible (PAC) à éthanol direct performante ont ainsi pu être satisfaites.

Grâce à leur rendement élevé et à leur procédé de fabrication n'émettant quasiment pas de gaz à effet de serre, les PAC apparaissent comme une technologie d'avenir pour l'approvisionnement en électricité des appareils électriques. Contrairement à l'hydrogène, l'éthanol est non toxique, liquide, fabriqué de façon propre et biotechnologique à partir de sources durables, et de maniabilité fiable.

L'éthanol peut ainsi sembler le combustible idéal, afin de permettre aux PAC de percer dans les marchés de masse. La PAC à éthanol direct (DEFC,) injecte directement l'éthanol au niveau de l'anode de façon électrocatalytique, où il est oxydé. Or, la membrane qui sépare les deux chambres de la PAC l'une de l'autre, joue un rôle déterminant dans la performance de la DEFC : les membranes employées conventionnellement ne transportent pas seulement des protons, mais aussi de l'éthanol de l'anode à travers la membrane vers la cathode. Cette perte d'éthanol est désignée par le terme de "cross-over". Elle conduit à une diminution du rendement et de la performance de la PAC.

BE

^ Haut
Espace
Espace et Cosmologie
Une planète de 6 fois la masse de Jupiter
Vendredi, 19/06/2009 - 00:00

Les chercheurs de l'Institut National de Physique Nucléaire (INFN) ont repéré une nouvelle planète hors de notre galaxie d'environ 6 fois la masse de Jupiter, grâce à une méthode d'observation basée sur le phénomène de « lentille gravitationnelle ». Les scientifiques ont utilisé une nouvelle méthode d'observation de l'espace : l'effet de microlentille gravitationnelle.

Ce phénomène se produit lorsqu'une étoile distante (source) s'aligne avec un objet plus proche (lentille) qui réfléchira la lumière de la source et permettra à l'observateur d'identifier des exoplanètes qui n'émettent que peu de lumière. L'exoplanète est visible si sa présence provoque une distorsion de la lumière émise par les objets stellaires alignés.

Comme le phénomène dépend de la masse de l'objet lentille et des mouvements relatifs de l'objet et de l'étoile, les effets de lentille gravitationnelle sont brefs. De plus, l'alignement de l'étoile et de l'objet avec l'observateur sur Terre est exceptionnellement rare. Ainsi les astronomes ne peuvent observer l'exoplanète qu'une seule fois, lorsque les conditions suffisantes sont réunies. Il est donc parfois difficile de confirmer une hypothèse d'observation.

Le docteur De Paolis, un des chercheurs, est enthousiaste à l'idée de pouvoir détecter des planètes à des distances si phénoménales. Il déclare : « Ce qui est intéressant dans cette technologie est qu'elle permet de distinguer des planètes de la taille de Jupiter et même moins, dans d'autres galaxies ». « C'est une chose exceptionnelle » ajoute-t-il.

MS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le cycle de l'azote a été fondamentalement modifié par les activités humaines
Vendredi, 19/06/2009 - 00:00

L'analyse d'une carotte de glace prélevée au Groenland montre que la teneur en isotopes de l'azote a connu une baisse spectaculaire ces 150 dernières années. Ce fort déclin coïncide avec la période industrielle, ce qui suggère que les activités humaines en sont la cause.

L'azote est un gaz qui prédomine dans l'atmosphère (78 %) sous forme de diazote, il est également essentiel à la Vie puisque plantes et animaux en ont besoin pour fabriquer leurs protéines et synthétiser l'ADN. Il n'est toutefois pas exploitable sous sa forme atmosphérique, il faut d'abord qu'il se lie avec d'autres éléments comme l'hydrogène dans l'ammoniac NH3 ou l'oxygène dans les ions nitrates NO3-. Le cycle biogéochimique de l'azote décrit la succession des modifications subies par les différentes formes de l'azote (diazote, nitrate, nitrite, ammoniac, azote organique).

Dans son article, publié vendredi 5 juin dans la revue Science, Meredith Hastings, de l'Université Brown aux Etats-Unis, décrit comment elle a analysé une carotte de glace longue de 100 mètres prélevée à Summit, au Groenland en juin 2006. Ele a identifié sur l'échantillon une nette évolution de la composition isotopique de l'azote qui chute à partir des années 1850 jusqu'à maintenant alors que la concentration en nitrate augmente en parallèle.

Le changement le plus rapide s'est produit entre 1950 et 1980, après une accélération des émissions issues des énergies fossiles. Les nitrates ne sont pas toxiques par eux-mêmes mais une fois ingérés ils se trans forment dans l'organisme en nitrites qui eux sont cancérogènes. Ce résultat prouve que le cycle de l'azote a été fondamentalement transformé par l'injection dans l'atmosphère d'oxyde d'azote (NO) issu de la combustion des énergies fossiles. Cette variation invalide en partie les modèles prédictifs actuels, incluant les nitrates atmosphériques, qui doivent être réévalués.

NO

Total expérimente l'enfouissement du gaz carbonique
Vendredi, 19/06/2009 - 00:00

C'est une première en France. Le préfet des Pyrénées-Atlantiques vient d'autoriser Total à stocker du CO2 dans le sous-sol béarnais. L'expérience menée autour de Pau met à profit les sites du bassin gazier de Lacq et le savoir-faire accumulé par la société et ses prédécesseurs, dont Elf. Depuis des mois, le groupe pétrolier travaille sur ce projet 'parce que c'est notre responsabilité de prévenir le réchauffement climatique', souligne Jean-Michel Gires, directeur développement durable de Total. L'autorisation préfectorale va permettre d'exploiter un 'pilote industriel de captage de CO2', gaz qui sera transporté par pipeline depuis le complexe de Lacq et stocké géologiquement via un puits à Jurançon.

Ce pilote expérimental est constitué d'une chaudière qui, à Lacq, brûle le gaz ou méthane et dégage de la vapeur. En introduisant de l'oxygène à la place de l'air, on peut par oxycombustion capter les fumées et du CO2. Purifié et déshydraté, ce gaz est transporté par des conduites existantes jusqu'à un ancien réservoir souterrain à la chapelle de Rousse. Total met là à contribution des roches poreuses profondes qui, autrefois, contenaient du gaz naturel : elles sont à même de stocker un CO2 qui, ainsi, ne partira pas dans l'atmosphère. Le gaz est alors enfoui, isolé et confiné à moins 4 500 mètres entre des argiles étanches.

La chaudière a démarré le 26 mai et la première injection est prévue pour fin juin. 'Cette expérience devrait permettre d'emmagasiner 50 000 tonnes de CO2 en deux ans, chiffre M. Gires, et de vérifier si cette option, est valide. Dans ce cas, nous pourrions atteindre une dimension industrielle à l'horizon 2017.'

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers le traitement des maladies génétiques
Vendredi, 19/06/2009 - 00:00

Une étude menée par une équipe du Salk Institute for Biological studies, La Jolla, Californie, vient de permettre une avancée significative dans le domaine de la médecine régénérative en démontrant qu'il était possible, in vitro, de soigner une maladie génétique humaine en utilisant une approche combinant thérapie génique et cellules pluripotentes induites (cellules iPS).

Il y a environ 10 ans, les cellules souches humaines étaient, pour la première fois, cultivées en boîte de pétri. Avec cette première avancée technologique s'est développé l'espoir de pouvoir corriger les maladies génétiques et de parvenir, à moyen terme, à induire la différenciation des cellules iPS (induced pluripotent cells) en différents types de tissus selon le besoin.

En effet, les cellules iPS sont des cellules souches pluripotentes induites généralement dérivées de cellules somatiques adultes, grâce à l'expression "induite" d'une combinaison de facteurs de transcriptions. A ce jour, plusieurs études ont démontré l'efficacité de cette approche chez la souris, mais sa faisabilité chez l'homme n'avait jusque-là pas été établie. Les chercheurs du Salk Institute apportent, avec cette étude, la première preuve que cette technologie peut avoir des applications chez l'homme.

Sous la direction des professeurs Belmonte et Verma et en collaboration avec des chercheurs du Centre de Médecine Régénérative de Barcelone et du CIEMAT (Centro de investigationes energiticas medioambientales y technologicas) de Madrid, les scientifiques du Salk Institute se sont intéressés au Syndrome de Fanconi. Il s'agit d'une maladie génétique rare responsable d'une série d'anomalies hématologiques qui entrave la lutte contre les infections, la distribution correcte de l'oxygène et la coagulation du sang. A l'heure actuelle, 13 gènes ont été recensés dont les mutations engendrent le développement de cette maladie qui fait partie des syndromes d'insuffisance médullaire héréditaire. Même après une greffe de moelle osseuse qui vise à corriger les problèmes hématologiques, les patients atteints du Syndrome de Fanconi sont toujours hautement susceptibles de développer des cancers et autres maladies graves.

Dans cette étude, les scientifiques ont réussi à corriger le gène défectueux dans les cellules de cheveux ou de peau de patients atteints du syndrome de Fanconi, grâce à des techniques de thérapie génique initiées dans le laboratoire du Pr. Verma.

Dans une seconde étape, ils ont reprogrammé avec succès ces cellules "réparées" en cellules iPS. Les cellules résultantes FA-iPS ressemblent en tous points aux cellules souches embryonnaires humaines ainsi qu'aux cellules iPS générées à partir de donneurs sains. Cette étude montre de surcroit que ces cellules FA-iPS peuvent se différencier en progéniteurs hématopoïétiques eux-mêmes capables de redonner naissance à des cellules sanguines saines.

Cette étude suggère qu'une telle approche est transposable chez l'homme grâce à ces cellules "réparées" et reprogrammées en cellules iPS capables de donner des cellules souches hématopoïétiques transplantables. Bien sûr, ces résultats restent encore très préliminaires et vont nécessiter de nombreuses recherches avant de passer de la théorie à la pratique.

BE

Alzheimer, maladie infectieuse ?
Vendredi, 19/06/2009 - 00:00

La maladie d'Alzheimer pourrait-elle se transmettre comme une pathologie infectieuse ? C'est la nouvelle hypothèse que soulèvent des travaux expérimentaux chez la souris menés par une équipe européenne. L'injection de tissu cérébral contenant la forme anormale d'une protéine humaine, typique de la maladie d'Alzheimer, dans le cerveau de souris saines entraîne la prolifération de lésions caractéristiques. Un phénomène qui rappelle le cas du prion pathologique, responsable de la maladie de Creutzfeldt-Jakob.

Principale cause de démence chez les sujets âgés, la maladie d'Alzheimer résulte d'une dégénérescence des neurones cérébraux, qui provoque la perte progressive et définitive des fonctions mentales, à commencer par la mémoire. Le cerveau atteint est caractérisé par la présence de deux types de lésions. L'une est le développement, entre les neurones, de plaques constituées de peptides bêta-amyloïdes ; l'autre est la formation, à l'intérieur des neurones, d'un écheveau de filaments entremêlés résultant de l'agrégation de protéines dites "tau".

Dans la maladie d'Alzheimer, "l'accumulation de protéines tau pathologiques commence autour d'une zone essentielle à la mémoire à court terme (moins d'une semaine), l'hippocampe. Puis, contrairement au simple vieillissement où le phénomène reste localisé, les protéines pathologiques se propagent, envahissent le lobe temporal du cerveau où s'intègrent les diverses informations qui aboutissent à un message compréhensible, puis les autres lobes et le reste du cortex cérébral. C'est toujours le même cheminement", décrit Luc Buée.

L'équipe européenne est partie du constat que lorsqu'un neurone atteint meurt, la protéine tau pathologique passe dans l'espace extracellulaire et les neurones voisins captent la protéine pathologique. "Cette protéine porte une signature particulière qui transmet la conformation anormale aux protéines tau normales. Cette réaction en chaîne propagerait ainsi la pathologie", indique Luc Buée.

Afin de tester cette hypothèse, Markus Tolnay et ses collègues ont utilisé deux types de souris transgéniques, ayant la capacité d'exprimer la protéine tau humaine. Mais, pour l'une, il s'agit d'une forme anormale, plus courte, alors qu'elle est normale dans le cas de la seconde. Les souris exprimant la forme anormale développent une neurodégénérescence et des filaments de protéine tau hyperphosphorylée, tandis que celles chez lesquelles la protéine tau est normale ne présentent pas ces anomalies.

L'injection de tissu cérébral contenant la protéine anormale dans le cerveau des souris exprimant la protéine normale entraîne la formation locale de filaments, typiques de la maladie d'Alzheimer, et la dissémination de cette anomalie dans les régions avoisinantes du cerveau. C'est ainsi qu'avait pu être démontrée la responsabilité d'une forme pathologique du prion dans la maladie de Creutzfeldt-Jakob, chez l'homme, ou dans la maladie de la vache folle, l'encéphalopathie bovine spongiforme. La révélation qu'une particule protéique, dépourvue de matériel génétique, pouvait constituer un agent infectieux avait bousculé le dogme qui limitait aux bactéries, aux virus et aux parasites la possibilité de remplir ce rôle.

Pour Luc Buée, cette "hypothèse séduisante" pourrait aussi signifier que "la composante liée à la protéine tau occupe une part plus importante qu'on le croyait dans la maladie d'Alzheimer et que la protéine tau anormale a des effets plus graves lorsqu'elle sort du neurone. Cela implique aussi que le suivi de la protéine tau dans le liquide céphalo-rachidien (dans lequel baignent le cerveau et la moelle épinière) pourrait aider au diagnostic de la maladie. Les espèces toxiques de la protéine pourraient également constituer des cibles thérapeutiques pour une immunothérapie", estime le spécialiste lillois.

LM

Des avancées dans la détection du cancer de l'intestin
Vendredi, 19/06/2009 - 00:00

Des chercheurs australiens ont mis au point des biomarqueurs d'expression de gènes qui peuvent distinguer avec précision les tumeurs colorectales cancéreuses et précancéreuses à partir de contrôles non cancéreux. Présentées la semaine dernière à l'occasion de la conférence de la Semaine des Maladies Digestives à Chicago (Etats-Unis), les résultats préliminaires sont le fruit d'une étude collaborative impliquant l'Organisation fédérale pour la recherche scientifique et industrielle (CSIRO), l'Université de Flinders (Adelaïde / Australie) et la société de soins de santé australienne Clinical Genomics Pty Ltd. Le but de cette collaboration intersectorielle : mettre au point un test de dépistage/diagnostic amélioré pour la détection du cancer de l'intestin et de lésions précancéreuses significatives.

« Si nous pouvons maintenant démontrer que les niveaux de ces biomarqueurs dans le sang ou les selles sont en forte corrélation avec un état clinique dans une large proportion des patients présentant des lésions cancéreuses ou précancéreuses (c'est-à-dire des polypes adénomateux), nous sommes peut-être en possession de la base d'un très important nouvel outil de diagnostic dans la lutte contre le cancer de l'intestin » a déclaré à cette occasion le docteur Trevor Lockett, porte-drapeau et leader du thème de la recherche nationale sur la santé préventive du CSIRO pour le cancer colorectal et la santé de l'intestin.

Selon le professeur Graeme Young du Centre pour la prévention et le contrôle du cancer de l'Université de Flinders, un dépistage régulier du cancer de l'intestin pour les personnes de 50 ans et plus est un outil puissant pour réduire l'impact de la maladie en Australie. « Si nous pouvons développer un test de dépistage capable d'indiquer la présence d'adénomes précancéreux d'importance clinique qui seraient retirés lors d'une coloscopie de suivi, nous serons en mesure de prévenir l'occurrence du cancer de l'intestin dans certains cas » a encore précisé ce professeur.

Enfin, de son côté, le PDG de Clinical Genomics Pty Ltd, Lawrence La Pointe, a déclaré que « si un test de dépistage plus robuste du cancer de l'intestin et en particulier des lésions précancéreuses était mis au point, l'équipe de recherche aurait réalisé une avancée majeure qui aura de fortes chances d'améliorer encore plus les résultats du dépistage et identifier plus précisément les personnes les plus à même de tirer profit d'une coloscopie ».

Avec 38.000 nouveaux cas par an, ce cancer touche indifféremment les deux sexes, puisqu'il représente par sa fréquence le 3ème cancer chez l'homme et le 2ème chez la femme. Responsable de 16.000 décès par an en France, le cancer colorectal reste le deuxième cancer en termes de mortalité, après celui du poumon.

SA

Mucoviscidose : bientôt des médicaments spécifiques
Vendredi, 19/06/2009 - 00:00

En France, 6 000 personnes souffrent de cette affection qui détruit progressivement les poumons et parfois le pancréas. À son origine, une mutation du gène CFTR qui code pour une protéine cruciale dans la régulation du transfert des ions chlore hors des cellules. Faute d'une protéine CFTR normale, les sécrétions muqueuses, trop épaisses et adhérentes, obstruent les voies respiratoires et digestives. Dernièrement, les traitements symptomatiques (kinésithérapie, antibiotiques...) ont permis d'améliorer considérablement la survie et le quotidien des malades. Mais l'âge moyen de décès reste très jeune : 24 ans.

Dès l'identification du gène CFTR, en 1989, les chercheurs ont rêvé de thérapies géniques, remplaçant le gène défectueux par un gène sain. Jusqu'ici, leurs espoirs ont été déçus. L'administration de gènes portés par un vecteur viral a montré une certaine efficacité lors d'essais cliniques, contrebalancée par des réactions inflammatoires gênantes.

Les spécialistes ont désormais les yeux tournés vers l'Angleterre, où un consortium teste une thérapie génique originale avec un vecteur synthétique, mieux toléré par l'organisme. Le gène est délivré par aérosol. «Une étude pilote vient d'être conduite chez une vingtaine de patients en état stable, indique le Pr Pierre Lehn, président du conseil scientifique de VLM. Si ses résultats, attendus fin juillet, sont concluants, l'équipe britannique passera à l'étape suivante, une administration mensuelle pendant un an.»

D'autres chercheurs parient sur des thérapies protéiques, visant, en fonction du type de mutation en cause, à activer ou à corriger la protéine CFTR malade. «Il s'agit de traitements à la carte, qui pourraient s'associer à une thérapie génique», précise Franck Dufour, directeur scientifique de VLM. Selon lui, l'une des molécules les plus avancées est le VX770 (laboratoire Vertex), un activateur de CFTR. Un essai de phase III (dernière étape avant la demande d'AMM) va débuter aux États-Unis et en Europe.

Ses résultats seront connus en 2010. Dans les mois à venir, les spécialistes attendent aussi avec impatience les conclusions d'études cliniques de phase II avec deux correcteurs de CFTR : le VX809 (Vertex) et le Miglustat (laboratoire Actelion, un médicament déjà prescrit dans une autre maladie rare, la maladie de Gaucher). L'enjeu est d'autant plus important que ces deux molécules seraient efficaces sur un type de mutation présent chez plus de 70 % des malades.

Enfin, une autre thérapie prometteuse, le PTC124 (PTC Therapeutics), est aussi en bonne voie. Destiné aux malades avec une mutation particulière dite à «codons stop» - soit 15 % des mucoviscidoses - ce médicament par voie orale vient d'être évalué chez trente petits patients français et l'essai de phase III se poursuit.

En cas de succès, le PTC124 pourrait être commercialisé dans les trois ans à venir pour les mucoviscidoses à codons stop. Mais ce médicament, spécifique non pas d'une maladie mais d'une mutation, pourrait avoir d'autres indications. Myopathies, hémophilie... plus de 2000 maladies génétiques rares sont dues dans 10 à 15 % des cas à une mutation à codons stop.

Le Figaro

Découverte d'un gène responsable de la goutte
Vendredi, 19/06/2009 - 00:00

La goutte est connue depuis plus de deux mille ans, mais son origine génétique restait mystérieuse. Pour la première fois, une mutation responsable de la maladie vient d'être identifiée par des chercheurs américains à Baltimore. Elle permet d'expliquer la cause de la goutte, connue depuis le XIXe siècle, à savoir une concentration excessive d'acide urique dans le sang. Ce composé est un déchet du métabolisme qui finit par s'accumuler sous forme de cristaux dans les articulations et les reins, provoquant alors de redoutables douleurs articulaires et des calculs rénaux.

Plusieurs indices indiquaient une origine en partie génétique, notamment le fait que dans près de 20 % des cas la goutte est déjà présente dans la famille, et que des formes précoces peuvent se déclarer au début de la vie adulte. Pour isoler la mutation responsable, les généticiens de la John Hopkins Medical Institution ont utilisé les moyens les plus modernes. Ils ont passé au crible le génome de milliers d'individus pour déceler un lien entre de très petites variations réparties sur leur ADN, appelées SNP (pour Small Nucleotide Polymorphism), et des taux élevés d'acide urique dans leur sang. Cette étude d'association génétique sur génome entier a payé : elle a permis à l'équipe de Baltimore de repérer un gène nommé ABCG2 sur le chromosome 4 portant une variation plus fréquente chez les personnes malades.

Les chercheurs ont ensuite injecté ce gène dans des cellules pour étudier la fonction de la protéine qu'il code. Cette méthode leur a permis de déterminer non seulement que cette protéine est un transporteur de l'acide urique dans le rein mais que la mutation repérée dans le gène fait chuter de moitié son efficacité. «Dans ce travail, souligne Frédéric Lioté, professeur à l'hôpital Lariboisière à Paris, l'élément impressionnant est que la fonction du gène et celle de son variant sont parfaitement démontrées.»

La mutation cause ainsi une diminution de l'excrétion d'acide urique par les reins, symptôme retrouvé dans 90 % des cas de la maladie et qui augmente fortement les risques de la développer. De plus, les auteurs ont découvert que comparé aux populations d'origine européenne, les personnes d'origine asiatique portaient trois fois plus souvent la mutation. Coïncidence troublante quand on sait qu'aux États-Unis elles sont également trois fois plus souvent sujettes à la maladie. D'après leurs calculs, les auteurs estiment que la mutation serait directement responsable d'au moins 10 % des cas de goutte chez les Américains d'origine européenne.

Cette découverte ne devrait pas modifier dans un proche avenir la prise en charge des patients, car il existe déjà des médicaments efficaces pour supprimer les symptômes de la goutte. «Le problème est plutôt dans l'observance des traitements qui doivent être maintenus à vieet qui ont parfois leurs limites quand ils sont peu compatibles avec les autres pathologies présentées par les malades», note le Pr Lioté.

Le traitement efficace consiste à suivre un régime alimentaire adapté. Les mets riches en acides nucléiques, éliminés sous forme d'acide urique, tels que les viandes ou la bière, doivent être évités. Les apports en fructose, un sucre souvent présent dans les sodas qui interfère avec l'excrétion de l'acide urique, doivent également être surveillés.

LF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top