RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 499
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Décembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : accord de mutualisation entre opérateurs
Vers une régulation du Web par le CSA ?
Un collège entièrement numérique
Avenir
Un robot pour réparer les canalisations
Matière
Nano-objets : les promesses de l'architecture coeur-multicouronnes
Espace
La quête d'une exoplanète habitable se précise
Des astronomes analysent pour la première fois un trou noir supermassif
Terre
Accord historique des 27 pays de l'Union européenne sur le plan Climat
Réchauffement : 2.000 milliards de tonnes de glace ont disparu depuis 2003
Les bactéries nettoient les eaux toxiques
Un coup d'oeil au coeur de la molécule
Une théorie de l'évolution pour le monde minéral
Vivant
Comment les plantes acquièrent-elles leur forme ?
Première implantation d'une bronche obtenue par bio-ingénierie
Une protéine virale provoquant le cancer peut être rendue anti-cancéreuse par une simple mutation
Une mutation génétique qui protège les artères
Découverte d'une inégalité génétique face à la dépression
Edito
Très haut débit : rapport de l'ARF : Réseau de fibres optiques : Oui/DSL augmenté : Non



Le rapport d'étude sur la couverture très haut débit des territoires qui vient d'être publiée par l'ARF (Association des Régions de France ) et l'AVICCA) et qui a été réalisée par Laurent Depommier-Cotton au nom de PMP est très intéressant car il met en évidence, avec clarté, toute l'importance du défi que va devoir relever la France pour entrer dans l'ère du très haut débit.

Et, il y a urgence ! En début d'année 2008, le rapport Attali nous avait déjà appris que 8 millions de foyers japonais et 6 millions de foyers aux Etats-Unis étaient déjà raccordés au très haut débit grâce à la fibre optique, alors que toute l'Europe réunie ne comptait, au même moment, qu'un million de foyer raccordés. Le Gouvernement Japonais qui, dans le cadre d'un plan stratégique, avait décidé, dès l'an 2000, que le Japon serait le Pays le plus avancé du Monde dans les TIC ubiquitaires, avait alors fixé l'objectif, particulièrement ambitieux, de connecter 90 % des ménages japonais au très haut débit, et ce, dès 2010. Le rapport de Laurent Depommier-Cotton nous apprend que cet objectif sera atteint, et même en avance sur son échéance.

Certes, le rapport de l'ARF nous montre qu'en raison de la répartition des populations et de la géographie, il est beaucoup plus difficile de trouver un équilibre économique pour déployer les réseaux très haut débit en fibre optique, en France, qu'au Japon où les densités de populations sont souvent beaucoup plus importantes. Mais, comme cela est fort bien dit dans le rapport, la France, depuis les 150 ans qu'elle construit de grands réseaux (chemin de fer, électricité, eau, téléphone, etc...) a toujours su trouver les réponses adaptées pour construire ces réseaux, même dans les régions les plus isolées.

Pourquoi ne serait-elle pas capable de le faire avec la fibre optique ?

Comme va le montrer aux Etats-Unis le Président Barack Obama, dans quelques semaines, ce qui est nécessaire pour lancer un programme d'une telle ampleur et qui va changer en profondeur la vie de centaines de millions de citoyens, c'est une volonté politique au plus haut niveau qui entrainera avec elle tout un peuple et les entreprises qui doivent prendre la décision d'investir dans ce secteur.

Mais, si nos gouvernants se décidaient, enfin, à prendre ce dossier essentiel à bras le corps, il ne faudrait surtout pas qu'ils fassent d'erreur, et prennent des décisions erronées.

Or, il y a, dans le rapport de l'ARF, un point important qui me fait souci.

Laurent Depommier-Cotton suggère, pour que nous allions plus vite, que nous passions par une phase intermédiaire de DSL augmenté s'appuyant toujours pour la partie terminale allant jusqu'au client sur le cuivre de la vieille paire de fils en cuivre du téléphone.

Le DSL augmenté permettrait, théoriquement, de dépasser les 20 Mégabits sur les 2/3 des lignes ADSL de France. Pour cela, il faudrait habiter à moins de 1,5 km d'un répartiteur ou d'un sous-répartiteur opticalisé. Le rapport évalue à 5 milliards d'euros cette phase transitoire du DSL augmenté.

Je dis bien « phase transitoire », car les 20 Mégabits du DSL seront très vite insuffisants. En effet, l'opticalisation de 4 millions de foyers dans les grandes villes qui est maintenant en cours de réalisation (il faut saluer l'accord intervenu cette semaine entre les 3 opérateurs leaders dans le déploiement des réseaux en fibre optique, France Telecom, SFR et Numéricable pour déployer en commun les réseaux internes aux immeubles) va accélérer la promotion des abonnements à 100 mégas, en attendant le giga dans un petit nombre d'années.

Certes, si l'argent public réservé au déploiement du DSL augmenté est uniquement et strictement réservé à la construction d'artères optiques qui desserviront les sous-répartiteurs, et si les règles régissant ces ouvrages respectent les principes d'ouverture et de neutralité des réseaux posés par l'Article L.1425-1 du CGCT, vis-à-vis de tous les opérateurs, ces investissements seront utiles car ces artères optiques s'intègreront ultérieurement et de façon naturelle au réseau national de très haut débit.

Mais, disons-le très clairement : Les Collectivités Locales doivent cesser tout investissement dans des équipements strictement dédiés aux technologies DSL (cuivre) même en DSL augmenté et se tourner résolument vers les réseaux en fibres optiques.

En effet, seule la fibre optique est pérenne et se montre capable de relever les défis que l'Homme va devoir affronter dans ce prochain siècle.

Dans son rapport, Laurent Depommier-Cotton affirme que 90 % des ménages français pourraient disposer du FTTH (fibre optique dans sa maison, dans son appartement), en 2020, si, sans retard, l'Etat et les Collectivités Locales arrivaient, pendant 10 ans, à mobiliser, chaque année, 1 milliard d'euros pour subventionner la construction de réseaux en fibres optiques. (Dans cette somme ne sont pas intégrés les efforts de péréquation que devraient fournir les habitants des villes pour équiper les régions rurales.)

L'objectif n'est pas hors d'atteinte, même dans les temps difficiles que nous traversons. Ce milliard d'euros annuel pendant dix ans changerait le destin de la France. Mais il faut bien comprendre que pour relever ce défi hors du commun il faut que la volonté politique au plus haut niveau de l'Etat s'exprime avec force et que les diverses administrations décident, enfin, d'enlever tous les obstacles devant des opérateurs qui hésitent à investir dans notre Pays tant tout y est compliqué.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique : accord de mutualisation entre opérateurs
Vendredi, 19/12/2008 - 00:00

Free, Numericable, Orange et SFR ont offert à Eric Besson un « joli cadeau de Noël », selon les propres termes du secrétaire d'Etat au Développement du numérique. Après des semaines de discorde au sujet de la fibre optique, les quatre opérateurs ont accepté de collaborer pour déterminer enfin la meilleure manière de mutualiser leurs fibres. Et donc accélérer le déploiement du très-haut-débit en France.

Cet accord, obtenu à la suite de l'intervention d'Eric Besson, porte essentiellement sur la création d'un comité de pilotage commun. Animé par le régulateur des télécoms (l'Arcep), il a pour but d'évaluer jusqu'à fin mars 2009 les installations expérimentales des opérateurs, afin de dégager les meilleures pratiques : combien de fibres déployer dans un immeuble, où placer le point de mutualisation entre opérateurs, quelles solutions sont les moins coûteuses, etc. ?

Le comité devra en particulier faire des recommandations concernant le meilleur modèle à suivre entre la technologie dite monofibre (une seule fibre, posée par un opérateur, alimente plusieurs abonnés) et le multifibre (une fibre par opérateur et pour chaque abonné), que seul Free privilégie. De leur côté, Orange et SFR prônent le monofibre et n'ont pas attendu l'« invitation » d'Eric Besson pour signer un accord de mutualisation en septembre dernier, au grand dam de Free.

Ce dernier fait définitivement cavalier seul en matière d'expérimentation, puisque Numericable a annoncé ce 16 décembre qu'il rejoignait Orange et SFR pour « fibrer » main dans la main des milliers d'immeubles. « Les habitants de chaque immeuble des zones concernées par l'expérimentation auront ainsi le choix entre au moins trois opérateurs », a rappelé Numericable dans un communiqué. Selon SFR, les trois opérateurs disposent d'un vivier de 3 millions de logements, où au moins deux d'entre eux sont présents, pour tester la mutualisation en monofibre.

Mais ils comptent également expérimenter ensemble le multifibre dans le 15e arrondissement de Paris et dans une ville de province. « Personne ne peut dire a priori quel modèle marchera le mieux », a commenté le secrétaire d'Etat au Développement du numérique au cours d'une conférence de presse. De toute façon, le comité de pilotage ne décidera pas nécessairement d'évincer un des deux modèles au printemps prochain ; des solutions intermédiaires peuvent être mises en avant d'ici là. Et gageons que Free défendra bec et ongles, une nouvelle fois, le modèle qui doit selon lui le prémunir du retour de l'ogre France Télécom.

OINet

Vers une régulation du Web par le CSA ?
Vendredi, 19/12/2008 - 00:00

Un amendement prévoyant la régulation de la publicité sur le Net est finalement passé à l'Assemblée nationale dans le cadre du projet de loi audiovisuel. Si le texte reste en l'état au Sénat, le CSA - conseil supérieur de l'audiovisuel - va se voir confier les clefs de la régulation de la publicité sur Internet, du moins sur les plates-formes communautaires comme Youtube, MySpace, Dailymotion...

Voilà le texte qui a été adopté : « s'agissant des services consistants à éditer du contenu créé par des utilisateurs privés à des fins de partage et d'échanges au sein de communautés d'intérêts, le Conseil supérieur de l'audiovisuel veille à ce que la publicité placée par l'éditeur du site ne puisse nuire à l'épanouissement physique, mental ou moral des mineurs. »

On le voit, le champ d'application est très large puisqu'outre les sites Web 2.0, l'ombre du CSA va planer sur les forums, les zones de commentaires, bref tous les espaces ouverts du Net qui affichent de la pub (bannière, google adwords, etc.) ! La démarche est une première, car elle explose la frontière qui existait entre l'audiovisuel et le monde du Web. Enfin (mais la liste des problèmes n'est pas exhaustive).

Dans l'exposé des motifs, les deux députés ont estimé malgré tout qu'« un certain nombre de sites de partage de données privées comportent aujourd'hui des liens publicitaires susceptibles de porter atteinte à la protection des mineurs. Aucun contrôle n'est aujourd'hui exercé sur ces contenus publicitaires. Cet amendement vise à combler cette lacune ». Une lacune qui va en générer d'autres pour ces sites qui se voient ainsi placés sous la coupole du CSA, organisme jusqu'alors concentré sur l'audiovisuel classique.

PCI

Un collège entièrement numérique
Vendredi, 19/12/2008 - 00:00

Le Président du Conseil général du Val d'Oise, Didier Arnal, a inauguré samedi 13 décembre le collège Georges Charpak de Goussainville, premier établissement scolaire français totalement équipé d'outils numériques (TICE). Au programme : tableau blanc interactif, espace numérique de travail, WIFI, Ipod pour faciliter l'apprentissage des langues, etc.

Cet établissement scolaire se situe sur un territoire où les difficultés sociales sont importantes ; c'est ainsi une approche pédagogique particulièrement innovante de proposer à ces élèves une telle palette d'outils numériques, afin de réduire la fracture numérique. Au menu des TICE on trouve ainsi : tableaux blancs interactifs, craies remplacées par des stylets, cartables allégés grâce à des interfaces numériques de travail, salle multimédia de 150 m2 en libre-accès avec une trentaine d'ordinateurs à disposition, bornes wifi, CDI numérique, mallette expérimentale pour l'apprentissage des langues via des Ipod...

En plus de favoriser le développement de l'usage des TIC, les intérêts du respect de l'environnement sont également satisfaits. En effet, cette réalisation concrétise le concept du "zéro papier" et fonde sa construction sur l'utilisation de matériaux et de procédés économes en énergie.

Le Département a pour ambition de créer des "collèges du 21e siècle". Cet établissement représente une expérimentation innovante. Pour en faire son site pilote tout numérique, le Conseil général du Val d'Oise qui finance intégralement l'opération s'est donné les moyens de ses ambitions : 11 millions d'euros, seulement pour la construction. Cet effort d'investissement est pensé comme une expérimentation. En effet, d'autres établissements scolaires « high tech » devraient voir le jour dans le département. Le budget 2009 qui va très bientôt être voté devrait en témoigner.

SP

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot pour réparer les canalisations
Vendredi, 19/12/2008 - 00:00

La communauté urbaine d'Arras a entrepris la réhabilitation de collecteurs d'assainissement, et la rénovation des branchements dans le secteur de Méaulens. Sans avoir recours à des ouvertures dans la chaussée. C'est encore une petite révolution en France. Une technique à laquelle la communauté urbaine d'Arras a recours pour la première fois, alors qu'en Allemagne elle a cours depuis vingt ans : la réparation de canalisations et de branchements par caméras et robots. Elle évite de creuser dans la chaussée, et nécessite un temps d'intervention plus court. « Dans des secteurs comme ici (rue des Augustines) où la circulation est déjà difficile, ça permet de ne pas bloquer trop longtemps », justifie Philippe Vallet, de la CUA.

La collectivité a établi un plan d'intervention sur les canalisations, sur plusieurs années, là où les collecteurs en grès, en béton ou en amiante avouent un âge avancé : entre trente et cent ans... À Arras, cinq ans de travaux sont encore nécessaires pour vérifier le réseau et colmater fuites et autres trous. Avant d'attaquer Sainte-Catherine, et Saint-Nicolas-lez-Arras. Premier secteur passé au peigne fin : Méaulens. « C'est une priorité, il est situé près de la zone de pompage de la nappe », selon Philippe Vallet. Près de 1 500 mètres de réseau sont traités entre le centre administratif et le Rivage.

Les canalisations, sous l'oeil d'une caméra, sont nettoyées, les excroissances fraisées par un robot. Une gaine en fibre de verre, imprégnée de résine polyester, est insérée. Une guirlande de neuf lampes à ultraviolets, tractée à l'intérieur de la gaine, permet au matériau de durcir.

Soixante-dix autres branchements rues du Cailloux, Neuve-du-Vivier, des Trois-Filloires et des Augustines, et trois cents mètres de tuyaux bénéficient d'un traitement semblable. Mais c'est le passage d'eau chaude qui gonfle la gaine, la résine durcissant à l'air libre. Le chantier, qui touche à sa fin en mars, pour cette première opération, a coûté 1,4 M E TTC. Il est subventionné à hauteur de 15 % par l'Agence de l'Eau, qui a aussi versé 30 % d'avance, remboursable sans intérêts sur vingt ans.

VDN

^ Haut
Matière
Matière et Energie
Nano-objets : les promesses de l'architecture coeur-multicouronnes
Vendredi, 19/12/2008 - 00:00

À l'Institut de chimie moléculaire et des matériaux d'Orsay (CNRS/Université Paris Sud 11), les chercheurs ont synthétisé des nanoparticules magnétiques composées d'un coeur et de plusieurs couronnes. La croissance des couronnes est contrôlable à l'échelle du nanomètre et on peut empiler plusieurs couronnes dont la composition chimique est différente. Leurs propriétés magnétiques agissent alors en synergie. D'autres propriétés, notamment optiques et électriques, sont accessibles par cette voie de synthèse, ce qui permet d'envisager de nombreuses applications de ces nano-objets pour réaliser des tâches variées dans des dispositifs miniaturisés.

Les chercheurs de l'Institut de chimie moléculaire d'Orsay travaillent sur les composés de la famille du bleu de Prusse. Au coeur de ces composés, on trouve des métaux de transition (2), responsables de leur couleur (bleue intense dans le cas du bleu de Prusse), et qui peuvent également engendrer d'autres propriétés optiques, électriques et magnétiques. Depuis quelques années, les chercheurs savent préparer des nano-particules de ces composés magnétiques, en utilisant le fait que, dans certaines conditions, ils s'assemblent spontanément de façon ordonnée pour former des réseaux de taille nanométrique.

Aujourd'hui, ils ont réussi à empiler plusieurs réseaux magnétiques, formant des couronnes successives autour d'un coeur, chaque couronne étant de nature chimique différente et ainsi susceptible d'apporter une propriété physique différente. Ils espèrent ainsi, en combinant plusieurs propriétés physiques, créer des nano-objets capables de réaliser différentes tâches au sein de dispositifs miniaturisés, tels que le stockage de l'information, le traitement du signal, la transformation d'un signal en une autre forme de signal etc.

Avec ce procédé, ils envisagent de synthétiser des nano-objets combinant des propriétés magnétiques modulables par le champ électrique, la température, la lumière et la pression. Ils pensent également à des nano-objets électrochromes (qui changent de couleur en fonction du courant électrique qui les traverse), pour fabriquer des capteurs ou des étiquettes biologiques. Dans une autre logique, ils pourraient, en provoquant la décomposition de leurs nano-objets, obtenir des alliages métalliques autrement inaccessibles, pour fabriquer des catalyseurs par exemple ou des mémoires d'ordinateur à très haute densité.

CNRS

^ Haut
Espace
Espace et Cosmologie
La quête d'une exoplanète habitable se précise
Vendredi, 19/12/2008 - 00:00

Dans leur quête de nouveaux mondes habitables, les astrophysiciens viennent de franchir une nouvelle étape, en mettant en évidence la présence de gaz carbonique et de vapeur d'eau dans l'atmosphère d'une lointaine planète, à 63 années-lumière (600 000 milliards de kilomètres) de la Terre. Ne rêvons pas toutefois ! Cette géante gazeuse, plus de 300 fois plus massive que la Terre, est une fournaise d'environ 1 000 degrés Celsius, où toute vie est impossible.

HD189733b, c'est son nom, a été découverte en 2005, par l'Observatoire de Haute-Provence, dans la constellation du Petit Renard. Très proche de son étoile, dont elle fait le tour en un peu plus de deux jours seulement, elle est la plus brillante des exoplanètes - extérieures à notre système solaire - dont peut être observé le transit, c'est-à-dire le passage devant et derrière son astre. Grâce aux spectromètres infrarouges équipant les grands télescopes spatiaux, il est possible de déterminer la composition de son atmosphère. En effet, chacun des gaz qu'elle recèle absorbe une longueur d'onde particulière du rayonnement émis par la planète éclairée par son soleil. Le spectre de lumière porte donc la signature de ces éléments.

C'est ainsi que le 9 décembre, la NASA a annoncé avoir détecté, avec le télescope Hubble, du dioxyde de carbone (CO2) dans l'atmosphère de HD189733b. Une première pour une planète extrasolaire. Du monoxyde de carbone (CO) y a été également repéré, comme l'avait aussi été, quelques mois plus tôt, du méthane (CH4). "Le dioxyde de carbone est le plus passionnant car, dans des conditions favorables, il pourrait être lié à une activité biologique comme c'est le cas sur Terre", s'enthousiasme Mark Swain, l'un des responsables du programme à l'Agence spatiale américaine.

Non pas que ce CO2, associé pour partie sur Terre aux activités humaines, puisse témoigner d'une vie passée sur cette planète brûlante. Mais, explique Jean Schneider, de l'Observatoire de Paris (Laboratoire de l'Univers et de ses théories), "la vie que nous connaissons est basée sur la chimie du carbone, et celui-ci semble plus facile à tirer du gaz carbonique que du méthane ou du monoxyde de carbone". Autrement dit, l'un des ingrédients nécessaires à la chaîne du vivant est ici disponible. Encore y faudrait-il de l'eau liquide, précise Michel Viso, responsable des programmes d'exobiologie au Centre national d'études spatiales (CNES). Sauf à échafauder des scénarios en rupture avec tout ce que nous savons de la physico-chimie, "on ne peut imaginer la diversité moléculaire indispensable à la vie sans carbone et sans eau liquide", souligne-t-il.

D'eau liquide, il n'y en a pas sur HD189733b. Mais de la vapeur d'eau, provenant peut-être d'un lointain passé glaciaire. Sa présence a été confirmée par une autre équipe américaine, qui publie ses résultats dans la revue Nature du 11 décembre. Carl Grillmair et ses collègues ont imaginé une méthode d'observation originale, consistant à analyser, avec le télescope spatial Spitzer, le rayonnement émis par le couple étoile-planète au cours de dix éclipses secondaires, durant lesquelles la planète passe derrière son astre. En comparant les spectres lumineux lorsque la planète est occultée et lorsqu'elle ne l'est pas, ils ont pu isoler son empreinte propre, révélatrice de la présence de molécules d'eau.

Plus intéressant encore, des contradictions avec des résultats antérieurs font supposer que cette planète est peut-être animée de circulations atmosphériques complexes, ou d'une source de chaleur interne inconnue. "Etape par étape, nous allons pouvoir bâtir de meilleurs modèles, en trois dimensions, qui nous aideront à mieux connaître les exoplanètes que nous découvrons", commente Jean Schneider.

Car l'objectif des chasseurs d'exoplanètes est d'en trouver une, un jour, où les conditions de la vie soient réunies. Depuis la découverte de la première d'entre elles, en 1995, par les Suisses Michel Mayor et Didier Queloz, le catalogue n'a cessé de s'enrichir. Quotidiennement mis à jour (sur Exoplanet.eu), il ne compte pas moins de 333 planètes extrasolaires, pour la plupart d'énormes boules de gaz surchauffées orbitant tout près de leur soleil, appelées "Jupiter chauds".

Ce qui ne signifie pas que celles-ci sont les plus nombreuses dans le cosmos, mais simplement qu'elles sont les plus faciles à détecter, par les méthodes indirectes du transit (la variation de la luminosité de l'étoile quand la planète passe devant le disque stellaire) ou de la vitesse radiale (l'infime décalage périodique de la position de l'astre provoqué par la planète). L'espoir des astrophysiciens est désormais de mettre la main sur une "Super Terre" : une cousine de notre planète, faite de roches et non de gaz, peu massive, gravitant à bonne distance d'une petite étoile pas trop chaude (une naine rouge), en sorte que l'eau y demeure à l'état liquide. Jean Schneider en est persuadé : "D'ici quelques années, nous trouverons une planète potentiellement habitable."

Yahoo

Des astronomes analysent pour la première fois un trou noir supermassif
Vendredi, 19/12/2008 - 00:00

L'équipe internationale a sondé les parties intérieures du disque d'accrétion tournant autour du trou noir à "un niveau de détail 1000 fois supérieur aux capacités actuelles des plus grands télescopes", a précisé l'EPFL dans un communiqué. Pour ce faire, ils ont utilisé le Très Grand Télescope (Very Large Telescope - VLT) de l'Observatoire européen austral (European Southern Observatory - Eso) et deux "loupes" naturelles, une galaxie et des étoiles. Les trous noirs sont des objets supermassifs capables de dévorer des étoiles, tels de gigantesques siphons, et aucune lumière ne peut s'en échapper.

"Nous avons pu prouver que le rayonnement le plus énergique est émis dans la région centrale située à un jour-lumière du trou noir supermassif" et "nous avons pu démontrer que l'énergie diminue en fonction de la distance au trou noir presque exactement comme le prédit la théorie", a affirmé Alexander Eigenbrod (EPFL). Les astronomes, européens et américains, ont réalisé leur étude sur le disque d'accrétion en examinant la "Croix d'Einstein", un mirage cosmique célèbre, composé de quatre images d'une source lumineuse - un quasar -, très éloignée. Un quasar est une galaxie possédant un trou noir extrêmement massif en son centre. La matière entourant le trou noir y est attirée, s'échauffe et devient très lumineuse... d'où la possibilité d'observer des quasars très éloignés.Ce quasar est situé à approximativement 10 milliards d'années-lumière de la Terre, et sa lumière est défléchie et amplifiée par le champ gravitationnel d'une galaxie située au premier plan, dix fois plus près de notre planète, qui provoque un effet de "lentille gravitationnelle", connu sous le nom de "macrolentille" ou "loupe cosmique".

Cet effet d'amplification, utilisé en astronomie pour observer des objets éloignés qui seraient autrement trop faibles ou trop petits pour être observés avec les télescopes actuellement disponibles, "nous fournit des détails d'une précision inédite" lorsqu'il est couplé avec l'utilisation du VLT, a souligné Frédéric Courbin, astrophysicien à l'EPFL et chef du projet Eso-VLT consacré à l'étude de la Croix d'Einstein. Les astronomes se sont en plus aidés de "microlentilles", des étoiles individuelles situées dans cette galaxie et agissant comme de petites loupes secondaires qui affectent certaines zones du disque. Elles permettent de mesurer comment la matière et l'énergie sont distribuées autour du trou noir supermassif qui réside au coeur du quasar.

EPLF

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Accord historique des 27 pays de l'Union européenne sur le plan Climat
Vendredi, 19/12/2008 - 00:00

Après le compromis informel des députés européens, de la présidence française et du Conseil européen, le 9 décembre, sur la proposition de directive prévoyant que les états de l'UE atteignent les 20 % d'énergies renouvelables dans la consommation totale d'énergie d'ici à 2020, les Vingt-Sept se sont finalement mis d'accord, vendredi 12 décembre, lors du sommet européen à Bruxelles, sur la totalité du "Paquet Energie-climat" européen.

Les Européens vont ainsi devoir atteindre un "3 × 20" pour 2020 : réduire de 20 % les émissions de gaz à effet de serre par rapport à leurs niveaux de 1990, porter la part des énergies renouvelables à 20 % de la consommation, et réaliser 20 % d'économies d'énergie.

Ce qui se passe est historique, il n'y a pas un continent au monde qui soit doté de règles aussi contraignantes que celles que nous avons adoptées à l'unanimité", a déclaré le chef de l'Etat français à l'issue de ce sommet européen.

L'Allemagne, l'Italie et la Pologne, les trois grands pays qui avaient brandi des menaces de veto au plan européen avant le sommet, critiquant le coût trop important des mesures en période de récession, se sont finalement ralliés aux des dernières propositions de la présidence française.

Les trois pays s'étaient particulièrement inquiétés des contraintes imposées par ce plan à leurs industriels, déjà fragilisés par la crise économique, dont la plupart devront commencer en 2013 à acheter aux enchères des permis d'émissions de CO2 qu'ils recevaient jusqu'ici gratuitement.

L'Allemagne a levé son opposition au mécanisme de solidarité en faveur des pays pauvres d'Europe de l'Est. Ce dispositif prévoit que 12 % des quotas d'émissions qui devront être mis aux enchères leur seront attribués, un bonus étant prévu en fonction de la réduction des émissions de CO2 constatée chez les nouveaux membres depuis 1990.

En échange de sa solidarité, l'Allemagne a par ailleurs obtenu d'allouer gratuitement la totalité des quotas de CO2 dévolus aux industries les plus énergivores, comme les fabricants de ciment et de chaux. La liste des secteurs concernés sera établie par la commission européenne, sur la base de critères laborieusement négociés, les usines les moins polluantes étant avantagées. Les autres secteurs industriels ne devront payer que 20 % de leurs émissions polluantes à partir de 2013, pour arriver à 70 % en 2020.

La Pologne et les pays d'Europe centrale devraient enfin bénéficier d'exemption pour leur secteur électrique. Pour Varsovie, il s'agit de gagner du temps afin de moderniser des centrales au charbon très polluantes, sans accroître la dépendance du pays au fournisseur russe.

En fonction de leur degré de pollution, le secteur électrique pourra, dans les nouveaux pays membres, bénéficier de 70 % d'allocations gratuites en 2013. Une dérogation appelée à disparaître progressivement d'ici à 2020.

Les députés et la présidence du Conseil européen ont décidé que l'évaluation de la mise en oeuvre de la directive à laquelle doit procéder la Commission en 2014 «n'affectera pas l'objectif global de 20 %, mais qu'elle servira à améliorer, s'il y a lieu, l'efficacité des mécanismes de coopération.

Les dirigeants européens ont ainsi décidé d'une méthode de calcul pour déterminer les secteurs pour lesquels le risque « fuite de carbone », c'est-à-dire de délocalisation des usines, des emplois et des émissions de CO2 vers d'autres parties du monde était le plus grand.

Selon l'accord, les secteurs sont considérés comme « à risque » si les coûts additionnels engendrés par le système européen entraîne une augmentation des coûts « d'au moins 5 % » de la valeur ajoutée brute. Par ailleurs, pour remplir les conditions requises, chaque secteur doit prouver qu'il est exposé à la concurrence internationale pour plus de 10 % de ses importations et exportations.

Les secteurs considérés comme « à risque significatif » de fuite de carbone se verront octroyer jusqu'à 100 % de leurs crédits de CO2 gratuitement au cas où ils atteignent un point de référence considéré comme la meilleure technologie disponible dans le secteur. Les infrastructures industrielles qui n'atteignent pas ce pallier devront payer leurs droits d'émission, pénalisant les usines les plus polluantes.

La Commission devra soumettre une proposition législative sur les modalités de distribution des crédits de CO2 gratuits d'ici juin 2010, après l'important sommet de l'ONU à Copenhague en décembre 2009, qui doit déterminer la deuxième phase du protocole de Kyoto.

Pour les secteurs non exposés au risque de fuite de carbone, la part des crédits de CO2 mis aux enchères est fixée à 20 % pour 2013. D'ici 2020, 70 % des permis devront être achetés aux enchères, moins que les 100 % prévus auparavant.

Le compromis prévoit également que 10 % des quotas d'émission dans le cadre du système d'échange de quotas d'émission de CO2 (ETS) doivent être réservés à un fonds de solidarité destiné à aider les pays pauvres d'Europe centrale et orientale dans leur transition vers une production d'énergie plus propre. 2 % supplémentaires doivent être redistribués à ces neuf pays, la majeure partie allant à la Roumanie (29 %), à la Pologne (27 %) et à la Bulgarie (15%).

Les Etats de l'UE se sont également mis d'accord pour utiliser au moins la moitié des bénéfices provenant des enchères pour investir dans des technologies propres.

Le compromis prévoit aussi la possibilité de prendre en compte l'électricité verte consommée dans un État membre mais produite dans le cadre de projets communs avec des pays tiers de construction récente. L'accord soutient l'objectif d'au moins 10% d'énergie renouvelable dans le secteur des transports pour 2020 :

- les biocarburants «de deuxième génération» produits à partir de déchets, de résidus ou de biomasse cellulosique et ligno-cellulosique non alimentaire seront doublement crédités par rapport à l'objectif de 10 % ;

- l'électricité renouvelable destinée aux trains ne sera comptée qu'une seule fois ;

- l'électricité renouvelable consommée par les voitures électriques sera créditée à 2,5 fois son apport ;

- pour être pris en compte, les biocarburants devront permettre une économie d'au minimum 35 % d'émissions de gaz à effet de serre comparés aux carburants fossiles ;

- à compter de 2017, les économies d'émission de gaz à effet de serre des installations existantes doivent s'élever à au moins 50%, celles des nouvelles installations d'au moins 60 % ;

- la Commission européenne mettra au point une méthodologie permettant de mesurer les émissions de gaz à effet de serre provenant de modifications indirectes de l'affectation des sols - dans les cas où des cultures destinées à la production de biocarburants occupent des terres auparavant consacrées à des cultures alimentaires lesquelles sont alors déplacées dans des zones auparavant non exploitées (par exemple, des forêts existantes).

Cet accord a été approuvé et complété sur trois points par les parlementaires européens le 13 décembre :

- renforcement des engagements souscrits, notamment l'objectif européen de réduire de 30 % ses émissions de gaz à effet de serre en 2020, si les autres grands pays industrialisés et en développement acceptent de souscrire eux aussi à des engagements contraignants lors des négociations de Copenhague en décembre 2009.

Un autre ajout concerne les efforts de réduction des émissions de gaz à effet de serre impartis aux Etats. Il stipule que tout dépassement de l'objectif national devra être compensé 1,08 fois l'année suivant. En clair, un dépassement de 100 tonnes de CO2 devra être compensé l'année suivante par une réduction de 108 tonnes.

Un troisième point, la mise en place d'un mécanisme de financement pour douze installations spécialisées dans la technologie de la capture et du stockage du carbone, répond pleinement à une demande du Parlement européen, selon lui.

Les dirigeants européens ont déjà approuvé la mise à disposition de 300.000 tonnes de droits d'émissions pour financer à l'avenir ces installations. "Cela représente 9 milliards d'euros (à 30 euros la tonne de CO2) pris sur les recettes nationales, a souligné le représentant des pays européens

PE

Réchauffement : 2.000 milliards de tonnes de glace ont disparu depuis 2003
Vendredi, 19/12/2008 - 00:00

Plus de 2.000 milliards de tonnes de glaces terrestres ont fondu depuis 2003 au Groenland, en Alaska et dans l'Antarctique, montrent de nouvelles données satellitaires de la NASA qui constituent un signe supplémentaire du réchauffement de la planète. Plus de la moitié de cette fonte massive s'est produite au Groenland, selon des relevés du satellite américain GRACE, souligne le géophysicien de la NASA Scott Luthcke. La nouvelle étude a été présentée à la conférence de l'Union américaine de géophysique à San Francisco.

Selon M. Luthcke, tous les chiffres concernant le Groenland pour l'été 2008 ne sont pas encore disponibles, mais la fonte des glaces sur l'immense île cette année ne devrait pas être aussi forte qu'en 2007, même si elle reste très importante.

On note en revanche une amélioration en Alaska. Après une forte baisse en 2005, la couche de glace terrestre a légèrement augmenté en 2008 en raison de fortes chutes de neige hivernales. Reste que depuis 2003, l'Alaska a perdu 400 milliards de tonnes de glace.

Contrairement à la fonte de la banquise, celle des glaces terrestres augmente le niveau des océans très légèrement. Dans les années 1990, le Groenland n'avait pas contribué à une hausse de ce niveau. Désormais, l'île arctique l'élève d'un demi-millimètre par an, souligne le glaciologue de la NASA Jay Zwally.

Au total, la fonte des glaces au Groenland, en Alaska et dans l'Antarctique a fait monter le niveau de la mer d'environ un demi-centimètre ces cinq dernières années, selon M. Luthcke. Le niveau des océans augmente également sous l'effet de dilatation des eaux provoquée par leur réchauffement. D'autres travaux présentés à la conférence de San Francisco portent sur la fonte de la banquise, qui inquiète également. "Cela ne s'arrange pas et on continue à voir des signes clairs de réchauffement et d'amplification", souligne M. Zwally.

Selon les chercheurs, la hausse des températures enregistrée cet automne dans une partie du nord de l'Alaska témoigne d'un "effet d'amplification arctique", qui se produit lorsque le réchauffement dans l'Arctique est plus rapide que prévu et s'accélère plus vite qu'ailleurs sur la planète.

En raison de la fonte de la banquise, les eaux de l'Arctique absorbent plus de chaleur l'été et celle-ci est libérée dans l'air à l'automne. Ce processus a conduit à une hausse des températures automnales ces dernières années par rapport à leurs niveaux des années 1980, souligne la chercheuse Julienne Stroeve, du Centre national des données sur la neige et la glace (NSIDC) à Boulder, Colorado.

Elle évoque un impact fort et précoce du réchauffement. "Le rythme du changement commence à dépasser notre capacité à le suivre en terme de compréhension du phénomène", souligne de son côté Mark Serreze, un scientifique du NSIDC.

D'autres travaux présentés à la conférence examinent comment le dégel de l'Arctique libère du méthane, le deuxième gaz à effet de serre le plus important après le dioxyde de carbone. Une étude montre que la réduction de la banquise entraîne un réchauffement de la mer qui à son tour réchauffe le permafrost sur les terres voisines en Alaska, produisant ainsi du méthane. Une autre étude suggère que d'importantes réserves de méthane gelé piégées au fond de lacs et de la mer dans la région de la Sibérie commencent à remonter en surface en grande quantité par endroits, selon Igor Semiletov, professeur à l'université d'Alaska.

A la fin de l'été, M. Semiletov a découvert du méthane remontant dans certaines zones des mers de Sibérie orientale et de Laptev à des niveaux dix fois supérieurs à ceux enregistrés au milieu des années 1990. Les réserves de méthane piégées dans la région pourraient aggraver de manière spectaculaire le réchauffement en cas de libération dans l'atmosphère.

Yahoo

Les bactéries nettoient les eaux toxiques
Vendredi, 19/12/2008 - 00:00

Une équipe internationale de chercheurs a découvert que le sulfure d'hydrogène, qui est toxique pour plusieurs formes de vie, notamment pour les poissons (espèce très importante du point de vue économique), est souvent «épuré» par les floraisons bactériennes à l'origine de l'oxydation du sulfure dans les eaux profondes, ce qui dissimule des systèmes actuels de surveillance de grandes zones d'eaux dépourvues d'oxygène. Les découvertes des scientifiques, publiées en ligne dans la revue Nature, ont des répercussions sur la gestion de la pollution agricole des eaux côtières.

«Les eaux côtières abritent 90 % des exploitations piscicoles mondiales et constituent donc de grandes réserves alimentaires pour notre planète», explique les auteurs. Lorsque les nutriments chimiques, tels que l'azote et le phosphore (par exemple, sous forme d'engrais), pénètrent les eaux, les taux d'oxygène sont considérablement réduits. Ce processus, appelé eutrophisation, mène également à une augmentation rapide des niveaux de sulfure d'hydrogène toxique, avec des conséquences désastreuses sur les écosystèmes côtiers.

Les ruissellements d'origine agricole ne sont pas la seule cause d'eutrophisation : l'azote atmosphérique, dont l'augmentation est provoquée par l'activité anthropique, pénètre régulièrement la pleine mer, et compte pour plus d'un tiers de l'apport d'azote non recyclé dans les océans. Quelle qu'en soit la cause, le fond du problème est que ces substances mènent à des épisodes toxiques qui tuent les poissons et les crustacés, ce qui réduit les prises et menace la biodiversité.

Une équipe dirigée par le Dr Marcel Kuypers de l'Institut Max Planck de microbiologie marine en Allemagne a étudié le système du Benguela sur le plateau africain, au large des côtes de la Namibie afin de découvrir l'ampleur et le développement d'un «épisode» provoqué par le sulfure d'hydrogène. Les chercheurs ont prélevé divers échantillons dans une grande région et ont découvert que les composés toxiques couvraient quelque 7000 kilomètres carrés, bien que les eaux de surface ne semblent pas affectées.

Ils ont suivi cet épisode pendant un certain temps et ont découvert que le sulfure disparaissait à une certaine profondeur ; à certains endroits, il se retrouvait dans la zone suboxique plus profonde, qui est pratiquement dépourvue d'oxygène. «Ce puits apparent de sulfure dans la zone suboxique montre que ce dernier subit une oxydation anaérobie dans la colonne d'eau», peut-on lire dans l'étude. Des environnementalistes utilisent le modèle de la «colonne d'eau» pour comprendre le caractère des diverses couches d'eau. Par exemple, les organismes qui vivent sur les fonds des mers (benthos) dépendent davantage d'une gamme particulière de pH, de pression et de salinité que d'une moyenne de ces valeurs entre le fond et la surface de l'eau.

D'après les scientifiques, étant donné que le nitrate, en l'absence d'oxygène, est plus adapté à l'oxydation du sulfure, et qu'il existe un chevauchement entre le nitrate et le sulfure à environ 90 mètres sous l'eau (dans la zone suboxique), il est fort probable qu'une interaction importante ait lieu. Ils ont noté des concentrations semblables d'ammonium et de sulfure dans les eaux de fond, mais ont constaté que l'ammonium disparaissait (ou subissait une oxydation anaérobie) juste au-dessus du sulfure.

«Une oxydation anaérobie a indéniablement eu lieu», explique Torben Stührmann de l'Institut Max Planck de microbiologie marine. «Beaucoup de bactéries n'ont pas besoin d'oxygène pour respirer et utilisent plutôt le nitrate. Et, en effet, nous avons trouvé une couche d'eau qui contenait du sulfure d'hydrogène et du nitrate.»

Les bactéries anammox (oxydation anaérobie de l'ammonium) ont récemment été déclarées responsables de la perte massive d'azote dans ces eaux. Ces connaissances à l'appui, les chercheurs ont étudié leurs échantillons pour déterminer si les bactéries métabolisaient le sulfure d'hydrogène. Ils ont réalisé des analyses chimiques et génétiques exhaustives et ont découvert que deux types de protéobactéries participaient à l'oxydation «chimiolithotrophique» du sulfure, à l'aide du nitrate.

Les lithotrophes sont les recycleurs naturels du sulfure et de l'azote ; les chimiolithotrophes sont des bactéries peuplant d'autres organismes dans les fonds de l'océan. Ils pourraient avoir évolué à partir d'une sorte de cyanobactéries. Les protéobactéries découvertes dans cette étude sont apparemment de la famille de Candidatus Ruthia magnifica, une bactérie qui vit dans les moules trouvées dans les cheminées hydrothermales ou les eaux de percolation. L'oxydation du sulfure d'hydrogène dans la mer permet aux bactéries de créer une zone tampon entre les eaux de surface riches en oxygène et les eaux profondes plus toxiques. Les scientifiques participant à l'étude actuelle ont montré que les bactéries nettoyaient une zone de près de trois fois la taille du Luxembourg; c'est la première fois que l'on découvre une désintoxication bactérienne des eaux riches en sulfure en pleine mer.

Leurs découvertes sont très importantes : la surveillance des épisodes toxiques dans les mers se fonde sur les technologies qui ne pénètrent que les eaux de surface. Si les bactéries nettoient après l'eutrophisation dans les eaux profondes, l'ampleur de ces épisodes devient très difficile à surveiller de manière précise.

«La découverte d'une gigantesque floraison bactérienne qui désintoxique le sulfure d'hydrogène est très positive, mais également inquiétante», déclare le Dr Kuypers. «Le sulfure d'hydrogène est un élément très toxique pour toutes les formes de vie, et même à des concentrations plus faibles, il exterminerait immédiatement les poissons, les huîtres, les crevettes et les homards. La bonne nouvelle, c'est que les groupes de bactéries que nous avons découvert semblent consommer le sulfure d'hydrogène avant qu'il n'atteigne les eaux de surface où vivent les poissons. Il est cependant inquiétant qu'une zone de la taille de la mer d'Irlande ou de la mer des Wadden soit affectée par les eaux sulfuriques, sans qu'on ne puisse le détecter à l'aide des photos satellite ou dans les bases de surveillance plus proches des côtes.»

D'après les prévisions actuelles, l'hypoxie qui touche les plateaux augmentera considérablement au cours des décennies à venir, en raison de l'eutrophisation d'origine humaine et du réchauffement planétaire. Pourtant, d'après le Dr Gaute Lavik de l'Institut Max Planck de microbiologie marine, «le fait que nous puissions mettre en corrélation les eaux sulfuriques et certaines conditions environnementales pourraient nous permettre de prévoir ces évènements à l'avenir.»

Cordis

Un coup d'oeil au coeur de la molécule
Vendredi, 19/12/2008 - 00:00

Pour la première fois, l'évolution en "temps réel" de la structure moléculaire lors d'une réaction chimique a été observée par une équipe de l'EPFL en collaboration avec le Paul-Scherrer Institut (PSI). Voyage dans le tout petit, à la source des réactions chimiques et biologiques... Une technique permettant d'observer le mouvement moléculaire à une échelle de temps encore jamais atteinte a été développée par l'EPFL et le Paul-Scherrer Institut (PSI). Cette prouesse, réalisée par une équipe de recherche dirigée par le Professeur Majed Chergui, directeur du Laboratoire de spectroscopie ultrarapide (EPFL) en collaboration avec le FEMTO group (PSI), est publiée dans la dernière édition de la revue Science.

Cette avancée technologique ouvre d'intéressantes perspectives dans l'étude des systèmes chimiques et biologiques. Elle permet notamment une meilleure compréhension de l'évolution de la structure moléculaire lors de réactions chimiques. Les chercheurs l'ont appliquée à l'étude de complexes moléculaires contenant des atomes métalliques, très étudiés en chimie. Ceci pourrait donc déboucher sur des avancées dans le domaine du stockage d'informations sous forme magnétique, ou en énergie solaire. Elle ouvre aussi des perspectives en biologie, ces molécules étant les analogues des centres actifs des hémoproteines (hémoglobine, myoglobine).

A titre de comparaison, les mouvements, insaisissables à l'oeil nu, d'un chat se retournant dans sa chute et retombant sur ses pattes ne peuvent être observés qu'à l'aide d'une caméra prenant des clichés séparés de quelques dizaines de millisecondes. En faire de même avec les molécules, 100'000 millions de fois plus petites que le félidé, suppose une caméra pouvant faire des clichés séparés de quelques dizaines de femtosecondes (1 femtoseconde = 10-15 sec et est à une seconde, ce qu'une seconde est à 32 millions d'années!)

Pour obtenir une telle précision, les chercheurs avaient besoin d'une source de rayons X femtoseconde à la fois stable et accordable en longueur d'onde. Ils l'ont trouvée au PSI, grâce à une collaboration avec l'équipe de Rafael Abela. En utilisant les impulsions femtoseconde extraites de l'accélérateur Swiss Light Source, par une technique que le PSI a développée, les deux équipes sont parvenues, pour la première fois, à suivre l'évolution d'une molécule subissant un changement de structure en 150 fs !

EPFL

Une théorie de l'évolution pour le monde minéral
Vendredi, 19/12/2008 - 00:00

Les deux tiers des minéraux connus sur Terre n'existeraient pas sans les processus biologiques apparus il y a quelque 4 milliards d'années, affirment Robert Hazen (Carnegie Institution, Washington, USA) et ses collègues. Ces chercheurs proposent une autre façon d'écrire l'histoire de la Terre : en se basant sur des connaissances déjà acquises, ils retracent la coévolution du monde minéral et du monde vivant. Et poussent les scientifiques à sortir des schémas traditionnels. Sur des planètes comme Mars et Vénus ont a recensé environ 500 espèces minérales différentes. Sur Terre, nous en connaissons 4.300. Comment expliquer une telle différence ? Par la vie, répondent Robert Hazen, Dominic Papineau et leurs collègues dans la revue American Mineralogist.

Au fur et à mesure de l'agrégation des poussières, de la formation des planétoïdes puis des planètes autour du Soleil, les minéraux se sont diversifiés en fonction des nouvelles conditions qui se créaient (températures, pression, etc...). Sur Terre, la tectonique des plaques a créé de nouveaux milieux propices à la diversification des espèces minérales. L'autre événement crucial est l'apparition de la vie. Dans les océans, les algues se sont lancées dans la photosynthèse et ont enrichi l'atmosphère en oxygène. Des minéraux ont alors commencé à s'oxyder pour donner de nouveaux produits comme le fer. Les microorganismes marins eux-mêmes fabriquent des coquilles à partir du carbonate de calcium et ont recouvert le fond des océans de calcite. Des microbes et des plantes ont permis la production de minéraux argileux.

En retraçant l'histoire de 3.000 minéraux terrestres à partir d'une douzaine de minéraux d'origine (les minéraux présents dans le milieu interstellaire), Hazen et ses collègues ont calculé que les deux tiers des minéraux doivent leur existence à un processus biologique. L'évolution des espèces minérales ne peut pas être décrite de la même façon que celle des espèces biologiques, qui se reproduisent et mutent, précisent les chercheurs. Cependant elles ont beaucoup changé au cours des 4,5 milliards d'années passées, parallèlement à l'évolution des êtres vivants. Et à l'avenir ? Cette nouvelle vision invite aussi à considérer les effets sur les minéraux des changements qui affectent les espèces biologiques.

NO

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Comment les plantes acquièrent-elles leur forme ?
Vendredi, 19/12/2008 - 00:00

Une équipe composée de chercheurs français, américains et suédois, pilotée par des chercheurs lyonnais de l'INRA, en collaboration avec l'ENS de Lyon, le CNRS et l'Université Claude Bernard Lyon I, vient de mettre en lumière un mécanisme fondamental de la morphogénèse des plantes. Au terme d'un travail interdisciplinaire combinant expérimentation et modèles informatiques, ils ont montré que les forces physiques générées par des tissus en croissance déterminent l'orientation du cytosquelette des cellules. Celui-ci, à son tour, contrôle la forme des cellules et détermine en grande partie celle de la plante. Ces travaux sont publiés dans SCIENCE le 12 décembre 2008.

L'un des grands thèmes de la biologie du développement est de comprendre comment les réseaux de régulation génétique sont liés à la forme des êtres multicellulaires. Les gènes contrôlent indirectement la géométrie des tissus en affectant les propriétés chimiques et mécaniques des cellules individuelles. Mais réciproquement, les propriétés des tissus peuvent affecter l'activité des gènes. L'enjeu est donc de déchiffrer le dialogue entre gènes et formes. L'équipe pilotée par les chercheurs de l'INRA vient de réaliser une percée dans ce domaine grâce à l'étude du méristème d'Arabidopsis, une plante à fleurs très utilisée en biologie végétale.

Les différentes vitesses de croissance des cellules dans le méristème créent collectivement des champs de forces dans les tissus. Ces champs sont issus des pressions mécaniques qu'exercent les cellules les unes sur les autres. Grâce à des modèles informatiques validés par de nombreux dispositifs expérimentaux, les chercheurs ont montré que les microtubules, constituants principaux du cytosquelette, s'orientent de façon parallèle aux directions des forces. Les cellules réagissent ainsi au stress mécanique. Or, il est admis que les microtubules contrôlent le dépôt orienté des fibrilles de cellulose dans la paroi cellulaire, donnant ainsi aux cellules à la fois leur rigidité et un axe de croissance préférentiel. Ainsi, via l'organisation des microtubules dans chaque cellule individuelle, les tissus peuvent changer de forme, se plier et adopter des formes caractéristiques dans le méristème d'Arabidopsis. Réciproquement, les formes en croissance génèrent les contraintes mécaniques qui contrôlent l'organisation des microtubules.

D'un point de vue plus général, ces travaux s'inscrivent dans un changement de paradigme en cours dans la biologie du développement : les chercheurs ne considèrent plus le développement embryonnaire comme un processus sous le contrôle strict de la génétique, mais plutôt comme un processus à plusieurs niveaux qui interagissent entre eux. Ainsi, l'équipe a démontré que la morphogénèse du méristème est un phénomène émergent issu du comportement individuel des cellules cherchant à résister au stress mécanique. Cependant, ce mécanisme n'est pas le seul à l'oeuvre lors de la morphogénèse des plantes. Il fonctionne en parallèle aux chaînes de réactions induites par l'auxine, une hormone fondamentale dans la formation des organes des plantes. Comprendre comment ces deux mécanismes se coordonnent pour former des structures et des tissus parfaitement différenciés est un champ de recherches désormais ouvert aux chercheurs.

CNRS

Première implantation d'une bronche obtenue par bio-ingénierie
Vendredi, 19/12/2008 - 00:00

Certaines innovations médicales reposent sur des processus si complexes qu'il devient difficile de les nommer simplement. Il en est ainsi d'une première chirurgicale réalisée par des chirurgiens de Barcelone qui combine transplantation et bio-ingénierie.

L'objectif de Paolo Macchiarini et coll. était de pouvoir remplacer trachée ou bronches sans risque de rejet et donc sans nécessité de traitement immunosuppresseur. On sait en effet que la résection avec suture primaire de plus de 6 cm de voies aériennes chez l'adulte ou de plus de 30 % de la trachée chez l'enfant, n'est pas techniquement possible. De plus les tentatives conduites pour résoudre la question en passant par des greffes autologues ou des greffons synthétiques se sont conclues par des résultats décevants.

La première étape de la technique mise au point par Macchiarini et coll. consiste à prélever la trachée chez un donneur décédé, à en éliminer les cellules et les antigènes majeurs d'histocomptabilité (MHC) au laboratoire pour la rendre non immunogène. Parallèlement des cellules épithéliales bronchiques et des chondrocytes du patient à traiter sont mises en culture. Lors de l'étape suivante, cellules bronchiques et chondrocytes sont semés dans la matrice trachéale dépourvue de cellules et incubées dans un bio-réacteur spécialement mis au point. Après 4 jours on obtient une voie aérienne de substitution qui doit en théorie avoir les qualités mécaniques et biologiques requises sans être antigénique.

Cette méthode a été appliquée pour la première fois chez une jeune femme de 30 ans ayant des séquelles graves de tuberculose bronchique. La patiente, après un traitement antituberculeux efficace, souffrait d'une dyspnée importante en rapport avec une malacie sévère des voies aériennes localisée à la région sous glottique de la trachée et à la bronche souche gauche. La sténose trachéale a été traitée par une résection chirurgicale limitée. La pose d'un stent dans la bronche souche gauche sténosée étant très mal tolérée celui-ci a dû être retiré. A ce stade, le poumon gauche étant non fonctionnel, la seule solution envisageable était une pneumonectomie avec des risques élevés à court et long terme. L'équipe de Barcelone a donc décidé de tenter ce nouveau traitement expérimental. Le transplant colonisé par les cellules de la patiente était un segment de 7 cm de trachée prélevé chez une donneuse décédée. Il a été implanté et anastomosé sans difficulté particulière à la place de la zone bronchique gauche sténosée.

La patiente a pu quitter les soins intensifs dès le deuxième jour. Les résultats ont été très satisfaisants avec un aspect normal au scanner et à la bronchoscopie virtuelle et aux prélèvements cytologiques et une normalisation des principaux paramètres des épreuves fonctionnelles respiratoires. Avec 4 mois de recul, la patiente peut mener une vie parfaitement normale. Aucun traitement immunosuppresseur n'a dû être prescrit et aucun anticorps dirigé contre les antigènes HLA du donneur n'a été dépisté. Il semble donc que cette technique sophistiquée puisse permettre un remplacement d'une portion importante des voies aériennes à la fois fonctionnel et parfaitement toléré sur le plan immunologique. Des travaux portant sur de nouveaux malades pourront préciser le destin exact des cellules du patient semées dans le transplant, ce qui permettra de déterminer s'il s'agit bien de l'implantation d'un « organe » obtenu partiellement par bio-ingénierie ou d'une « simple » allogreffe.

JIM

Une protéine virale provoquant le cancer peut être rendue anti-cancéreuse par une simple mutation
Vendredi, 19/12/2008 - 00:00

Des chercheurs de l'Université Louis Pasteur de Strasbourg ont découvert qu'une mutation particulière peut transformer l'oncoprotéine E6, un facteur de multiplication des cellules de cancer du col de l'utérus, en un facteur suppresseur de la tumeur. Ces résultats illustrent l'étroite ligne de démarcation séparant les mécanismes moléculaires menant à la prolifération ou à la mort de cellules cancéreuses. Ils permettront de concevoir de futures stratégies thérapeutiques contre ce type de cancers.La cause majeure du cancer du col de l'utérus est l'infection par certaines souches de virus du papillome humain (HPV)1. Le virus HPV produit deux oncoprotéines2, appelées E6 et E7, qui sont les principaux facteurs responsables de la prolifération des cellules de tumeurs du col de l'utérus.

L'équipe Oncoprotéines de l'Institut Gilbert Laustriat3 qui travaille depuis 1995 sur les HPV a effectué des avancées importantes sur l'oncoprotéine E6. En particulier, ses études ont révélé une partie de la structure tridimensionnelle atomique d'E6, un résultat attendu depuis plus de vingt ans par la communauté internationale de scientifiques et médecins travaillant sur les HPV et leurs cancers associés. C'est cette analyse atomique qui leur a permis de concevoir et d'étudier des mutations intéressantes de la protéine E6. La mutation décrite dans ce nouvel article est une modification extrêmement minime. Elle a cependant suffi à transformer E6, un facteur viral létal favorisant le cancer, en son contraire, c'est-à-dire un facteur potentiellement bénéfique, capable d'arrêter la multiplication du cancer.

Les informations obtenues avec cette étude ouvrent la voie à la compréhension des mécanismes de déclenchement de la mort des cellules cancéreuses du col de l'utérus. Elles offrent la possibilité d'explorer des perspectives thérapeutiques à l'heure où les stratégies prophylactiques basées sur la vaccination posent un certain nombre de problèmes. Les vaccins actuels restent inaccessibles au pays en voie de développement en raison de leur coût très élevé, et les personnes ayant été exposées au virus avant la vaccination ne seront pas protégées contre l'apparition d'un cancer du col dans les trente années à venir.

IH

Une mutation génétique qui protège les artères
Vendredi, 19/12/2008 - 00:00

Voilà une mutation génétique qui fait des heureux : elle diminue le risque de maladie cardiovasculaire en permettant aux veinards qui en sont porteurs de manger normalement et d'avoir moins de graisses dans le sang. La mutation en question a été découverte par des chercheurs américains chez une population d'Amish du comté de Lancaster. Descendants d'un petit noyau d'Européens venus en Pennsylvanie il y a 14 générations, ces Amish forment un groupe génétiquement très homogène. Cela facilite le travail des chercheurs qui traquent de subtiles variations d'une seule lettre (un seul nucléotide) dans les gènes.

Près de 5 % de cette communauté Amish est porteur de la bienfaisante mutation située sur le gène APOC3. Pour ces veinards, la dégradation des triglycérides dans le sang est accélérée. Cela leur permet d'avoir un taux sanguin de triglycérides plus faible après avoir ingéré un plat riche en graisses. Bonus : ils ont aussi un taux de 'bon cholestérol' (HDL) élevé et un taux de 'mauvais cholestérol' (LDL) faible. Tout ça sans se serrer la ceinture....

Toni Pollin et ses collègues ont également constaté que ces 5 % d'Amish avaient des artères en meilleur état, autrement dit moins marquées par l'artériosclérose (durcissement et épaississement des parois des vaisseaux). Conclusion logique : cette mutation diminue le risque de maladie cardiovasculaire.

Que se passe-t-il exactement ? Le gène APOC3 sert à fabriquer une protéine (apoC-III) qui se lie aux triglycérides et qui empêche leur destruction. Ils restent ainsi plus longtemps dans le sang. La mutation réduit de moitié la quantité de protéine apoC-III et accélère donc l'élimination des triglycérides -des lipides produits par le foie à partir du glucose et par l'intestin grêle à partir des corps gras apportés par l'alimentation.La mutation, qui semble être peu fréquente dans la population générale, aurait été introduite chez les Amish de Lancaster par une personne née au milieu du 17ème siècle, suggèrent les chercheurs, qui publient leurs travaux dans la revue Science.

NO

Découverte d'une inégalité génétique face à la dépression
Vendredi, 19/12/2008 - 00:00

Une étude suggère qu'une famille de gènes impliqués dans la régulation de l'expression d'autres gènes dans le cerveau nous aide à gérer des situations telles que le stress. Les résultats de ces travaux sont publiés dans la version en ligne du magazine "Neuron" du 11 décembre. Ils pourraient expliquer pourquoi certaines personnes sont plus anxieuses ou plus dépressives que d'autres.

Des scientifiques de l'EPFL et du pôle de recherche national "Frontières de la génétique" se sont penchés sur le rôle d'une famille de gènes baptisée KRAB-ZFP. Ceux-ci codent pour des régulateurs génétiques qui suppriment l'expression d'autres gènes. Bien que constituant environ 2 % de notre matériel génétique, cette famille de régulateurs «épigénétiques» (l'épigénétique définit les modifications de l'expression des gènes causées par autre chose qu'un changement dans la séquence ADN) est très mal connue, que ce soit sur le plan de ses fonctions ou de ses cibles.

Les chercheurs ont élevé des souris auxquelles avait été soustrait dans l'hippocampe - une partie du cerveau liée à la mémoire à court terme et l'inhibition - un cofacteur essentiel à la fonction des KRAB-ZFP. Les souris ainsi modifiées étaient totalement normales jusqu'à ce qu'elles soient mises en situation de stress. Elles sont alors devenues très anxieuses. Alors que les souris contrôles se sont rapidement adaptées, celles génétiquement modifiées n'ont jamais réussi à surmonter leur stress, sont restées anxieuses et se sont montrées incapables d'effectuer de simples tâches cognitives. L'interruption du processus de régulation a donc altéré le comportement des souris face au stress.

«Les régulateurs KRAB-ZFP sont apparus assez récemment dans l'évolution», note le professeur Didier Trono, de l'EPFL, et auteur principal de l'étude. «Il est très probable qu'il existe un bon degré de polymorphisme dans la séquence de ces gènes. Nous émettons l'hypothèse que de telles différences inter-individuelles pourraient influencer la prédisposition des personnes à être anxieuses ou dépressives.»

Parce que les altérations épigénétiques sont souvent de longue durée et parfois même permanentes, on pourrait les considérer comme faisant partie de l'histoire personnelle d'un individu. «C'est une sorte de mémoire d'une cellule», explique Didier Trono.

Ces travaux sont d'autant plus prometteurs qu'une modification épigénétique a été observée dans des modèles animaux de dépression, dépendance, schizophrénie et de désordres développementaux. Certaines drogues telles que la cocaïne ou les neuroleptiques engendrent aussi des changements dans certains des cofacteurs du système de régulation génétique. En comprenant mieux les mécanismes moléculaires impliqués dans la modulation épigénétique, il serait ainsi possible de développer des thérapies ciblées pour les personnes souffrant de ces dysfonctionnements.

EPLF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top