RTFlash

RTFLASH Recherche & Technologie
NUMERO 575
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Novembre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un supercalculateur sur une puce
Fibre optique : l'Arcep instaure la baisse des tarifs d'accès aux fourreaux de France Télécom
Fibre optique : la France peut-elle rattraper son retard ?
Avenir
Les robots peuvent apprendre à «penser»
Matière
Des atomes d'antimatière produits et capturés au CERN
RT 2012 : une avancée majeure vers le bâtiment sobre
Terre
Émissions de CO2 des voitures : une baisse sans précédent en Europe
Les producteurs d'électricité européens émettent de moins en moins de CO2
Climat : le Plan national d'adaptation disponible et applicable en juin 2011
Vivant
Le tissu adipeux produit des cellules impliquées dans la réponse immunitaire
La jeunesse des cellules de l'homme à sa naissance expliquée par un ver hermaphrodite
Premier essai clinique de cellules souches chez des patients atteints de lésions spinales
Cellules souches et programmation génétique : l'apport de la recherche fondamentale
Vers un vaccin contre le cancer du poumon
Edito
Concevoir des ville vertes : une nécessité pour l'avenir



Des villes conçues et administrées autrement sont-elles la solution au problème du réchauffement climatique ? En grande partie oui, si l'on en croit la conclusion d'une étude publiée dans la revue Environment and Urbanization qui remet en cause les poncifs et idées reçues sur les villes qui seraient responsables de tous les maux en matière d'environnement. Alors que plus de la moitié de la population mondiale vit désormais en ville, la responsabilité des agglomérations dans le réchauffement global semble écrasante : celles-ci n'occupent que 2 % de la surface de la planète, mais elles concentrent 80 % des émissions de CO2 et consomment 75 % de l'énergie mondiale.

Pourtant, quand on compare les émissions de CO2 par habitant des citadins résidant dans les grandes mégapoles de la planète, on constate qu'elles sont souvent très sensiblement inférieures à celles d'un habitant "moyen" du pays considéré, surtout dans les villes qui ont su faire des choix cohérents de développement en matière d'urbanisme, de transports, de développement économique et d'espaces verts.

Les rejets des New-Yorkais représentent moins d'un tiers de la moyenne des Etats-Unis ; chaque Barcelonais émet moitié moins de gaz à effet de serre que l'Espagnol moyen ; tout comme les Londoniens font deux fois mieux que les Britanniques. Plus surprenant, au Brésil, Sao Paolo affiche des émissions par habitant qui ne dépassent pas un tiers de la moyenne brésilienne.

L'explication est simple mais dérangeante du point de vue politique : une ville compacte, mélangeant logements et activités et desservie par des transports en commun est moins polluante qu'un habitat individuel diffus fondé sur le règne automobile.

Il existe en effet une forte corrélation entre une faible densité urbaine et une quantité élevée de rejets de CO2 par habitant. Cette étude montre donc que, contrairement aux idées reçues, le développement économique n'entraîne pas nécessairement d'accroissement de la pollution. Ainsi la ville de Tokyo émet-elle une quantité de gaz à effet de serre par tête équivalent à 45 % de la moyenne japonaise, très inférieure aux rejets par habitant de Pékin ou de Shanghaï, deux fois plus élevés que la moyenne chinoise.

Les choix politiques en matière d'urbanisme et de transports sont dans ce domaine déterminants : les transports sont responsables de 60 % des rejets de CO2 à Sao Paulo, métropole de la congestion automobile, contre 20 % à Londres ou New York, bien desservis par le métro.

Mais les villes de demain ne devront pas seulement être sobres et efficaces du point de vue énergétique, elles devront également réintroduire la nature et la végétation partout pour lutter activement contre la pollution, limiter les émissions de CO2 et lutter contre le réchauffement climatique. La capacité des arbres à absorber le dioxyde de carbone est bien connue et joue un rôle fondamental dans la lutte contre le changement climatique. Mais leur rôle ne s'arrête pas là : ils sont aussi capables d'absorber d'autres composés chimiques aériens.

Une étude récente réalisée par des scientifiques du Centre National pour la Recherche Atmosphérique (NCAR) à Boulder (Colorado), montre que les plantes à feuilles caduques absorbent au moins un tiers de polluants atmosphériques communs en plus que ce que les estimations précédentes indiquaient. Selon cette étude, les capacités d'absorption de la pollution atmosphérique par les forêts auraient été largement sous-estimées.

L'étude porte sur les interactions entre les arbres à feuilles caduques et les Composés Organiques Volatiles (COV) oxygénés, ces derniers ayant été jusqu'ici "mal représentés voire en partie négligés dans les modélisations [du climat]", d'après le chimiste de l'atmosphère Jos Lelieved, de l'Institut Max Planck pour la Chimie (Mainz, Allemagne).

Ces composés ont des impacts à long terme sur l'environnement, intervenant dans la formation d'ozone et de gaz à effet de serre, ainsi que sur la santé humaine, étant considérés comme des composés cancérigènes ou mutagènes. Les COV tels que les NOx ou le benzène sont produits par la combustion d'hydrocarbures et par d'autres composés chimiques émis de sources naturelles et artificielles (transport, industrie...).

L'équipe de recherche a choisi de se concentrer sur des peupliers, dont le génome a été séquencé, ce qui permet d'effectuer aisément des analyses génétiques. En mesurant l'absorption des COV oxygénés dans plusieurs écosystèmes, il a été découvert que les plantes caduques absorbent les composés à un taux élevé, jusqu'à 4 fois plus que les estimations précédentes.

Au final, à l'aide d'une modélisation informatique simulant la pollution atmosphérique mondiale, l'étude conclut que les plantes absorbent 36 % de COV oxygénés de plus que ce que les études actuelles laissaient présager. De plus, cette consommation des COV oxygénés évite qu'ils ne se dégradent en aérosols dans l'atmosphère, lesquelles substances ont un impact important sur le climat et la santé humaine.

A l'instar de cette étude, il existe une abondante littérature sur le rôle de la végétation et des arbres en particulier dans la régulation de la pollution atmosphérique. Si la recherche est surtout centrée sur le stockage et l'absorption du carbone, l'absorption d'autres polluants a aussi été étudiée, notamment dans un cadre urbain.

David Nowak, chef de projet à l'unité de recherche en Forêt Urbaine, Santé Humaine et Qualité Environnementale au sein du Service des Forêts, estime que les arbres de la ville de Chicago stockent l'équivalent de 716.000 tonnes de carbone évaluées à 14,8 millions de dollars - montant évalué à partir du prix du carburant automobile, et absorbent 25.000 tonnes de carbone par an, soit l'équivalent de 521.000 dollars.

En plus du carbone, la canopée absorbe chaque année 888 tonnes de polluants atmosphériques, dont environ 325 tonnes d'ozone et 300 tonnes de particules mais aussi du monoxyde de carbone et du dioxyde de soufre et d'azote. Ce phénomène est évalué à 6.4 millions de dollars.

La présence d'arbres en milieu urbain est donc d'une réelle utilité non seulement dans de la lutte contre le changement climatique, mais aussi pour la réduction de la pollution urbaine. En août 2003, la canicule qui s'est solidement installée sur le territoire français a fauché la vie de 15 000 personnes, le plus souvent âgées et fragiles : 91 % avaient plus de 65 ans et 87 % vivaient en immeuble collectif. Pendant une quinzaine de jours, les températures ont battu des records historiques : les deux tiers des stations de Météo France affichaient des températures comprises entre 25°C et 35°C, et 15 % des stations françaises ont enregistré des températures supérieures à 40°C.

Les régions Île-de-France et Centre ont été fortement touchées par cette vague de chaleur exceptionnelle, notamment les grandes agglomérations urbaines, telles Paris, Tours, Orléans. En France, les décès précisément attribués à la déshydratation, hyperthermie, coup de chaleur ont augmenté de 23 % par rapport à la mortalité attendue en un mois d'août « normal ».

Dans une étude des facteurs de risques de décès des personnes âgées résidant à domicile durant la vague de chaleur d'août 2003, l'Institut de veille sanitaire (INVS) confirme que les villes denses sont plus vulnérables aux fortes chaleurs que les villes vertes.

Cette étude montre qu'une hausse de l'indice de végétation à proximité des logements est un bon moyen de rafraîchir l'air ambiant et d'abaisser les températures extérieures. Des travaux de référence dans ce domaine montrent que les écarts de température entre un parc urbain et ses environs vont de 1°C à 7°C ; la différence la plus importante étant obtenue aux abords de grands parcs arborés « baignés » par une rivière.

À partir d'images satellitaires des longueurs d'ondes infrarouges d'un quartier résidentiel de la ville de Munich (Parc du château de Nymphenburg), et d'une analyse des températures de surface émises à la mi-journée et la nuit, Stephen Pauleit et Friedrich Duhme soulignent qu'une augmentation de 10 % de la surface végétalisée abaisse la température de 1°C dans un rayon de 100 mètres.

D'autres campagnes de mesures réalisées à l'intérieur du parc national d'Athènes et autour du site, en août 1998, et pendant 10 jours consécutifs, indiquent que l'écart est de 1,5°C entre les températures les plus basses et les plus hautes. La différence maximale atteint 3°C au cours d'une journée.

Un espace vert est donc un excellent équipement pour atténuer l'îlot de chaleur urbain et rafraîchir l'air ambiant. Une étude de modélisation des flux d'énergie au dessus d'un quartier témoin parvient à des résultats similaires à ceux de Munich. Ainsi, l'aménagement d'un parc arboré de 100 mètres carrés au coeur d'un îlot urbain, bordé par des immeubles de 15 mètres de hauteur, permet d'abaisser la température de 1°C dans les rues canyon adjacentes.

Ce gain de fraîcheur se prolonge sur une distance de 100 mètres. Sous nos latitudes, les surfaces engazonnées et les arbres d'ornement équilibrent leur température interne, à la manière d'un corps humain, en transpirant énormément dès que la température extérieure dépasse 25°C.

Outre qu'un arbre intercepte une partie du rayonnement solaire, procurant une ombre protectrice, il a aussi tendance à aligner sa température sur celle de l'air environnant. Ce mécanisme de régulation thermique est loin d'être négligeable : un arbre feuillu peut émettre jusqu'à 400 litres d'eau par jour, ce qui représente une puissance de refroidissement équivalente à celle de 5 climatiseurs pendant 20 heures en climat chaud et sec.

Le grand défi urbain de demain sera de concevoir des villes denses, sobres et efficaces sur le plan de l'énergie et des transports mais où la végétation sera présente partout, toits, trottoirs, rues... De telles villes seront vraiment « durables » car elles combineront le meilleur de la technologie et l'intégration de la nature à tous les niveaux d'organisation de la cité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un supercalculateur sur une puce
Vendredi, 26/11/2010 - 00:00

La puissance des supercalculateurs va continuer à s'envoler. En témoigne le processeur graphique Echelon de NVidia. Le spécialiste américain des puces graphiques a dévoilé ce projet lors de Supercomputing 2010, la conférence sur le calcul intensif, qui s'est tenue à la Nouvelle Orléans (Etats-Unis) du 13 au 19 novembre. Les détails techniques sont rapportés par notre confrère Eetimes.

Le projet Echelon, soutenu par l'agence américaine de recherche militaire Darpa, vise le développement d'un processeur graphique d'une puissance de 10 Téraflops. Soit sur une puce la puissance d'un supercalculateur d'il y a encore peu d'années. Pour comparaison, l'AlphaServer SC45 qui équipait le CEA, etait jusqu'à fin 2005 le supercaculateur le plus puissant en France, affichait moins de 4 Téraflops. Il occupait encore le 100e rang du classement Top 500, après avoir été le 4e en 2002.

Echelon réunira des milliers de coeurs de calcul, contre des centaines aujourd'hui pour les puces Tesla de Nvidia dont la puissance culmine à 1 Téraflops. Chaque coeur pourra mener quatre opérations en virgule flottante à double précision. Ce méga processeur graphique devrait voir le jour à l'horizon 2018.

L'un des axes prioritaires du développement consiste à améliorer l'efficacité énergétique. Ainsi, Nvidia espère réduire la consommation d'énergie à 10 picojoules par coeur, contre 200 picojoules aujourd'hui.

Industrie.com

Fibre optique : l'Arcep instaure la baisse des tarifs d'accès aux fourreaux de France Télécom
Vendredi, 26/11/2010 - 00:00

Le déploiement de la fibre optique devrait bénéficier d'une bouffée d'air frais en 2011. L'Arcep (Autorité de régulation des communications électroniques et des postes) vient d'annoncer qu'elle a, le 9 novembre dernier, fixé les nouvelles conditions d'accès aux fourreaux (les canalisations par lesquelles passent les câbles du réseau) de France Télécom. « Cette décision, qui sera mise en oeuvre par France Télécom, va se traduire dès le début 2011 par une baisse importante des tarifs d'accès aux fourreaux de France Télécom, permettant aux opérateurs de déployer des réseaux d'accès de fibre optique dans des conditions favorables, aussi bien dans les zones denses que dans les zones rurales », précise le régulateur. Une mesure qui bénéficiera donc principalement aux concurrents de l'opérateur historique, Free, SFR, notamment.

Les mécanismes de calcul retenus par l'Autorité visent à stimuler les déploiements dans les zones à fortes populations (zones denses) comme dans les zones moins denses. Dans les zones denses, le choix de la tarification au volume devrait permettre aux opérateurs de déployer des réseaux en parallèle pour se faire concurrence, « tout en les incitant à un usage raisonné de l'espace disponible ». Pour les zones moins denses, il s'agit plutôt de privilégier la mutualisation par des mécanisme de tarification forfaitaire.

France Télécom devra publier une offre de référence avant le 1er décembre prochain pour l'année 2011 selon des paramètres de calcul assez techniques. Trois tarifs devront y être proposés : un tarif d'usage au volume occupé au niveau de la boucle locale pour les segments de transport et de distribution dans les zones non mutualisées (en amont du point de mutualisation); un tarif par accès en aval des points de mutualisation.

Il restera à vérifier que la mesure incite donc bien les opérateurs à accélérer le déploiement de leurs réseaux très haut débit. Un enjeu phare pour le développement de la France. Le régulateur fera un premier bilan dans trois ans et se donnera la possibilité de faire évoluer les conditions tarifaires, si nécessaire. Dans l'immédiat, ces nouvelles règles économiques se concentrent sur la boucle locale et le génie civil (les réseaux enterrés). Le dispositif pourra être étendu aux infrastructures aériennes comme l'y a invité la Commission européenne.

Silicon

Arcep

Fibre optique : la France peut-elle rattraper son retard ?
Vendredi, 26/11/2010 - 00:00

Le rapport de l'Idate sur l'avancée des réseaux de fibre optique dans le monde pour l'année 2009 ne donne guère l'occasion de se réjouir. L'Institut dénombrait 40 millions d'abonnés FTTH ou FTTB dansle monde à la fin de l'année 2009, soit une progression de 15 % en un an.

L'Europe (Russie comprise) comptait 3,5 millions de foyers disposant d'une connexion Internet en fibre optique, avec un marché particulièrement dynamique en Russie, en Lituanie et en Slovaquie, ce qui fait dire à l'Idate que l'Europe de l'Est comptabilisera plus d'abonnés à la fibre optique en 2012 que l'Amérique du Nord.

Néanmoins, ces chiffres restent très timides par rapport à ceux de l'Asie où le marché de la fibre a d'ores et déjà atteint son point de saturation dans certains pays (94 % de taux de pénétration au Japon, 96 % à Hong Kong). Les opérateurs se livrent donc désormais à une guerre commerciale pour séduire les abonnés. HKBN propose ainsi l'offre la plus compétitive au monde avec un accès jusqu'à 100 Mb/s pour seulement 16 ?/mois à Hong Kong.

En ce qui concerne la France, elle se place au quatorzième rang des nations européennes avec un taux de pénétration de la fibre optique de seulement 1,46 %. Ce résultat fait plutôt pâle figure comparé au taux de pénétration de la Lituanie (20,96 %), de la Suède (12,93 %), de la Norvège (12,03 %) ou de la Slovénie (11,19 %).

C'est cependant toujours mieux que le Royaume-Uni ou que l'Espagne qui ne figurent même pas dans le classement de l'Idate. La France est en outre donnée en exemple par l'Idate comme étant l'un des rares pays au monde à avoir mis en place un programme très haut débit ayant pour objectif de couvrir 100 % de la population en 2025.

Il n'est pas certain cependant que le pays soit à même de relever le défi du FTTH qui se dresse devant lui. En effet, malgré les efforts de l'ARCEP pour mettre au point un cadre réglementaire favorable à la fibre, des obstacles peuvent encore surgir.

Ainsi, Hervé Maurey, sénateur centriste de l'Eure, vient de remettre au Premier ministre un rapport sur le financement du très haut débit dans lequel il préconise de mettre en place une « une contribution de solidarité numérique ». Il s'agirait alors d'une taxe sur les abonnements mobiles et fixes, couplée à une majoration sur le prix des téléviseurs et des consoles de jeux, qui devrait permettre de dégager 660 millions d'euros pendant 15 ans.

DN

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots peuvent apprendre à «penser»
Vendredi, 26/11/2010 - 00:00

Des scientifiques financés par l'UE ont mis à l'essai une théorie révolutionnaire selon laquelle les robots apprennent à «penser» aux actions qu'ils peuvent effectuer sur un objet. Les robots peuvent apprendre à travers un apprentissage fondé sur leurs observations et expériences. Ce dernier développement est le résultat du projet PACO-PLUS («Perception, action and cognition through learning of object-action complexes»), financé au titre du domaine thématique «Technologies de la société de l'information» (TSI) du sixième programme-cadre de l'UE (6e PC) à hauteur de 6,9 millions d'euros.

Les partenaires du projet PACO-PLUS ont cherché à tester la théorie appelée «complexes objet-action» (COA). Les COA sont des unités de «pensée à travers l'action» et cette approche conçoit des logiciels et un matériel qui permettent au robot de penser à des objets en termes d'actions pouvant être accomplies.

Par exemple, si un robot voit un objet avec une poignée, il pourrait l'attraper. S'il voit une ouverture, le robot peut potentiellement insérer quelque chose dans l'ouverture ou le remplir de liquide. S'il voit un couvercle ou une porte, le robot peut potentiellement l'ouvrir. Les objets par conséquent obtiennent leur signification par la gamme d'actions possibles que peut exécuter un robot sur eux.

Cela donne à penser que les robots peuvent réfléchir de façon autonome ; en effet, cette découverte implique la possibilité d'un comportement émergent, des comportements complexes qui surviennent spontanément en raison de simples règles, selon les partenaires.

L'approche de l'équipe imitait énormément l'apprentissage des processus chez les jeunes enfants. Lorsqu'ils rencontrent un nouvel objet, les enfants essaient de l'attraper, de le manger, ou de le jeter contre quelque chose d'autre. En tirant progressivement des enseignements en fonction des essais et des erreurs qu'ils font (par exemple, ils comprendront qu'une cheville ronde entrera dans un trou rond), leur gamme d'actions s'étend. La compréhension d'un enfant s'améliore également à travers l'observation d'autres personnes.

PACO-PLUS a conduit la majeure partie de ses travaux avec des robots humanoïdes, des robots à la forme d'êtres humains. «Les robots humanoïdes sont des incarnations artificielles avec des aptitudes complexes et riches perceptuelles et motrices, qui font d'eux... la plateforme expérimentale la plus adaptée pour l'étude de la cognition et du traitement d'informations cognitive», expliquait le Dr Tamim Asfour du groupe de recherche Humanoids de l'institut d'anthropomatique à l'institut de technologie de Karlsruhe (KIT) en Allemagne, et co-coordinateur du projet PACO-PLUS.

Il affirmait que les travaux du groupe venaient à la suite de travaux menés par Rodney Brooks, un professeur en robotique éminent désormais basé au Massachusetts Institute of Technology (MIT) aux États-Unis. Le Dr Asfour expliquait que le professeur Brook «était le premier à exprimer explicitement que la cognition est une fonction de notre perception et de notre capacité à interagir avec notre environnement. En d'autres termes, la cognition provient de notre présence incarnée et située dans l'environnement».

Le professeur Brooks pensait que se déplacer et interagir avec l'environnement représentaient les problèmes difficiles dans l'évolution biologique, et qu'une fois que les espèces l'ont accompli, il était relativement facile de faire «évoluer» le raisonnement symbolique de haut niveau de pensée abstraite, selon le Dr Asfour. L'approche inverse est prise par l'«intelligence artificielle», selon laquelle si vous développez suffisamment votre intelligence, la pensée automatique pourra percevoir et résoudre des problèmes, ajoutait-il.

Le jury cherche encore qui a raison, et les chercheurs ont admis que malgré les progrès effectués, il n'y a encore aucun candidat robot intelligent authentique sur scène. «Cette interprétation hollywoodienne est encore loin du but, mais les applications et démonstrateurs conçus par PACO-PLUS montrent que nous sommes aujourd'hui sur la bonne voie», affirmait l'équipe.

Cordis

^ Haut
Matière
Matière et Energie
Des atomes d'antimatière produits et capturés au CERN
Vendredi, 26/11/2010 - 00:00

L'expérience ALPHA au CERN1 vient de réaliser une avancée importante dans le développement de techniques pour comprendre l'une des énigmes de l'Univers, à savoir, ce qui différencie la matière de l'antimatière. Le CERN a réussi à produire et à capturer des atomes d'antihydrogène. Cette avancée va ouvrir la voie à de nouvelles méthodes pour réaliser des mesures précises sur l'antihydrogène et ainsi permettre aux scientifiques de comparer la matière et l'antimatière.

L'antimatière - ou plutôt l'absence d'antimatière - reste l'un des plus grands mystères de la science. La matière et l'antimatière sont identiques, mais ont une charge opposée. Elles s'annihilent au contact l'une de l'autre. Lors du big bang, matière et antimatière devraient avoir été produites en quantité égale.

Or, nous savons que notre monde est constitué uniquement de matière : l'antimatière semble avoir disparu. Pour découvrir ce qu'il est advenu de l'antimatière, les scientifiques utilisent diverses méthodes qui ont pour but de déterminer si une infime différence entre les propriétés de la matière et celles de l'antimatière pourrait apporter un début d'explication.

L'une de ces méthodes consiste à prendre l'un des systèmes les mieux connus de la physique, l'atome d'hydrogène, constitué d'un proton et d'un électron, et de vérifier si son homologue dans l'antimatière, l'antihydrogène, constitué d'un antiproton et d'un positon, se comporte de la même manière. Le CERN, avec son installation pour antiprotons de basse énergie, est le seul laboratoire au monde où de telles recherches puissent être menées.

Le programme antihydrogène ne date pas d'hier. En 1995, les neufs premiers atomes d'antihydrogène produits en laboratoire l'ont été au CERN. Puis, en 2002, les expériences ATHENA et ATRAP ont montré qu'il était possible de produire de grandes quantités d'antihydrogène, et ainsi ouvert la voie à la réalisation d'études détaillées. Le nouveau résultat d'ALPHA constitue la plus récente des étapes de ce voyage.

Les atomes d'antihydrogène sont certes produits sous vide au CERN, mais ils sont entourés de matière ordinaire. La matière et l'antimatière s'annihilant au contact l'une de l'autre, ces atomes d'antihydrogène ont une espérance de vie très brève. Celle-ci peut toutefois être allongée à l'aide de champs magnétiques intenses et complexes qui permettent de capturer les atomes d'antihydrogène et ainsi d'empêcher qu'ils entrent en contact avec la matière. L'expérience ALPHA a montré qu'il est possible de conserver de cette manière des atomes d'antihydrogène pendant un dixième de seconde, un laps de temps suffisamment long pour pouvoir les étudier. Sur les milliers d'antiatomes produits par l'expérience ALPHA, 38, selon le dernier résultat, ont été capturés suffisamment longtemps pour être étudiés.

« Pour des raisons que l'on ignore encore, la nature a exclu l'antimatière. Il est donc très gratifiant et assez impressionnant de savoir que le dispositif d'ALPHA contient des atomes, neutres et stables, d'antimatière, explique Jeffrey Hangst, de l'Université d'Aarhus (Danemark), et porte-parole de la collaboration ALPHA. Cela nous incite à poursuivre nos efforts pour découvrir les secrets de l'antimatière. »

Toujours dans le cadre du programme antimatière du CERN, l'expérience ASACUSA a mis au point récemment une nouvelle technique pour produire des atomes d'antimatière. Dans un article qui paraîtra prochainement dans Physical Review Letters, la collaboration annonce qu'elle a réussi à produire de l'antihydrogène dans un « piège à étranglement », étape préalable indispensable en vue de la production d'un faisceau. ASACUSA envisage de développer cette technique afin de pouvoir disposer de faisceaux d'intensité suffisante et d'une durée de vie assez longue pour être étudiés.

« Nous disposons désormais de deux méthodes pour produire et finalement étudier l'antihydrogène ; l'antimatière ne devrait donc pas pouvoir conserver ses secrets encore bien longtemps, estime Yasunori Yamazaki, du centre de recherche japonais RIKEN, et membre de la collaboration ASACUSA. Il reste encore du chemin à parcourir, mais nous sommes ravis de constater que cette technique fonctionne aussi bien. »

« Ces résultats représentent des avancées importantes pour la recherche sur l'antimatière, a déclaré le Directeur général du CERN, Rolf Heuer, et tiennent une place importante dans le vaste programme de recherches mené au CERN.

CERN

RT 2012 : une avancée majeure vers le bâtiment sobre
Vendredi, 26/11/2010 - 00:00

Actuellement plafonnée à 130 kWh/m².an en moyenne (ou 250 kWh/m².an quand le chauffage est électrique), la consommation maximale moyenne sera limitée à 50 kWh/m².an pondérée en fonction de la localisation géographique, de l'altitude, du type d'usage du bâtiment, de sa surface, et des émissions de gaz à effet de serre des équipements. Le mètre carré dont il s'agit ici est le mètre carré Shon, le kWh est un kWh d'énergie primaire. C'est le standard des bâtiments basse consommation qui a servi de base à cette nouvelle réglementation.

D'après les calculs officiels la réduction de la consommation d'énergie primaire liée à la RT2012 serait de 150 milliards de kWh entre 2013 et 2020, soit plus du quart de la consommation électrique totale d la France prévue en 2020. La réduction des émissions de CO2 devrait aller de entre 13 à 35 millions de tonnes de CO2 (selon la méthode de calcul) entre 2013 et 2020.

Voici donc la formule fixée par l'Arrêté du 26 octobre 2010 publié au Journal Officiel du 26 octobre 2010. Elle détermine le Cepmax, autrement dit la consommation d'énergie primaire maximale par m² Shon, en fonction de paramètres liés à la nature du bâtiment, sa localisation, et ses sources énergétiques.

Cepmax tient compte des consommations de chauffage, éventuellement de refroidissement, d'éclairage, de production d'eau chaude sanitaire et celles des équipements auxiliaires (pompes et ventilateurs), soit deux usages supplémentaires par rapport à ceux pris en compte dans la RT 2005.

Le calcul se fait en énergie primaire. Les combustibles fossiles et le bois se voient attribuer un coefficient égal à 1, l'électricité un coefficient de 2,58 (pour 1 kWh consommé au compteur, ce sont 2,58 kWh qui sont pris en compte). En revanche l'énergie produite localement par des panneaux solaires thermiques ou photovoltaïques ne peut être déduite que dans la limite de 12kWh/m².an.

DD

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Émissions de CO2 des voitures : une baisse sans précédent en Europe
Vendredi, 26/11/2010 - 00:00

La Commission a présenté le 10 novembre les chiffres officiels des émissions de CO2 des voitures neuves vendues dans l'Union européenne (UE) en 2009. Le niveau moyen d'émissions ressort à 145,7 grammes de CO2 par kilomètre (g/km), en baisse de 5,1 % par rapport à l'année 2008. "Il s'agit de la baisse annuelle la plus importante jamais enregistrée", annonce la Commission.

La Commission explique cela notamment par l'accentuation de "la légère diminution de la puissance, de la cylindrée et du poids des voitures particulières qui s'était amorcée en 2008" due "aux effets conjugués de la crise économique, des programmes de mise à la casse introduits dans certains États membres, ainsi que de l'accroissement de la demande de véhicules plus économes en carburant et de la mise au point de nouvelles technologies dans ce domaine."

Par ailleurs, l'UE estime que "plusieurs grands constructeurs automobiles devraient, si la tendance actuelle se poursuit, atteindre l'objectif fixé pour 2015 avec quelques années d'avance." L'UE a adopté fin 2008 une directive prévoyant que les constructeurs automobiles parviennent à une moyenne d'émission de 130 g/km en 2015.

AE

Les producteurs d'électricité européens émettent de moins en moins de CO2
Vendredi, 26/11/2010 - 00:00

Les grands producteurs européens d'électricité ont vu en 2009 leurs émissions de CO2 diminuer pour la 2e année consécutive, sous l'effet de la crise économique et du développement des énergies renouvelables, selon une étude publiée récemment par le cabinet PWC et Enerpresse. Les émissions cumulées des 18 principaux électriciens européens se sont élevées à 705 millions de tonnes (Mt) l'an dernier, soit 64,5 Mt de moins que l'année précédente (-8,4%).

"C'est la première fois depuis 2001 que l'on observe cette tendance deux années de suite", a commenté Olivier Muller, expert du changement climatique chez PWC. "A priori, ça va continuer en 2010", a-t-il ajouté.

Cette baisse des émissions de CO2 s'explique d'abord par la crise économique qui a entraîné un recul de la consommation d'électricité, notamment dans l'industrie. La production d'électricité a ainsi baissé de 5,8 % en 2009 pour les 18 sociétés étudiées. Mais les émissions de dioxyde de carbone régressent aussi grâce au développement des énergies renouvelables. Ces dernières ont représenté 17,8 % de la production d'électricité des électriciens européens en 2009 contre 15,7 % en 2008.

Cela a contribué à faire régresser le "facteur carbone" des électriciens européens. Ces derniers ont émis 345,5 kg de CO2 par mégawattheure (MWh) en 2009, contre 355,3 kg CO2/MWh en 2008, soit une baisse de 2,7%.

Romandie

Climat : le Plan national d'adaptation disponible et applicable en juin 2011
Vendredi, 26/11/2010 - 00:00

Nathalie Kosciusko-Morizet, ministre de l'écologie, a présenté les conclusions de la consultation sur l'élaboration du PNACC (Plan National d'Adaptation au Changement Climatique), ainsi que les prochaines étapes. Il s'agit d'aboutir, d'ici juin 2011, à des mesures concrètes et immédiatement applicables.

Pour Nathalie Kosciusko-Morizet (NKM), ministre de l'écologie, du développement durable, des transports et du logement, il s'agit maintenant d'élaborer le plus rapidement possible le PNACC. "Le calendrier est très dense", indique la ministre, précisant que le PNACC doit être validé au printemps 2011. Si le calendrier est respecté, le document devrait être présenté aux acteurs en mai 2011, avant une diffusion publique en juin.

Par ailleurs, elle a insisté sur le fait que la mise en place d'une stratégie nationale d'adaptation n'est "ni un sujet défensif, ni un renoncement à la réduction des émissions de gaz à effet de serre." De même, elle a regretté qu'il y ait "encore des confusions entre l'adaptation et les réductions des émissions".

Concrètement le PNACC constitue un "exercice exigeant" qui devra déboucher sur des propositions directement applicables. Il s'agit tout d'abord de mettre en oeuvre une "juste adaptation", ni trop faible, ni trop importante, même si une révision quinquennale est prévue afin d'affiner certaines orientations.

De même, les propositions devront concilier un regard transversal traitant de l'ensemble des sujets avec une approche nécessairement locale. Enfin, le PNACC doit aussi prendre en compte la réduction des inégalités sociales et économiques face aux impacts des changements climatiques. La ministre a reconnu que ces différents axes de travail constituaient "des principes forts mais difficiles à concilier." Cela d'autant plus que le Plan qui sera publié mi 2011 sera à application immédiate...

Quant à l'aspect formel du PNACC, le ministère s'est fixé pour objectif d'établir une vingtaine de "fiches projets" élaborées à partir des scénarii formulés par Jean Jouzel, le climatologue et membre du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC). Pierre-Franck Chevet, directeur général de l'énergie et du climat au ministère de l'écologie, pilotera pour sa part l'élaboration du Plan.

Le Giec estime que, à l'horizon 2100, la terre se sera réchauffée en moyenne entre 1,1 et 6,4°C. En France, les modèles établis par Météo-France évaluent ce réchauffement entre + 0,8°C et + 1,8°C en 2050 et + 1,5°C et 4,1°C en 2100. "Il y a une réflexion sur l'élévation du niveau de la mer dans certaines régions", a rappelé Jean Jouzel, pointant "la fragilité de certaines régions côtières" soulignée notamment par la tempête Xynthia début 2010.

Le problème du "partage des ressources en eau" pourrait également devenir sensible, "parce qu'on craint, par exemple dans le sud de la France, qu'il y ait moins de précipitations", a-t-il relevé, évoquant aussi une adaptation nécessaire dans les villes et dans l'agriculture face au changement climatique.

Un premier point épineux sera le partage des responsabilités entre les acteurs privés et les acteurs publics. À qui reviendra la mise en oeuvre et le financement de telle ou telle mesure ? De la même manière la répartition des rôles entre l'Etat et les collectivités territoriales s'annonce délicate.

En effet, si le Plan est élaboré au niveau national, il contiendra de nombreuses mesures dont la portée est locale et qui devront être mises en oeuvre par des collectivités territoriales. La question de l'application est d'autant plus complexe que les régions sont elles aussi invitées, depuis l'adoption des lois Grenelle, à rédiger leur propre Schéma régional du climat, de l'air et de l'énergie (SRCAE) qui contient déjà des volets sur la vulnérabilité et l'adaptation.

S'agissant des moyens financiers nécessaires à la mise en oeuvre du PNACC, Nathalie Kosciusko-Morizet n'a pas donné de détails, considérant qu'il est délicat de chiffrer a priori le coût de l'adaptation aux impacts des changements climatiques.

DD

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le tissu adipeux produit des cellules impliquées dans la réponse immunitaire
Vendredi, 26/11/2010 - 00:00

Des chercheurs du CNRS et de l'Université Paul Sabatier à Toulouse ont mis en évidence, dans le tissu adipeux, l'existence de cellules souches similaires à celles de la moelle osseuse. Ces cellules sont capables de se différencier en mastocytes, des cellules immunitaires impliquées notamment dans les processus allergiques et la réponse à une inflammation.

Auparavant, on pensait que les mastocytes étaient produits uniquement dans la moelle osseuse. Cette étude, publiée dans la revue Stem Cells, ouvre un champ d'investigation inexploré sur le rôle du tissu adipeux dans la réponse immunitaire et pourrait déboucher sur de nouvelles applications thérapeutiques.

Loin d'être un simple réservoir de graisses, le tissu adipeux joue un rôle important dans le métabolisme. De nombreuses études ont montré que le tissu adipeux blanc héberge des cellules qui sont présentes dans le sang, comme les macrophages ou les lymphocytes.

Ces cellules, appelées hématopoïétiques, constituent 20 pour cent des cellules du tissu adipeux blanc. Jusqu'à présent, on pensait qu'elles étaient issues de la moelle osseuse, où elles se différenciaient à partir de cellules souches.

Une équipe du laboratoire Métabolisme, plasticité et mitochondries (CNRS/Université Paul Sabatier)a montré que certaines de ces cellules sont produites dans le tissu adipeux, chez la souris. Il s'agit des mastocytes, des cellules dont le rôle apparaît de plus en plus important dans la réponse du système immunitaire.

Les chercheurs toulousains ont isolé, dans le tissu adipeux, une population de cellules souches hématopoïétiques capables de se différencier en mastocytes. De plus, les chercheurs ont réinjecté ces cellules souches hématopoïétiques dans le sang des souris, avec des cellules souches de moelle osseuse, les plaçant ainsi en compétition.

Résultat : les mastocytes des tissus tels que l'intestin ou la peau proviennent par la suite principalement des cellules souches hématopoïétiques des tissus adipeux. Les biologistes ont ainsi constaté que les cellules souches du tissu adipeux sont capables de coloniser des organes périphériques (tissus autres que la moelle osseuse) et de s'y différencier en mastocytes matures et fonctionnels.

Si l'on retrouve ces résultats chez l'homme, ils ouvriront des perspectives thérapeutiques pour soigner les maladies immunitaire telles que l'obésité, le diabète, l'athérosclérose, l'ostéoarthrite... ainsi que les maladies allergiques. En effet, les mastocytes sont omniprésents dans la réponse immunitaire. On sait aujourd'hui qu'ils jouent un rôle beaucoup plus étendu qu'on ne l'avait cru par le passé.

Ils sont à la fois impliqués dans la réponse immunitaire innée (liée à une inflammation provoquée par un virus ou une bactérie) ou à la réponse immunitaire dite adaptative (ils sont capables de présenter l'antigène aux lymphocytes T, qui vont produire des anticorps).

Le tissu adipeux, qui constitue de 10 à 50 pour cent du poids d'un individu adulte, serait, chez l'homme, une source importante de mastocytes : il pourrait donc devenir une cible intéressante pour soigner les maladies hématopoïétiques et immunitaires impliquant les mastocytes.

CNRS

La jeunesse des cellules de l'homme à sa naissance expliquée par un ver hermaphrodite
Vendredi, 26/11/2010 - 00:00

Une étude du CNRS à Lyon d'un petit ver hermaphrodite a permis de comprendre le mécanisme permettant à l'homme de naître "jeune", sans hériter des cellules de ses parents. Une avancée pouvant améliorer l'étude de maladies dégénératives comme Alzheimer ou Parkinson.

"Notre travail a consisté à visualiser le moment très précis où le vieillissement accumulé dans les cellules des parents est remis à zéro" avant la naissance, a déclaré le professeur Hugo Aguilaniu, responsable de l'étude au laboratoire de biologie moléculaire du CNRS à l'Ecole Normale Supérieure (ENS) de Lyon.

Publiée récemment dans la revue spécialisée anglaise "Aging Cell" ("Cellule Vieillissante"), "l'étude a mis en évidence dans le processus de reproduction très rapide d'un ver hermaphrodite baptisé C-Elegans un rajeunissement brutal de ses ovules lors de leur maturation et avant leur fécondation".

Ce mécanisme s'explique, selon le scientifique, par l'activation d'"un ensemble d'enzymes", qui remplacent dans les ovules "les vieilles protéines héritées du parent" par "d'autres toutes neuves" pour le futur embryon. "Cette découverte est essentielle car, dans ce mécanisme, il y a des solutions à découvrir pour prévenir chez l'homme des maladies dégénératives liées au vieillissement comme le cancer, Alzheimer ou Parkinson, qui explosent avec l'allongement de la durée de la vie", a poursuivi le professeur Aguilaniu.

Chez la brebis Dolly, premier mammifère à être cloné, ce rajeunissement cellulaire n'a pas fonctionné. A sa naissance en 1996, elle "avait cinq ans d'âge", rappelle-t-il, et avait présenté rapidement des signes de vieillissement avancés. Elle est morte en 2003.

LP

Premier essai clinique de cellules souches chez des patients atteints de lésions spinales
Vendredi, 26/11/2010 - 00:00

Le 11 octobre 2010, une compagnie de biotechnologie californienne, Geron Corp., a annoncé l'inscription d'un patient atteint de lésion de la moelle épinière dans une étude d'essais cliniques. Sept autres patients devraient être inclus dans cette étude, qui se déroule à l'hôpital Shepherd Center localisé à Atlanta, dans l'état de Géorgie.

La compagnie Geron Corp. est une entreprise spécialisée dans la recherche et la production de biopharmaceutiques pour le traitement du cancer, des maladies dégénératives et cardiaques, du diabète et des lésions du système nerveux central. Le Shepherd Center est un centre de recherche clinique et de réhabilitation spécialisé pour les personnes souffrant de traumatisme du système nerveux central et fait partie des sept sites américains qui ont été sélectionnés pour conduire les études cliniques.

Annuellement, le Shepherd Center réalise 940 hospitalisations et quelques 6000 consultations. Chaque année, 12.000 personnes aux Etats-Unis sont victimes de traumatismes de la moelle épinière, principalement dans des accidents de voiture, chutes, sport et agressions.

La compagnie Geron Corp. a reçu, en janvier 2009, l'approbation du service gouvernemental américain responsable de la pharmacovigilance FDA (Food and Drug Administration) pour entamer l'essai clinique de cellules souches chez des patients souffrant de lésions aiguës de la moelle épinière classées d'ordre A. Cette autorisation permet à Geron Corp. de lancer la première étude clinique d'une thérapie sur l'homme impliquant des cellules souches humaines embryonnaires (hESC) appelées GRNOPC1 .

Les principales cellules du système nerveux central ne se régénèrent pas après une lésion spinale ou des suites d'une maladie et il n'existe aucun traitement pour rétablir la fonction perdue. Dans le cas de lésions de la moelle épinière, les patients sont partiellement ou complètement paralysés parce que les nerfs et les cellules de soutien (cellules gliales) dans la moelle épinière ont été endommagés et ne peuvent se régénérer.

BE

Cellules souches et programmation génétique : l'apport de la recherche fondamentale
Vendredi, 26/11/2010 - 00:00

Des chercheurs de l'Institut Pasteur et du CNRS viennent d'identifier des régulateurs contrôlant l'un des processus essentiels du développement embryonnaire chez les femelles mammifères : la mise sous silence des gènes de l'un des deux chromosomes sexuels.

Ces mêmes régulateurs sont également impliqués dans le maintien de la capacité des cellules souches embryonnaires à donner naissance aux différents tissus de notre organisme, comme la peau, les ongles ou le foie. Ces régulateurs sont également capables de « reprogrammer » le génome des cellules matures pour leur faire perdre leur spécialisation, et retourner à l'état de cellules souches.

Ces travaux contribuent ainsi à mieux comprendre ces mécanismes fondamentaux, ce qui sera indispensable pour espérer maîtriser le devenir des cellules souches et développer des nouvelles stratégies thérapeutiques. Ils sont publiés la revue Nature.

Chez les mammifères, les femelles possèdent deux chromosomes sexuels identiques de type X, alors que les mâles n'en possèdent qu'un. Pour contrebalancer ce déséquilibre, un mécanisme spécifique se met en place chez la femelle pendant le développement de l'embryon : il s'agit de la mise sous silence des gènes présents sur l'un des deux chromosomes X.

Mâles et femelles expriment ainsi le même nombre de gènes du chromosome X dans chaque cellule. Cette inactivation du chromosome X est le sujet de recherche de l'unité de Génétique moléculaire murine (Institut Pasteur/CNRS URA 2578), dirigée par Philip Avner.

Les chercheurs de cette unité avaient précédemment identifié trois facteurs intervenant dans la régulation directe du processus. En collaboration avec une équipe de l'université d'Edimbourg, ils viennent de mettre en évidence trois autres facteurs, impliqués cette fois-ci dans un second niveau de la régulation.

Certains de ces facteurs étaient déjà connus pour permettre aux cellules spécialisées dans lesquelles ils s'expriment de « remonter » le processus de leur maturation.

Ces cellules redeviennent des cellules non-spécialisées, également appelées cellules souches. Quand cette « déprogrammation » a lieu dans des cellules femelles, elle s'accompagne de la réactivation des gènes du chromosome X inactif. Ceci suggère donc des mécanismes moléculaires communs entre cette réactivation et la déprogrammation de l'expression des gènes.

En contribuant à identifier les processus qui régulent ces mécanismes indéniablement liés, les découvertes des chercheurs de l'Institut Pasteur et du CNRS soulignent l'apport potentiel de la recherche fondamentale dans la compréhension du maintien de la plasticité des cellules souches embryonnaires, domaine qui représente, à l'heure actuelle, un enjeu considérable en matière de thérapie.

CNRS

Vers un vaccin contre le cancer du poumon
Vendredi, 26/11/2010 - 00:00

La piste d'un vaccin contre le cancer du poumon progresse. Une équipe française vient ainsi de lancer un essai auprès de 41 patients. Baptisé Dex2, il repose sur le principe de l'immunothérapie anti-tumorale. Cette stratégie vise en quelque sorte à « rééduquer » le système immunitaire pour l'aider à combattre une tumeur.

« Le vaccin est préparé pour chaque patient, à partir de ses propres cellules », explique le Dr Benjamin Besse, cancérologue, responsable du Comité de Pathologie Thoracique à l'IGR. Le principe consiste d'abord à isoler des globules blancs spécifiques, appelés monocytes.

« Placés sous incubateurs, ils sont ensuite transformés en cellules dendritiques, des cellules-clés qui interviennent dans la régulation du système immunitaire. A ce stade, nous en extrayions des fragments (des exosomes, n.d.l.r.) qui seront mis en contact avec des éléments propres de la tumeur ».

Ainsi constitué, le vaccin est alors injecté au patient : toutes les semaines pendant un mois puis tous les 15 jours pendant 3 mois. « Il prend alors le relais d'une chimiothérapie et vise à faire réagir le système immunitaire ». Afin que celui-ci prenne le dessus sur la tumeur.

Le Dr Besse reste toutefois prudent, histoire de ne pas donner de faux espoirs à des milliers de malades. « Notre travail est encore très préliminaire », insiste-t-il. « Il ne s'agit que d'une première étape. Nous avançons pas à pas. Les deux essais de phase I nous ont juste donné des résultats encourageants en termes de faisabilité et d'absence de toxicité ».

Yahoo

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top