RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 517
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Juin 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les caméras miniaturisées de demain
Les mémoires numériques de demain ?
Matière
Produire du carburant à partir de dioxyde de carbone !
Des pylônes électriques transformés en éoliennes
Les professionnels de l'électricité veulent réduire massivement leurs émissions de CO2
Terre
Le réchauffement climatique tue 300.000 personnes par an
Les émissions mondiales de CO2 pourraient augmenter de 39 % d'ici 2030
Vers un stockage massif du CO2
Vivant
Nouvelle technique d'imagerie : vers la régénération de moelle épinière ?
Un essai de vaccin contre le paludisme lancé en Afrique
Des nanotechnologies pour traiter le cancer
Cancer du poumon : de nouvelles avancées
Cancer : de nouveaux vaccins thérapeutiques
Une découverte prometteuse pour de nouvelles thérapies contre l'infarctus du myocarde
Améliorer sa qualité de vie grâce à l'exercice
L'épaisseur de la matière grise : un témoin précoce de la maladie d'Alzheimer
Recherche
Les transports en commun niçois se mettent au paiement sans contact
Le premier avion à l'échelle mondiale fonctionnant avec des piles à combustible
Edito
Donner un prix à la nature : un défi économique et une nécessité politique



Un remarquable rapport intitulé «Approche économique de la biodiversité et des services liés aux écosystèmes» (disponible sur le site strategie.gouv.fr, vient de jeter les bases d'une véritable approche économique de la biodiversité. Présidé par l'inspecteur général de l'agriculture Bernard Chevassus-au-Louis, ce rapport, touffu et passionnant, dégage des pistes pour mieux prendre en compte la valeur de la nature dans la sphère économique. Un exercice autrement plus complexe que celui du carbone, puisque la diversité de la nature la rend difficilement réductible à une seule unité de mesure.

Le rapport souligne un «processus en cours vers une extinction de la biodiversité, quasi exclusivement du fait des activités humaines». Mais donner a priori un prix à cette biodiversité n'est pas chose facile. L'approche retenue vise à pouvoir faire rentrer la variable «nature» dans les calculs coûts-avantages.

«Aujourd'hui, dans un projet, la biodiversité est comptée pour zéro dans les calculs socio-économiques, explique Bernard Chevassus-au-Louis. Entre deux tracés d'une ligne TGV, par exemple, on ne comptera que le temps gagné.» Le travail de ce groupe répond ainsi aux conclusions du Grenelle, qui prévoit que tout projet d'infrastructures doit être évalué au regard de son impact sur la nature.

Le rapport envisage trois types de services rendus. Le plus direct est le service de prélèvement, quand l'homme utilise la nourriture, l'eau douce ou le bois à sa disposition. C'est sans doute le plus évident à évaluer. Mais il est autrement plus complexe de donner une valeur aux services de régulation (stockage de carbone, régulation et filtration des eaux, contrôle de l'érosion, etc.) et aux services dits «culturels» : tourisme, éducation...

Le groupe a privilégié une approche par milieux, plutôt que par espèce, pour rendre compte de toutes les interactions. Mais il n'est pas exclu un jour d'évaluer les services de telle ou telle espèce, par exemple, le vautour, charognard bien utile en matière de santé publique.

L'exemple le plus remarquable est celui de la forêt qui est l'écosystème pour lequel les données sont les plus nombreuses. Conclusion, la valeur directe (le bois) ne compte que pour un dixième de la biodiversité d'un hectare. Soit 90 euros, contre plus de 500 euros pour la fixation et le stockage de carbone, 90 pour la qualité de l'eau ou encore 200 euros pour les services récréatifs... Ceux-ci sont évalués selon les «prix révélés», c'est-à-dire ce que les individus sont prêts à dépenser (en transport, par exemple) pour bénéficier d'un service qui, lui, est gratuit (la balade en forêt). Total : une moyenne de 970 euros par hectare de forêt française.

Autre exemple : les prairies. La valeur «esquissée» est d'environ 600 euros. Mais cette somme est «très sous-évaluée», selon un membre du groupe, notamment parce que les données pour évaluer leur valeur récréative manquent. Or les prairies diminuent : aujourd'hui un hectare cultivé en céréales rapporte plus à l'agriculteur qu'un hectare de pâturage. En revanche, l'intérêt de ce dernier en matière de biodiversité est bien supérieur : il y a 60 à 80 espèces végétales différentes sur une prairie. D'où un appel à revoir les mécanismes de la Politique agricole commune.

Le rapport de Bernard Chevassus-au-Louis prolonge et complète les travaux, au niveau international, du banquier indien Pavan Sukhdev, chargé d'une étude mondiale sur l'économie des écosystèmes. Celui-ci affirme que le recul de la pauvreté passe par la préservation de la nature. Cet économiste indien veut convaincre les états d'adopter une « comptabilité verte » pour guider des politiques de développement respectueuses de l'environnement.

Il explique que 60 % des écosystèmes sont déjà dégradés, que le rythme de disparition des espèces depuis cinquante ans est infernal et que 10 % des espaces naturels sont voués à la disparition. « Nous devons très vite attribuer une valeur économique aux services rendus par la nature ».} Sukhdev rappelle souvent qu'Adam Smith, père de la doctrine classique, mentionnait déjà dans « La Richesse des nations »(1776) : «Ce qui est très utile - l'eau, par exemple - n'a pas toujours une grande valeur et tout ce qui a beaucoup de valeur - par exemple les diamants - n'est pas forcément très utile.»

Cette destruction accélérée de la biodiversité à un coût humain, économique et social considérable : 27 millions d'emplois détruits d'ici 2050 selon Skukhdev et une réduction des apports de protéines pour environ un milliard de personnes.

La valeur monétaire mondiale des services rendus par les écosystèmes s'élève à environ 23 500 milliards d'euros par an, soit près de la moitié du PIB mondial (environ 50 000 milliards de dollars). Concernant les zones forestières, le coût annuel de l'altération de la biodiversité pourrait être de l'ordre de 1 600 milliards d'euros d'ici 2050. La perte globale de biodiversité pourrait représenter pour sa part 7 % du Produit Mondial, soit 14 000 milliards d'euros par an.

Voici un exemple concret pour comprendre le coût économique de la dégradation de notre environnement : la disparition de la forêt Masaola à Madagascar (riche en girofliers) ferait perdre 1,5 milliard de dollars à l'industrie pharmaceutique, 5 milliards au tourisme, 4 milliards aux 8 000 ménages à qui elle fournit des aliments, des médicaments naturels, des matériaux de tissage ou de construction.

Pavan Sukhdev prône la mise en place d'un nouveau système économique basé sur la rémunération, la valorisation durable et la conservation du capital naturel. Cette équation permettrait à la fois de sauvegarder notre environnement et de fournir emploi et rémunération aux populations les plus défavorisées.

Les idées défendues avec opiniâtreté et talent par Sukhdev font leur chemin et elles ont inspiré plusieurs propositions novatrices, pour préserver les forêts tropicales, dans les négociations actuelles devant aboutir, fin 2009, à Copenhague, à un nouvel accord mondial pour succéder au Protocole de Kyoto. Comme le souligne Sukhdev, l'impact de l'activité économique sur la nature ne peut plus être traité comme une externalité négligeable et pour gérer durablement la nature nous devons en connaître le prix".

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les caméras miniaturisées de demain
Vendredi, 05/06/2009 - 00:00

Les microcaméras intégrées aujourd'hui aux téléphones portables par exemple ont fait d'énormes progrès en termes de taille, de consommation et de coût mais leurs capacités de traitement demeurent encore limitées. En fonction de la résolution, elles disposent d'une optique à focale fixe ou d'un ensemble autofocus, d'un nombre de pixels réduit et ne sont pas accompagnées de dispositifs de traitement. La nouvelle génération de caméras miniatures est en gestation dans le projet Minimage du pôle de compétitivité Minalogic et réserve des surprises !

Ce projet regroupe des chercheurs de l'équipe Prima de l'INRIA, de l'université de Saint-Etienne et du CEA List et Leti, ainsi que les industriels STMicroelectronics, Saint-Gobain, Varioptic et DxO. Il vise à mettre au point à l'horizon 2010 des microcaméras avec autofocus, des images pouvant aller jusqu'à 12 millions de pixels et des logiciels permettant de reconstruire l'image, de l'analyser et de l'interpréter pour offrir des services. Le tout sur un processeur multicoeur sur puce avec un coût de fabrication de quelques euros !

Les chercheurs de l'INRIA interviennent sur la partie concernant les logiciels. Cette nouvelle génération de caméras s'appuie en effet sur des innovations qui ont révolutionné les logiciels embarqués dans les cinq dernières années et pour lesquels les équipes de l'institut, dont Prima, sont en première ligne. « Nous avons développé un algorithme de calcul, dit « pyramide », qui permet de réduire de façon très importante la complexité des calculs sans pour autant faire d'approximation. Il est ainsi possible de réaliser des descriptions d'images ou de séquences d'images robustes, rapides et invariantes », explique James Crowley, responsable de l'équipe Prima.

Cet algorithme permettra d'intégrer des applications très sophistiquées dans des objets embarqués. Par exemple, la caméra du téléphone portable permettra de détecter et d'extraire des visages dans un champ très grand et d'en fournir une image normalisée pour un téléphone visuel main libre. L'utilisateur pourra également scanner une image ou un texte en promenant son téléphone au dessus et le logiciel reconstituera cette image ou ce texte en assemblant les séries d'images recueillies (image stitching) ! « Les tests que nous avons effectués sur la détection de visage a montré que cette solution est plus rapide que celle des concurrents tout en utilisant beaucoup moins de mémoire », précise James Crowley. Un atout que les partenaires industriels ne manqueront pas d'exploiter.

INRIA

Les mémoires numériques de demain ?
Vendredi, 05/06/2009 - 00:00

Aujourd'hui, l'électronique nomade a envahi notre vie. Elle dépend de manière cruciale des composants qui conservent les données quand l'appareil est éteint. On parle de mémoires non volatiles. Le marché réclame des mémoires toujours plus compactes, plus rapides, de plus haute densité et moins consommatrices d'énergie.

Actuellement, trois grandes familles de mémoires non volatiles existent : les mémoires magnétiques, les plus consommatrices d'énergie, les mémoires flash, avec lesquelles les temps d'écriture et de lectures sont plus longs, et les mémoires ferroélectriques, qui sont plus rapides mais avec lesquelles les informations stockées sont détruites lors de la lecture. Les mémoires ferroélectriques sont commercialisées depuis plus de 10 ans et utilisées pour des applications de niche telles que certaines consoles de jeux.

En collaboration avec l'Université de Cambridge et la société Thales, une équipe de l'Unité mixte de physique CNRS/Thales/Université Paris-Sud 11 a réussi à marier deux phénomènes physiques que sont la ferroélectricité et l'effet tunnel. Les chercheurs ont montré la faisabilité d'un nouveau type de mémoire ferroélectrique, dont la lecture ne détruirait pas le contenu, ce qui était jusqu'à présent leur principal inconvénient.

La ferroélectricité est la propriété selon laquelle un matériau possède spontanément une polarisation électrique (asymétrie des charges internes). Elle peut être renversée par l'application d'un champ électrique extérieur. Une fois orienté, cet état de polarisation perdure. Il constitue la base de la mémoire non volatile et son orientation vers le « haut » ou vers le « bas » peut être associée à la valeur 0 ou 1 de notre informatique binaire.

L'effet tunnel, quant à lui, est un phénomène permettant à un objet quantique(un électron par exemple) de traverser un matériau isolant lorsque l'épaisseur de ce dernier est réduite à quelques atomes. Cet effet est observé dans des dispositifs appelés « jonctions tunnel » constitués d'une mince barrière isolante prise en sandwich entre deux électrodes conductrices.

Les chercheurs ont combiné ces deux phénomènes en utilisant comme isolant un matériau ferroélectrique. Ils sont parvenus à y préserver la ferroélectricité, généralement fragilisée à ces échelles nanométriques : ils ont ainsi observé que l'orientation de la polarisation affectait spectaculairement l'effet tunnel et le passage d'un courant électrique au sein du dispositif. Ceci permet de lire de façon non destructive l'état de polarisation, soit le contenu de l'élément mémoire.

Ce résultat ouvre la voie à la simplification de l'architecture des mémoires ferroélectriques actuelles, avec pour perspectives une diminution des coûts, une augmentation de la densité de stockage ainsi que de la rapidité, et une moindre consommation électrique.

CNRS

^ Haut
Matière
Matière et Energie
Produire du carburant à partir de dioxyde de carbone!
Vendredi, 05/06/2009 - 00:00

Le dioxyde de carbone, depuis longtemps identifié comme le principal coupable du réchauffement de la planète, pourrait se faire une nouvelle vertu si une petite société américaine réussissait son pari de le transformer en essence. Cette petite entreprise de Santa Barbara (Californie, ouest des Etats-Unis) se dit prête à construire une première usine pilote à l'échelle opérationnelle, qui pourrait commencer à produire un biocarburant de nouvelle génération dès la fin 2010.

Si un partenariat était scellé dans les neuf mois, ce nouveau type de biocarburant pourrait commencer à être produit dès la fin 2010, affirme M. Elton, tout en reconnaissant que l'échéancier "pourrait être un peu ambitieux". La technologie développée par Carbon Sciences recourt à des micro-organismes, qu'elle appelle "bio-catalyseurs" : dans un premier temps il faut "déstabiliser" le dioxyde de carbone en le mélangeant avec de l'eau. Puis les micro-organismes, protégés par des coquilles de polymère spécialement mises au point, se chargent de recomposer hydrogène et carbone pour produire des hydrocarbures.

Le mécanisme est le même que celui mis en oeuvre dans la nature, lors de la genèse des hydrocarbures. Mais dans le procédé de Carbon Sciences, "les biocatalyseurs sont protégés" et réutilisés, si bien que l'essence peut être produite avec un prix de revient "très, très compétitif". Carbon Sciences, une société cotée employant 8 personnes seulement, affirme être la plus avancée dans cette recherche, mais elle n'est pas la seule à explorer cette piste.

Le procédé développé par la société californienne repose sur la séparation du carbone de l'hydrogène. Pour cela, des micro-organismes sont employés, qui jouent le rôle de biocatalyseur en reproduisant le phénomène naturel de formation des hydrocarbures. Le carbone et l'hydrogène sont recomposés pour former du méthanol, qui peut être raffiné en essence ou en carburant pour l'aviation. Jusqu'à présent, le défaut de ce procédé résidait dans son coût élevé : les micro-organismes devaient être remplacés après chaque réaction. Désormais, grâce à des nano-coquilles de polymère mises au point pas Carbon Sciences, ces organismes peuvent être réutilisés jusqu'à plusieurs millions de fois, et permettent de parvenir à un prix équivalent à celui de l'éthanol. Cette technologie pourrait être directement associée à des activités fortement émettrices de dioxyde de carbone : centrale à charbon, cimenterie, raffinerie...

La société prévoyait de mettre en place une première usine pilote, à petite échelle. Une solution qui n'est plus nécessaire, grâce à de nouveaux moyens de modélisation informatiques, plus fiables ainsi que des avancées dans la conception des catalyseurs. C'est donc directement l'étape suivante que vise Carbon Sciences : la réalisation d'un unité pilote à grande échelle. Une fois trouvés les partenariats, le lancement de la production pourrait être envisagé pour la fin 2010.

CS

Des pylônes électriques transformés en éoliennes
Vendredi, 05/06/2009 - 00:00

Accroître le nombre d'éoliennes sans défigurer le paysage ? Un défi que se sont lancé trois ingénieurs du cabinet Elioth. En utilisant les pylônes électriques comme supports, les éoliennes, dont le nombre devrait être multiplié par 10 d'ici 2015, seraient mieux réparties sur le territoire et poseraient donc beaucoup moins de problèmes esthétiques.

Équipées de deux ou trois pales, ces éoliennes nouvelle génération à axe vertical seraient superposées au réseau électrique et ne défigureraient donc pas plus le paysage qu'il ne l'est déjà. Directement raccordée au réseau, l'éolienne Wind-It n'a pas besoin d'être orientée face au vent et "elle présente également d'autres avantages : son rendement est comparable à celui des éoliennes à axe horizontal et elle est moins bruyante car elle ne génère pas d'effet de sifflement à l'extrémité des pales " expliquent les trois ingénieurs. Selon les premières simulations, le rendement de cette installation sur un tiers des pylônes électriques du territoire français correspondrait à l'équivalent de deux réacteurs nucléaires. Si pour l'instant le coût d'investissement de Wind-It est supérieur à celui d'une éolienne à axe horizontal classique, à moyen terme, il pourrait devenir identique.

Yahoo

Les professionnels de l'électricité veulent réduire massivement leurs émissions de CO2
Vendredi, 05/06/2009 - 00:00

L'Union française de l'électricité (UFE) a réuni, mardi 26 mai à Paris, des professionnels du secteur autour des "défis climatiques, nouveaux enjeux électriques". L'occasion de se pencher sur la diminution des émissions de CO2 nécessaire pour atteindre les objectifs fixés à la France dans le cadre du paquet énergie-climat. Chef d'unité de l'Union européenne des industries de l'électricité (Eurelectric), John Scowcroft a souligné qu'il était nécessaire pour le secteur de diminuer ses émissions de 80 % d'ici à 2050.

Un objectif qui pourra être atteint plus ou moins rapidement, en fonction de plusieurs facteurs comme la disponibilité de la technologie du captage et stockage du CO2 (CSC), l'utilisation du nucléaire, l'évolution des prix du CO2 sur le marché du carbone ou l'amélioration de l'efficacité énergétique.

"La réduction des émissions de CO2 n'est possible que si le secteur se mobilise en amont et en aval", a pour sa part estimé le directeur de l'optimisation amont/aval et trading d'EDF, Philippe Torrion. Aussi a-t-il souligné qu'il était nécessaire de développer les énergies renouvelables (ENR), et de consolider le parc électrique actuel, notamment via le nucléaire.

De plus, il a estimé qu'il fallait mettre en place un dispositif pour alerter en temps réel le consommateur en lui donnant une meilleure information sur le prix de l'électricité, "en y intégrant le coût du CO2". Une manière de dissuader le client d'utiliser de l'électricité aux périodes de pointe. "Si nous atteignons les objectifs fixés par le paquet énergie-climat en termes d'énergie renouvelable, notre pays réduira ses émissions de CO2 de 36 % en 2020, et non de 23 %", a estimé le président du Syndicat des énergies renouvelables et vice-président de l'UFE, André Antoloni. Il a souligné l'importance du développement non seulement de la chaleur collective, mais aussi de l'éolien. "D'ici à 2020, il va falloir construire 6000 éoliennes en France, c'est-à-dire le triple du parc existant", a-t-il dit. Soit l'équivalent de 5 millions de tonnes équivalent pétrole (MTep). Mais l'objectif est loin d'être atteint. "Le nombre de permis de construire est en chute libre, a-t-il déploré, si bien que l'objectif assigné à la France dans le paquet énergie-climat est menacé."

"La France doit réduire ses émissions de CO2 de 23 % et il faut mettre en forme cet objectif", a expliqué le directeur de l'Energie du ministère de l'Environnement, Pierre-Marie Abadie. "Chaque énergie renouvelable présente un point de faiblesse sur lequel il nous faut être vigilant", a-t-il ajouté. Une théorie développée dans les trois Programmations pluriannuelles des investissements (PPI) dans la production d'énergie, (électricité, gaz, chaleur), qui devraient être rendues publiques par le ministère dans les prochaines semaines. Évoquant l'exemple de la biomasse, il a estimé qu'il était nécessaire pour le secteur de l'électricité d'investir dans la filière bois.

Par ailleurs, il a souligné que le parc thermique français allait évoluer. "Il faut en tirer les conséquences pour le réseau gazier", a-t-il souligné, en évoquant la disparition prochaine de certaines centrales à charbon. "Nous entrons dans un cycle d'investissement très important", a-t-il ajouté. En Allemagne, l'éolien a une place prépondérante, avec un parc trois fois supérieur à celui de la France, soit plus de 20 000 mégawatts (MW). "Le gouvernement allemand veut continuer dans ce sens en développant l'éolien offshore. Mais l'Allemagne veut aussi mettre en place les technologies d'enfouissement du CO2, le charbon entrant à 45 % dans sa production d'électricité.

Euractiv}2}

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement climatique tue 300.000 personnes par an
Vendredi, 05/06/2009 - 00:00

Selon un rapport publié par le Forum humanitaire mondial, présidé par l'ex-secrétaire général de l'Onu Kofi Annan, le réchauffement climatique est responsable de 300.000 morts par an et coûte 125 milliards de dollars (90 milliards d'euros) chaque année. Cette étude, qui se présente comme la première à avoir mesuré l'impact mondial du changement climatique, souligne que ce sont les 325 millions de personnes les plus pauvres de la planète qui sont le plus affectées.

Elle relève notamment les difficultés du Bangladesh, où des millions de personnes doivent affronter régulièrement des inondations et des cyclones, de l'Ouganda, où les agriculteurs souffrent de la sécheresse et de certaines îles des Caraïbes et du Pacifique menacées de disparition à cause de l'élévation du niveau de la mer. Or les 50 pays les moins avancés contribuent à moins d'un pour cent des émissions mondiales de CO2, relève le rapport.

L'ex-secrétaire général de l'Onu Kofi Annan a souligné à l'occasion du lancement du rapport à Londres que celui-ci démontrait la nécessité d'un "accord post-Kyoto courageux pour protéger le monde" lors de négociations clefs à Copenhague en décembre. "L'alternative est une famine de masse, une migration de masse, des maladies de masse, et des morts en masse", a averti Kofi Annan lors d'une conférence de presse à Londres. "Si les responsables politiques ne peuvent pas prendre leurs responsabilités à Copenhague, ils feront le choix de faillir (à leurs obligations envers) l'humanité", a estimé le Forum, basé à Genève. Le réchauffement climatique est "la plus grande crise humanitaire en puissance de notre temps" a-t-il insisté.

Selon ce rapport, vers 2030, les morts dues au réchauffement atteindront près d'un million par an et le coût montera à 300 milliards de dollars. L'étude appelle les pays développés, où 99 % des victimes sont recensées, à multiplier "par un facteur cent" leurs efforts pour s'adapter au changement climatique. La majorité des morts est due à la dégradation progressive de l'environnement qui cause des problèmes comme la malnutrition plutôt qu'aux catastrophes naturelles, selon l'étude.

GHF

Les émissions mondiales de CO2 pourraient augmenter de 39 % d'ici 2030
Vendredi, 05/06/2009 - 00:00

L'Energy Information Administration) estime dans son dernier rapport de mai 2009 que les émissions de CO2 pourraient passer de 29 milliards de tonnes en 2006 (8 gigatonnes de carbone) à 33,1 milliards de tonnes en 2015 puis à 40,4 milliards de tonnes en 2030 (11 milliards de tonnes de carbone), soit une augmentation de 39 %, si rien n'est fait pour réduire ces émissions. Par habitant, les émissions mondiales de CO2 passeraient de 4,4 tonnes en 2006 à 4,6 tonnes d'ici 2040.

La plus grande partie de l'accroissement des émissions de CO2 se produira dans les pays en développement notamment la Chine et l'Inde en raison de la forte croissance économique attendue et de la persistance d'une importante dépendance des énergies fossiles chez la plupart de ces économies non-membres de l'OCDE qui regroupe les 30 principaux pays industrialisés, explique le rapport de l'EIA.

Depuis 2005, les émissions carboniques des pays non-membres de l'OCDE dépassent celles des pays de l'OCDE et en 2030 elles les surpasseront de 77 %. Dans son rapport l'EIA prévoit une augmentation de 44 % de la consommation mondiale d'énergie au cours des deux prochaines décennies.

EIA

Vers un stockage massif du CO2
Vendredi, 05/06/2009 - 00:00

Alors qu'il participait à une conférence internationale sur le stockage du CO2 à Bergen, en Norvège, Rajendra Pachauri a insisté sur l'importance de développer les technologies de captage afin de voir leurs coûts diminuer rapidement et qu'elles puissent ainsi être utilisées à grande échelle. Chantal Jouanno, qui a conduit la délégation française lors de cette conférence, a réaffirmé l'engagement de la France dans le développement du captage et du stockage du dioxyde de carbone, "en complément de l'amélioration de l'efficacité énergétique et des énergies bas carbone".

Le groupe Total vient d'ailleurs d'obtenir l'autorisation de lancer son projet pilote de captage et de stockage géologique, à Lacq dans les Pyrénées-Atlantiques, et prévoit d'enfouir 150 000 tonnes de dioxyde de carbone.

De son côté, le président de la République algérien, Abdelaziz Bouteflika a rappelé qu'il "appartient aux pays développés de conduire le mouvement de promotion du captage et stockage de carbone et de réduction des émissions de gaz à effet de serre au vu de leur responsabilité historique et compte tenu de leurs capacités technologiques et financières". Si ces technologies sont jugées "séduisantes" par le Giec, certaines associations s'inquiètent des conséquences que pourrait engendrer le stockage du CO2 à long terme et prônent un développement de technologies plus propres.

MS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Nouvelle technique d'imagerie : vers la régénération de moelle épinière ?
Vendredi, 05/06/2009 - 00:00

L'axone est une partie du neurone où circule l'influx nerveux et au bout duquel se trouve la synapse, jonction avec un autre neurone. Lors d'une lésion, l'axone est l'élément qui doit être régénéré pour rétablir les liaisons entre les différents neurones et reformer le nerf.

La capacité de repousse des axones au sein du système nerveux central, dont fait partie la moelle épinière, était jusqu'alors controversée. Les axones peuvent se régénérer vers les muscles, alors que dans le sens inverse, des facteurs inhibiteurs bloquent la repousse vers les centres nerveux. L'observation faite par l'équipe de Geneviève Rougon à l'IBDML montre que les axones repoussent aussi en direction de la moelle épinière dans un court laps de temps après le traumatisme. De plus, cette repousse est favorisée par l'angiogénèse post-traumatique, c'est-à-dire par le processus de formation de nouveaux vaisseaux sanguins dans les tissus endommagés.

En effet, après un traumatisme de la moelle épinière, on observe chez la souris une angiogénèse importante et très dynamique, avec un pic d'intensité une semaine après la lésion. Parallèlement, les axones repoussent préférentiellement et plus rapidement au voisinage des vaisseaux sanguins. Ces observations suggèrent qu'une amplification de l'angiogénèse et son maintien dans le temps pourraient offrir de nouvelles perspectives thérapeutiques pour favoriser la récupération fonctionnelle après, par exemple, une lésion de la moelle épinière.

La description de cette interaction spatio-temporelle a été faite en combinant deux avancées en matière d'imagerie : l'utilisation de souris dont les populations cellulaires sont repérables par leurs propriétés fluorescentes et la microscopie bi-photonique. Ce nouveau protocole d'imagerie permet de visualiser in situ et en 3D. Cette technique non invasive réduit de façon drastique le nombre de souris utilisées et, grâce la reproductibilité de l'expérience sur le même animal, améliore considérablement le résultat.

CNRS

Un essai de vaccin contre le paludisme lancé en Afrique
Vendredi, 05/06/2009 - 00:00

En essai international à grande échelle avec un candidat vaccin contre le paludisme a démarré, mardi 26 mai à Bagamoyo (Tanzanie). Il évaluera chez 16 000 enfants et nourrissons l'efficacité du vaccin expérimental "RTS, S", mis au point par le laboratoire GlaxoSmithKline (GSK) Biologicals, avec lequel des résultats encourageants ont été obtenus

Financé par l'Initiative pour un vaccin contre le paludisme (en anglais "MVI"), l'essai est dirigé en Tanzanie par le Centre de recherche et de formation Bagamoyo de l'Institut de santé d'Ifakara. Au total, onze sites participeront à cet essai international. Outre la Tanzanie, l'essai démarrera dans les mois à venir au Gabon, Ghana, Kenya, Malawi et Mozambique. Le suivi des enfants participants durera deux ans.

Le paludisme tue entre un et trois millions de personnes chaque année dans le monde. L'Organisation mondiale de la santé (OMS) estime qu'un enfant en meurt toutes les 30 secondes, principalement en Afrique. Des progrès ont été accomplis dans la lutte contre la maladie et sa transmission, grâce aux nouvelles combinaisons de médicaments à base d'artémisinine, aux moustiquaires imprégnées d'insecticide et aux pulvérisations intradomiciliaires d'insecticide. Cependant, l'absence d'un vaccin se fait lourdement sentir.

Parmi les candidats vaccins expérimentés, le RTS, S est à la fois le plus avancé dans les étapes de validation et le plus soutenu financièrement, puisque MVI, lancée par l'organisation humanitaire américaine PATH, bénéficie depuis l'origine du soutien de la Fondation Bill Gates.

"Nous espérons confirmer le niveau d'efficacité constaté dans les précédents essais, qui était de 53 % sur les formes cliniques chez les enfants âgés de 5 à 17 mois, ainsi que la diminution du nombre de cas de paludisme sévère et l'impact général du vaccin sur la santé et le nombre d'hospitalisations", déclare le docteur Loucq.

Le RTS, S représente plus de vingt ans de recherche et développement pour GSK Biologicals, implanté en Belgique où le vaccin est fabriqué. "Je ressens beaucoup d'excitation et d'humilité en pensant que ce vaccin pourrait sauver des centaines de milliers de vie. Il est le seul qui se soit révélé efficace chez des enfants et il cible une étape très précoce dans le cycle du parasite responsable du paludisme. Ce serait le premier vaccin humain contre un parasite", confie Joe Cohen, l'un des "pères" du candidat vaccin chez GSK Biologicals.

Les promoteurs de l'essai insistent sur le fait qu'il sera conduit en accord avec les règles de bonnes pratiques édictées internationalement et que les parents des enfants participants auront accordé leur consentement éclairé. "Nous espérons disposer de premiers résultats après douze à dix-huit mois de suivi. Nous soumettrons alors le produit à l'Agence européenne du médicament pour avis scientifique puis, si l'avis est favorable, à l'OMS pour la procédure de préqualification.

LM

Des nanotechnologies pour traiter le cancer
Vendredi, 05/06/2009 - 00:00

Les traitements actuels contre le cancer ciblent certes les cellules malades mais atteignent aussi celles en bonne santé. Ce nouveau mode de traitement veut empêcher le développement des cellules cancéreuses grâce à des agents cytotoxiques, tout en préservant les tissus non concernés. L'équipe de chercheurs menée par le Dr Basu a réalisé des nanoparticules chimiquement modifiées pour cibler et empêcher la voie de signalisation des protéines assurant la prolifération cellulaire. En bloquant ces voies de signalisation, les cellules cancéreuses ne peuvent plus se multiplier.

Les nanoparticules ciblent alors les cellules cancéreuses et permettent aux agents de chimiothérapie d'agir directement sur elles. Le fait de cibler uniquement ces cellules et de les prédisposer à recevoir le traitement permettrait d'utiliser des doses de médicaments plus faibles et plus adaptées au patient. Les effets secondaires seraient moins présents et le traitement plus facile à vivre pour le malade.

Des tests réalisés en laboratoire, combinant nanoparticules et un médicament utilisé dans le traitement de plusieurs types de cancers (Cisplatine) ont montré l'efficacité de ce procédé à inhiber le développement des cellules cancéreuses et même à les tuer. Les tests réalisés sur des souris présentant des mélanomes se sont aussi révélés concluants. Dans le groupe de souris traité avec la combinaison de nanoparticules et du médicament, 50 % des souris ont vu leurs tumeurs régresser, contre aucune dans le groupe traité avec le seul médicament.

MS

Cancer du poumon : de nouvelles avancées
Vendredi, 05/06/2009 - 00:00

Le 45e congrès de l'American Society of Clinical Oncology a été marqué par l'annonce de progrès significatifs dans la lutte contre le cancer du poumon, première cause de décès par cancer dans le monde. Deux nouveaux essais cliniques ont démontré leur efficacité à améliorer la survie en retardant la progression du cancer du poumon chez des patients atteints de cette maladie à un stade avancé.

Le premier, mené à l'international sur 663 patients, a démontré l'efficacité de l'Alimta, composé empêchant la progression du cancer en bloquant la multiplication cellulaire. Par rapport au groupe témoin, les patients ayant suivi ce traitement auraient survécu 3 mois de plus. La seconde étude, menée sur 768 patients, a fait appel à un cocktail médicamenteux. Du Tarceva, tuant de façon sélective les cellules cancéreuses, a été associé à de l'Avastine, composé empêchant la synthèse des vaisseaux sanguins irriguant la tumeur. Le groupe ainsi traité aurait pour sa part survécu un mois de plus que le groupe témoin en moyenne.

MS

Cancer : de nouveaux vaccins thérapeutiques
Vendredi, 05/06/2009 - 00:00

Après 30 ans de tâtonnements, des chercheurs sont parvenus à mettre au point des «vaccins» capables d'utiliser les défenses naturelles de l'organisme, le système immunitaire, pour lutter contre le cancer. Ce développement majeur a été présenté dimanche à Orlando (Floride) au congrès annuel de la Société américaine d'oncologie clinique (ASCO).

La méthode est appelée «vaccin» par les scientifiques, mais elle traite la maladie plus qu'elle ne la prévient. L'un de ces «vaccins», développé par la société Biovest International, est en mesure d'empêcher l'aggravation d'un lymphome normal, ou cancer des ganglions lymphatiques, un an de plus qu'un traitement classique.

C'est la quatrième fois en l'espace d'un mois que des médecins réussissent à faire reculer le cancer avec de tels «vaccins». Des vaccins expérimentaux contre trois autres cancers - cancer de la prostate, mélanome, ou cancer de la peau, et neuroblastome, tumeur souvent fatale chez l'enfant- ont donné des résultats positifs ces dernières semaines lors d'essais de grande ampleur, après des décennies de travaux en laboratoire.

Canoe

Une découverte prometteuse pour de nouvelles thérapies contre l'infarctus du myocarde
Vendredi, 05/06/2009 - 00:00

Une équipe de recherche germano-italienne est sur la voie d'un nouveau traitement très prometteur pour les patients ayant subi un infarctus du myocarde (ou crise cardiaque). Elle est parvenue à améliorer l'irrigation sanguine et l'activité cardiaque sur des modèles animaux, en désactivant un certain fragment génétique. Ces résultats ont fait l'objet d'une publication dans la revue Science du 13 mai 2009.

Un infarctus du myocarde peut provoquer la mort du patient : l'irrigation sanguine du coeur est interrompue pendant plusieurs minutes ce qui provoque la dégradation voire la mort d'une partie des cellules du myocarde. Même si le patient ne meurt pas, il doit tout de même prendre durant toute sa vie des médicaments afin de réduire les risques de troubles du rythme cardiaque et de nouveaux infarctus. Une nouvelle thérapie pourrait peut-être un jour faciliter la vie de ces patients.

Des chercheurs d'Allemagne et d'Italie ont remarqué lors d'expériences sur des souris, qu'une petite séquence génétique bloquait la formation de nouveaux vaisseaux sanguins dans le tissu dégradé. Cette séquence, identifiée comme étant le microARN-92a, est en partie responsable de la réduction de l'alimentation en oxygène suivant l'infarctus et de la dégradation progressive du tissu. Stephanie Dimmeler de l'Université de Francfort, explique que l'irrigation et l'activité cardiaques s'améliorent lorsque le microARN-92a est désactivé à l'aide de médicaments.

C'est ce qu'elle et ses collègues de l'Institut de régénération cardiovasculaire ont pu observer chez les poissons zèbres et les souris. Les scientifiques veulent maintenant analyser les effets secondaires éventuels du médicament qu'ils ont développé. Ils espèrent pouvoir mettre au point de nouvelles thérapies pour les maladies cardiovasculaires, en particulier pour l'infarctus du myocarde et les troubles d'irrigation sanguine chroniques.

BE

Améliorer sa qualité de vie grâce à l'exercice
Vendredi, 05/06/2009 - 00:00

Faire régulièrement de l'activité physique n'est donc pas seulement un moyen de demeurer en bonne forme et de maintenir l'intégrité de la masse musculaire ; il s'agit en fait d'une véritable thérapie de choc anti-inflammatoire aux conséquences extrêmement positives pour l'ensemble du corps.

Une étude récente réalisée par des chercheurs américains montre qu'il ne faut également pas sous-estimer l'impact capital de l'exercice physique sur notre équilibre mental et psychologique de même que sur la qualité de vie en général.

Dans cette étude, les chercheurs ont examiné l'impact de différents niveaux d'activité physique sur la qualité de vie d'une population sédentaire. 464 personnes âgées en moyenne de 57 ans ont été séparées en 4 groupes distincts, soit un groupe témoin (aucune activité physique), et des groupes soumis à des exercices provoquant des dépenses d'énergie correspondant à 50 %, 100 % et 150 % du niveau d'activité physique recommandé (8 kilocalories par kg par semaine, soit environ l'équivalent de 20 minutes de marche par jour).

L'impact du programme sur la qualité de vie des participants, tant au niveau physique que mental a été évalué après 6 mois en mesurant plusieurs paramètres bien établis. Les chercheurs ont observé que les personnes qui avaient été soumises aux niveaux d'exercice les plus in-tenses (100 et 150 % du niveau recommandé) voyaient plusieurs paramètres physiques et mentaux considérablement améliorés comparativement aux personnes sédentaires, notamment une amélioration importante de la capacité physique à accomplir les tâches quotidiennes ainsi qu'une diminution importante des problèmes d'ordre émotionnel.

Ces bénéfices associés à l'exercice ne sont pas dus à la perte de poids encourue pendant le programme, indiquant qu'être actif physiquement entraîne de multiples répercussions positives sur la qualité de la vie, indépendamment de son impact sur le poids corporel. L'exercice doit donc être considéré non pas seulement comme un moyen de maintenir les fonctions musculaires et de retarder l'apparition des maladies chroniques mais également comme une facette essentielle à notre qualité de vie générale.

Canoe

L'épaisseur de la matière grise : un témoin précoce de la maladie d'Alzheimer
Vendredi, 05/06/2009 - 00:00

Le problème est connu depuis plusieurs années. Lorsque les chercheurs essaient de repérer de manière précoce la maladie d'Alzheimer à partir d'images du cerveau, la variabilité entre individus est trop importante pour dégager des règles simples de détection. Ainsi, le volume de l'hippocampe, zone privilégiée de la mémoire et principale zone lésée par la maladie, peut être, paradoxalement, plus petit chez un individu sain que chez un patient. Cette mesure étant donc trop imprécise, les chercheurs de l'équipe de Pierre Celsis ont étudié un autre critère : l'épaisseur corticale.

Le cortex ou substance grise contient les cellules nerveuses ou neurones qui sous-tendent les fonctions cognitives, sensorielles et motrices. Contrairement au volume de l'hippocampe, l'épaisseur du cortex varie peu entre les individus. La maladie d'Alzheimer affectant certaines zones corticales plus que d'autres, l'équipe a déterminé celles étant les plus sensibles à la maladie. La mesure de l'épaisseur moyenne de celles-ci permet de déduire si le patient examiné évoluera dans un futur proche vers une maladie d'Alzheimer. Les données utilisées proviennent d'une vaste cohorte américaine dont les sujets, suivis pendant deux ans et présentant des troubles légers de la mémoire, sont suceptibles d'évoluer, pour une proportion impossible à déterminer au départ, vers une maladie d'Alzheimer.

Les travaux des chercheurs de l'Inserm ont permis de montrer que la mesure de l'épaisseur corticale à partir de l'examen IRM pratiqué à l'entrée prédit correctement trois fois sur quatre (76 % de prédictions exactes) l'évolution du patient dans les deux ans. Comme il est probable qu'au cours d'une période de suivi plus longue, davantage de patients « suspects » évoluent vers la maladie, le test offre vraisemblablement un pouvoir de prédiction encore meilleur à plus long terme. L'apport de la technique proposée est particulièrement important chez les patients ayant un haut niveau d'éducation car, chez ceux-ci, la « réserve cognitive » masque longtemps la progression de la maladie.

La méthode proposée permet de détecter plus précocement ces patients. Le logiciel développé par les chercheurs doit être maintenant validé par une large étude en population générale à partir des images fournies par des appareils d'IRM soigneusement réglés. Il pourra alors indiquer au médecin, en moins de 20 minutes, si le patient est hautement susceptible ou non de développer une maladie d'Alzheimer dans les mois ou années qui suivent.

Inserm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les transports en commun niçois se mettent au paiement sans contact
Vendredi, 05/06/2009 - 00:00

Ce n'est pas la première initiative du genre, pourtant, la ville de Nice l'annonce avec un an d'avance. Une expérimentation de paiement sans contact avec le téléphone mobile va être lancée au printemps 2010 dans les transports en commun. Le 22 mai dernier, le député-maire Christian Estrosi a détaillé le projet lors d'une conférence de presse où était présent Luc Châtel, secrétaire d'Etat à l'Industrie et à la Consommation. L'Etat compte en effet soutenir financièrement le projet. Mais pour cela, la ville de Nice doit se porter candidate à un appel à projets prévu prochainement.

Cette expérimentation est conçue pour 3 000 personnes volontaires, usagers des bus et tramways. L'idée consiste à leur permettre de télécharger les titres de transports depuis Internet vers leurs mobiles puis de valider leurs trajets en approchant le téléphone d'une borne sans contact. Celle-ci lira le titre de transport chargé dans l'appareil. Lequel sera équipé d'une technologie de radiofréquence à courte portée dite NFC (Near Field Communication). La Ville songe déjà à élargir ce système aux commerces, aux musées ou aux cinémas.

Les trois opérateurs principaux, Bouygues Telecom, Orange et SFR vont participer, avec Veolia Transport, la régie privée des transports publics de Nice.

Ce n'est en tout cas pas la première expérimentation du genre en France. A l'automne 2007, des commerçants de Caen accueillaient des dispositifs de paiement sans contact par téléphones mobiles, là aussi grâce à la norme NFC. Un projet auxquels prenaient part quatre opérateurs (Bouygues Telecom, Orange, SFR et NRJ Mobile) et qui a été prolongé jusqu'à cette année.

OINet

Le premier avion à l'échelle mondiale fonctionnant avec des piles à combustible
Vendredi, 05/06/2009 - 00:00

Une borne essentielle à l'introduction de la technologie des piles à combustible (PAC) dans l'aéronautique va être érigée : Antares DLR-H2 va décoller de l'aéroport de Hambourg début juillet 2009 pour effectuer un premier vol devant des représentants de la presse et du public. Après avoir satisfait à toutes les exigences essentielles de techniques d'autorisation et de sécurité, le Centre allemand de recherche aérospatiale (DLR ) a pu ces derniers jours, pour la première fois, faire la démonstration avec succès des capacités de démarrage, de vol et d'atterrissage d'un avion fonctionnant uniquement à l'aide de PAC.

L'avion Antares DLR-H2, un planeur Antares 20E, qui a une envergure de 20m et un poids de 660kg, a été développé en collaboration avec les partenaires de projet Lange Aviation, BASF et Serenergy, et il est le premier avion piloté au monde fonctionnant avec des PAC, capable d'effectuer un cycle de vol complet, du décollage à l'atterrissage.

Avec Antares DLR-H2, le DLR veut étudier les capacités d'insertion de la technologie des PAC sous les conditions techniques aéronautiques. L'objectif est le développement de systèmes de PAC fiables pour les applications en aéronautique. Même si l'utilisation des PAC pour la propulsion des grands avions n'est pas encore prévue pour le moment, cette technologie représente une alternative intéressante pour les systèmes de fourniture d'énergie pour approvisionner en électricité des grands avions au cours du vol.

Avec les avantages d'une haute efficacité et des émissions réduites de polluants et de bruits, des opérations aériennes plus sûres et un confort des passagers accru pourraient être atteints. Le seul carburant utilisé est l'hydrogène transformé en énergie électrique au moyen d'une réaction électrochimique directe avec l'oxygène de l'air.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top