RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 473
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Avril 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Bientôt des mouchards sous le capot des automobilistes
Un algorithme pouvant prévoir l'avenir financier d'une entreprise
CEA, CNRS créent un centre de calcul haute performance
Revenus 2007 : la validation par téléphone étendue à toute la France
La machine anticipe les décisions du conducteur
Avenir
Le premier robot anesthésiste est testé en France
Matière
Le toit d'un entrepôt du Gard va accueillir la plus grande centrale photovoltaïque d'Europe
Construction des deux plus grands parcs photovoltaïques au monde prévue fin 2009 dans le Brandebourg
Energie éolienne : l'objectif des 14 % de l'électricité européenne en 2020 est réaliste
Vers des cellules solaires peintes sur de l'acier plat ?
Terre
Environnement : Adoption définitive de la directive «Qualité de l'air»
L'écoulement des eaux des lacs du Groenland accélère la fonte des glaces
De nouvelles prévisions pessimistes sur l'élévation du niveau des océans
L'humidité des continents, chef d'orchestre naturel du méthane dans l'atmosphère
Vivant
Le lithium pourrait ralentir la progression de la SLA
Des mutations mitochondriales induiraient des métastases
Des cellules souches neurales dans la moelle épinière humaine
Cancer de la prostate : hypothèses sur la baisse de mortalité aux Etats-Unis
Edito
Payer l'énergie à son coût réel et taxer le CO2 au niveau mondial : des impératifs pour sauver notre planète



Dans sa dernière, volumineuse et passionnante étude de 500 pages, intitulée "Les perspectives de l'environnement en 2030", l'OCDE brosse un tableau réaliste et sombre de l'avenir notre planète à l'horizon 2030.

En 2030, la population de la Terre atteindra 8,2 milliards de personnes contre 6,5 milliards aujourd'hui. Si l'économie mondiale continue de croître à un rythme comparable à celui de ces dernières années, sa taille aura doublé en trente ans. La demande de matières premières (produits agricoles, minerais, énergie fossile, bois, eau) progressera de 60 % dans les pays industrialisés mais de 160 % chez les nouveaux grands acteurs de la scène internationale - Brésil, Russie, Inde, Chine.

Selon des projections économiques et environnementales publiées par l'Organisation de coopération et de développement économiques (OCDE), les émissions mondiales de gaz à effet de serre progresseront de 37 % d'ici à 2030 et de 52 % d'ici à 2050 si les pouvoirs publics n'adoptent pas de mesures nouvelles.

Rappelons que les pays développés sont à ce jour responsables de la majeure partie des émissions de gaz à effet de serre, mais du fait de la croissance économique rapide des économies émergentes, en particulier du Brésil, de la Russie, de l'Inde et de la Chine, les émissions annuelles de ces quatre pays dépasseront en 2030 celles des 30 pays membres de l'OCDE. Les chiffres mentionnent en outre que les décès prématurés dûs à l'ozone troposphérique pourraient avoir quadruplé dans le monde en 2030 et que 4 milliards de personnes vivront dans des zones touchées par un stress hydrique prononcé à la même date.

Pourtant selon l'OCDE, les actions à mener à l'échelle mondiale pour faire face aux principaux défis environnementaux - changement climatique, appauvrissement de la biodiversité, manque d'eau et risques pour la santé humaine - sont réalisables et d'un coût abordable.

Selon l'Organisation intergouvernementale, certaines actions ciblées coûteraient à peine plus de 1 % du PIB mondial en 2030, soit quelque 0,03 point de pourcentage de moins que la croissance annuelle moyenne du PIB d'ici à 2030. Leur mise en oeuvre permettrait par exemple de réduire les émissions d'oxydes d'azote et d'oxydes de soufre d'un tiers environ d'ici à 2030 par rapport au scénario de politiques inchangées, mais aussi de ramener la croissance des émissions de gaz à effet de serre à 13 % au lieu de 37 %.

L'OCDE recommande notamment de s'appuyer en grande partie sur des instruments économiques ou qui font appel aux règles du marché. La fiscalité environnementale, la tarification de l'eau, les échanges de permis d'émission, les systèmes pollueur-payeur, les redevances sur les déchets et l'élimination des subventions préjudiciables à l'environnement en sont des exemples.

Afin de lutter contre la pollution atmosphérique et les émissions de gaz à effet de serre imputables aux transports, l'OCDE défend par exemple la suppression des subventions aux énergies fossiles. La tarification des transports devrait tenir pleinement compte du coût des atteintes à l'environnement et à la santé, par exemple par le biais de la fiscalité des carburants (y compris la suppression des exonérations fiscales) et de la tarification routière, note le rapport. Ce point est fondamental car en payant à son coût réel pour l'environnement les énergies fossiles, les énergies renouvelables deviendront beaucoup plus attractives et rentables économiquement, qu'il s'agisse du solaire et de l'éolien mais aussi de l'énergie des mers et du vecteur hydrogène.

En outre, un tel basculement économique obligera nos sociétés à réduire "à la source" la demande globale d'énergie et à coupler définitivement efficacité énergétique et compétitivité économique. Mais ce passage au coût réel de l'énergie, s'il est indispensable, aura un également un coût social considérable qui sera très difficile à amortir et à gérer par les états.

S'intéressant à l'Agriculture, l'organisation juge nécessaire dans ce domaine la suppression des subventions agricoles préjudiciables à l'environnement et une tarification appropriée de l'eau d'irrigation, ce qui favoriserait une utilisation plus rationnelle de la ressource et la récupération des coûts liés à la création des infrastructures d'irrigation. Afin de lutter contre le changement climatique, l'OCDE préconise l'introduction d'une taxe carbone.

La mise en place en 2008, par les seuls pays de l'OCDE, d'une taxe sur le carbone de 37 euros (25 dollars) par tonne de CO, aboutirait en 2030 à une réduction de 43 % des émissions de gaz à effet de serre dans ces pays, révèle le rapport.

Si le Brésil, la Chine, l'Inde et la Russie suivent l'exemple des pays de l'OCDE et appliquent la même mesure en 2020, et le reste du monde en 2030, le niveau global des émissions de gaz à effet de serre en 2050 pourrait être ramené aux niveaux de 2000.

Cette idée de taxe carbone universelle se trouve confortée par l'explosion du marché mondial du carbone, qui a été multiplié par 4 depuis 2005, passant de 13,5 à 55 milliards d'euros. La valeur du marché mondial du carbone a augmenté de 80 % pour la seule année 2007, avec l'échange de près de 2,7 milliards de tonnes de crédits de CO2, représentant 40,4 milliards d'euros, ce qui constitue un signe d'enthousiasme croissant pour le secteur de l'échange du carbone des entreprises et des investisseurs mondiaux.

Près de 60 % de ces échanges ont eu lieu par le système européen d'échange de quotas d'émissions (système ETS ou SCEQE) : 1,6 milliard de tonnes d'émissions de carbone, soit 28 milliards d'euros, s'échangent au sein de l'Union.

L'organisation estime par ailleurs que le stockage du carbone ou les véhicules hybrides, vont sans doute devenir de plus en plus compétitifs au cours des décennies à venir et prédit que la généralisation d'une technologie de biocarburants de deuxième génération pourrait permettre d'éviter notamment l'expansion prévue des terres agricoles consacrées à la production de agro(bio)carburants ainsi que l'augmentation de la consommation de pesticides, d'engrais et d'eau. Enfin, l'OCDE souligne que le partage équitable de la charge et les effets redistributifs seront aussi importants que le progrès technologique et que le choix des instruments d'action.

Avec cette étude, l'OCDE prend la mesure du défi de civilisation qui nous attend car l'équation planétaire à résoudre pour 2050 est implacable : réduire d'un tiers la consommation moyenne par terrien (en passant de 1,5 Tep à une Tep par habitant), ce qui permettra de stabiliser notre consommation globale d'énergie autour de 9 Gigateps et diviser par 3 les émissions de carbone par terrien en passant de 1,2 tonne à 0,4 tonne, ce qui permettra de redescendre à des émissions annuelles globales de l'ordre de 4 gigatonnes de carbone par an, ce qui constitue la quantité maximale absorbable par la Terre sans provoquer un dérèglement incontrôlable du climat. C'est un défi immense qui nous attend mais, comme le souligne l'OCDE, dans la prolongation du rapport Stern, nous avons les moyens de le relever en combinant une volonté politique nouvelle au niveau mondial et la capacité innovatrice du marché.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Bientôt des mouchards sous le capot des automobilistes
Vendredi, 25/04/2008 - 00:00

Les assureurs français lorgnent sur ce type d'offre depuis un moment mais il semble que cette fois, ils soient en bonne voie. Solly Azar Assurances, société de courtage en assurances, compte lancer le 15 mai prochain un produit destiné aux automobilistes de 18 à 25 ans appelé Easy Drive. Il permet d'adapter les primes en fonction de données de conduite récupérées à distance grâce à un boîtier GSM/GPS embarqué dans le véhicule. Le principe : moins l'automobiliste prend de risque au volant, moins il paye. Solly Azar n'assure pas directement mais propose son produit à des sociétés d'assurances, en complément de leurs contrats existants. La société a conçu son produit comme un forfait de téléphonie mobile. Son dispositif récupère deux types de données, le nombre de kilomètres parcourus dans le mois et le nombre de trajets effectués de nuit (entre minuit et six heures du matin). Ce dernier critère étant un facteur aggravant d'accident chez les jeunes. Si le conducteur n'excède pas les 1 000 kilomètres par mois, il peut bénéficier d'un rabais allant jusqu'à 40 % sur sa prime. S'il dépasse, il devra payer en plus de son forfait mensuel 30 centimes par kilomètre supplémentaire. Quand la barre des 800 kilomètres est atteinte, l'assuré reçoit un SMS d'alerte. S'il conduit de nuit, c'est 20 euros en sus, quel que soit le nombre de kilomètres, la durée du trajet et le moment dans l'année. La comparaison avec le forfait mobile s'arrête là : si l'automobiliste fait moins de 1 000 kilomètres dans le mois, la distance restante n'est pas reportée sur le mois suivant...

Toutes ces données sont récupérées par un boîtier, muni d'un module GSM et d'un récepteur GPS, conçu par la société Cobra, spécialisée dans les équipements de sécurité et les antivols de voitures. Après avoir souscrit son contrat Easy Drive, l'assuré doit le faire installer dans les jours qui suivent (le coût du boîtier est compris dans le contrat). Les données transitent ensuite par le réseau de Bouygues Telecom. Les éventuelles mises à jour sont téléchargeables à distance. Par exemple, Solly Azar envisage déjà comme troisième critère à prendre en compte celui du type de route (communal, nationale, autoroute).

« Les données arrivent et sont traitées chez Cobra qui ensuite les met à disposition de Solly Azar » précise David Tuchbant, directeur général de Cobra. « Solly Azar ne récupère que des données agrégées, à savoir le nombre de kilomètres dans le mois et le nombre de trajets de nuit ». Rien sur la localisation, le temps de conduite, le nombre de trajets, les routes empruntées, la vitesse. Car la Commission nationale de l'informatique et des libertés (Cnil), qui doit autoriser ce genre de dispositif avant une entrée en application, l'interdit. Cela reviendrait à surveiller l'automobiliste et à porter atteinte à sa vie privée.

« On n'a pas le droit de géolocaliser un assuré sans son consentement et de façon permanente, explique Gilles Gosson, directeur technique IARD de Solly Azar, on ne peut pas conserver les données et on ne peut pas se substituer à la force publique et enregistrer de données d'infraction excès de vitesse, feux rouges et stop grillés, etc., NDLR] ».

Au Royaume-Uni, Norwich Union a mis en place un tel système et prend en compte la vitesse des assurés, les plages horaires de conduite, les distances. En France, MAAF avait présenté un dossier à la Cnil mais s'était fait refuser son projet car il relevait les vitesses et les comparait à celles autorisées sur les routes empruntées.

[Yahoo

Un algorithme pouvant prévoir l'avenir financier d'une entreprise
Vendredi, 25/04/2008 - 00:00

Deux chercheurs taiwanais ont inventé une approche mathématique basée sur le principe de la sélection naturelle qui permettrait de repérer le moment où une entreprise est vraisemblablement en train de s'affaiblir. Pour ces chercheurs, connaître la situation financière d'une entreprise est nécessaire aussi bien pour les employés que pour les créanciers ou les investisseurs. Cependant, il est extrêmement difficile de prévoir l'avenir d'une société du fait des nombreux facteurs qui interviennent.

LIN Ping-Chen, de l'Université nationale des sciences appliquées de Kaohsiung, et CHEN Jiah-Shing, de l'Université centrale de Taiwan, ont emprunté certains des principes de l'évolution biologique pour concevoir un algorithme capable de prévoir l'avenir financier d'une entreprise. Pour ce faire, ils ont introduit différentes variables, telles que les bénéfices ou les revenus nets, en leur assignant à chacune un poids. A partir des données recueillies sur les derniers mois ou années, ils testent leur modèle et itèrent sur le poids assigné à ces variables jusqu'à retrouver les résultats actuels de l'entreprise. Ils peuvent alors poursuivre le calcul sur les mois suivants. L'algorithme est ainsi évolutif et permet d'affiner les variables ainsi que leurs poids en fonction des caractéristiques de chaque entreprise. Ce modèle est également capable de combiner les résultats de plusieurs sociétés. Les tests effectués ont permis de montrer l'efficacité de ce modèle et de cette approche "génétique".

BE

CEA, CNRS créent un centre de calcul haute performance
Vendredi, 25/04/2008 - 00:00

Désireux de faciliter l'accès de la communauté scientifique française aux moyens de calculs de très hautes performances, le CEA et le CNRS ont créé le Centre National Jacques Louis Lions de Calcul Haute Performance de l'Essonne. Le centre permettra également le développement de coopération intra-européennes, notamment franco-allemandes.

Le Centre Jacques Louis Lions compte deux sites en Essonne, à savoir l'Institut du Développement et des Ressources en Informatique Scientifique du CNRS, ou IDRIS (Le Moulon/CNRS), et le Centre de calcul « recherche et technologie » du CEA, ou CCRT (Bruyères-le-Châtel/CEA).

L'IDRIS, situé sur le campus d'Orsay, met actuellement en oeuvre une plate-forme de calcul d'une puissance globale de plus de 200 Téraflops. Elle est vouée aux recherches de la communauté scientifique, précise-t-on dans un communiqué.

Le CCRT est, quant à lui, un centre de calcul scientifique et technique ouvert aux partenaires industriels. Installé à Bruyères-le-Châtel, il devrait disposer de plus de 300 Téraflops de puissance cumulée à partir de 2009. Une liaison à très haut débit devrait relier, dès cette année, l'IDRIS et le CCRT.

Le Centre devrait également voir la création d'une Maison de la Simulation sur le plateau de Saclay. L'intérêt sera d'accueillir des scientifiques utilisateurs des ressources de calcul et en quête de formations spécifiques en calcul de haute performance ou de moyens de visualisation avancée.

Enfin, le Centre Jacques Louis Lions prévoit de poser sa candidature à l'accueil d'un noeud du réseau européen PRACE (Partnership for Advanced Computing in Europe), pour les machines de capacité pétaflopique à l'horizon 2010/2011.

Eetimes

Revenus 2007 : la validation par téléphone étendue à toute la France
Vendredi, 25/04/2008 - 00:00

Les Impôts, c'est simple comme... un coup de fil. Selon diverses informations, Bercy s'apprête à généraliser à l'ensemble du territoire national la validation des déclarations de revenus par téléphone. Cette «nouveauté», annoncée par le ministre du Budget Eric Woerth à l'occasion du lancement de la campagne de l'impôt sur les revenus 2007, figure dans une note interne adressée début avril à l'ensemble des centres des Impôts et que le Figaro s'est procurée.

Ce service téléphonique facturé au prix d'une communication locale- a été expérimenté l'an dernier dans cinq départements -Calvados, Eure, Manche, Orne et Seine Maritime- avec succès semble-t-il puisque le ministère du Budget a décidé de passer à la vitesse supérieure. Mais attention, seuls les contribuables ayant reçu une déclaration de revenus préremplie complète et conforme pourront téléphoner. Du coup, entre trois et quatre millions de contribuables sur 35 millions au total seraient réellement concernés. Les autres -ceux qui doivent corriger des éléments et/ou en ajouter d'autres- devront comme d'habitude retourner leur déclaration par courrier, la valider sur Internet ou se rendre jusqu'à leur centre des Impôts.

Pour Bercy, l'objectif est bien sûr de faciliter la vie des contribuables et notamment de ceux qui n'ont pas accès à internet. Mais il s'agit aussi d'augmenter les gains de productivité dans les centres des Impôts. De ce point de vue, les validations par téléphone seraient très intéressantes. Elles «vont directement alimenter la base contrairement aux déclarations par internet qui doivent d'abord être validées une à une par les agents des impôts», explique un fonctionnaire.

Figaro

La machine anticipe les décisions du conducteur
Vendredi, 25/04/2008 - 00:00

Anticiper les réactions d'un individu en lisant directement dans son cerveau. C'est le projet du Bernstein Center for Computational Neuroscience de Berlin, qui développe une interface permettant de mesurer l'activité cérébrale d'une personne en train d'effectuer une tâche. Elle utilise la technique d'imagerie à résonance magnétique, qu'elle combine à des systèmes informatiques capables d'analyser et de traduire les signaux émis par le cerveau. Ce, afin de mesurer l'activité du cortex préfrontal, siège de la décision initiale, et d'identifier un signal représentant la décision d'effectuer une action jusqu'à sept secondes avant que l'individu ne la réalise physiquement. Une telle innovation pourrait avoir des applications très concrètes, notamment pour réduire les risques d'accident de la route. Ce, en reliant l'interface à une machine ou à une automobile pour permettre à cette dernière d'être réceptive aux signaux envoyés par le cerveau. Sur une route, un véhicule pourrait freiner ou dévier de sa trajectoire pour éviter un obstacle que le conducteur aurait inconsciemment déjà perçu mais pas encore réalisé.

Reste que ce but est encore loin d'être atteint. "Il est impossible pour le moment d'envisager l'application de cette solution pour la simple bonne raison qu'une machine IRM n'est pas déplaçable", souligne ainsi Boris Barbour, directeur du laboratoire de neurobiologie à l'ENS Paris. Et d'ajouter : "le dispositif pourrait cependant se montrer intéressant si on affine les techniques et si on mesure l'activité du cerveau en situation de mobilité avec d'autres méthodes comme les électrodes". Pour vérifier l'efficacité de leur dispositif, les responsables du projet ont mené une phase de test avec une quinzaine de volontaires. Ces derniers ont été couchés dans un appareil à IRM. Ils ont ensuite été chargés d'appuyer à plusieurs reprises et selon leur envie sur l'un des deux boutons situés à leur droite et à leur gauche. En parallèle, ils devaient regarder un écran sur lequel défilait une lettre toutes les demi seconde et indiquer quelle était celle affichée au moment où ils ont appuyé.

Résultat : le décalage entre le moment où l'individu effectue son action et celui où il regarde la lettre affichée oscille entre une demi et une seconde. Quant aux IRM, elles auraient permis de prédire près de 60 % des actions réalisées ensuite par les volontaires. "Si l'on peut déjà établir quelques corrélations, il n'est pas encore possible de lire de la pensée dans le détail avec l'IRM ", nuance cependant le neurobiologiste.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Le premier robot anesthésiste est testé en France
Vendredi, 25/04/2008 - 00:00

Un prototype d'automate qui endort et réveille le malade tout seul a été inventé par des médecins de l'hôpital Foch à Suresnes. Ce prototype d'automate est chargé par les médecins anesthésistes de piloter en leur présence et sous leur contrôle permanent la descente dans le sommeil et la remontée vers la conscience des opérés. Tout comme un système de pilotage automatique dans un avion, la machine (c'est un système informatique) contrôle le «pilotage» de la profondeur du coma et la lutte contre la douleur de l'opération. Pour le moment, au bloc opératoire de l'hôpital Foch (Suresnes) où les Docteurs Chazot et Liu peaufinent leurs prototypes, seules deux salles sur douze sont équipées. Mais les hôpitaux Beaujon, Cochin, la Pitié-Salpêtrière, tout comme les CHU d'Angers, Tours, Besançon, des centres anticancéreux (Marseille, Saint-Cloud, bientôt Toulon), et Berlin, Bruxelles, Nouméa (en tout, 50 investigateurs) participent également à ce projet de recherche biomédicale multicentrique.

Aujourd'hui, dans ce robot, une seule électrode capte les ondes complexes produites par le cerveau (ondes rapides de l'éveil, envahissement d'ondes lentes du sommeil, suppression des pics du sommeil profond). L'appareil connecté à l'électrode calcule à partir des fréquences présentes un nombre sans dimension (appelé BIS, pour bi­spectral index) entre 0 et 100 grâce à un algorithme. Zéro, c'est l'absence d'activité cérébrale ; 100, l'éveil conscient. Pour la chirurgie, une anesthésie générale bien conduite réclame d'être entre 40 et 60.

Plus la dose d'anesthésique utilisée est forte, plus le malade «dort», plus le BIS descend. Mais le BIS peut aussi servir d'alarme : en cas d'embolie gazeuse obstruant les vaisseaux du cerveau, le BIS descend encore. C'est donc un signe du bien-être cérébral pendant l'opération. Améliorant cet outil, les médecins de Foch ont mis au point un automate informatique qui endort et réveille le malade sans intervention humaine. Le malade a donc l'électrode sur le front connectée au moniteur d'EEG qui envoie ses données à un ordinateur portable qui commande à son tour des seringues électriques contenant l'une du Propofol (un hypnotique d'action courte), l'autre du Rémifentanil (un morphinique rapide). Nous avons assisté à «l'induction» d'une anesthésie avec ce robot : comme dans un sous-marin, le «profondimètre» du sommeil descend dès que la séquence est lancée par le médecin d'un clic de souris informatique. Le tracé EEG rejoint sur l'écran la fourchette désirée, la vitesse de débit et la dose de médicaments s'affichent.

Parallèlement, le capteur de l'activité musculaire spontanée (EMG) affiche une «descente» au fur et à mesure que la seringue électrique injecte le curare paralysant les muscles. Lorsque le malade est totalement relaxé, l'anesthésiste peut introduire dans les voies aériennes supérieures du malade un tube. Il sera branché sur le ventilateur qui va assurer la respiration artificielle pendant l'opération. «Nous sommes les maîtres des machines qui sont nos esclaves», précise le Docteur Liu. Il n'existe pour l'instant aucun robot commercial, puisqu'il s'agit d'un projet de recherche biomédicale en cours. Mais les spécialistes sont persuadés que dans cinq ans les robots d'anesthésie auront envahi les blocs opératoires. Libérés de ces tâches de «petites mains» pousse-seringues, les médecins anesthésistes auront plus de disponibilités pendant le take off et l'atterrissage pour la vraie surveillance des signes vitaux, la sécurité du malade, son installation en bonne position. Bref, pour effectuer leur vrai travail de docteur...

Figaro

^ Haut
Matière
Matière et Energie
Le toit d'un entrepôt du Gard va accueillir la plus grande centrale photovoltaïque d'Europe
Vendredi, 25/04/2008 - 00:00

La plus grande centrale photovoltaïque d'Europe qui, avec ses 2.560 panneaux solaires, produira l'équivalent de la consommation annuelle de 500 ménages, sera installée en juillet 2008 sur le toit d'un entrepôt de Laudun, dans le Gard. Les panneaux photovoltaïques sont en cours d'installation sur le toit de cet entrepôt que FM Logistic va exploiter pour le compte de l'enseigne Carrefour. Installés à plat sur la toiture, les panneaux produiront 1,6 Mégawatt (MW) par an et couvriront près de 30.000 m2, sur une surface totale de toiture de quelque 55.000 m2, ont expliqué les responsables du projet, lors d'une visite du chantier. Ce bâtiment disposera d'une membrane d'étanchéité intégrant une centrale photovoltaïque d'une puissance de 1,4 mégawatt. Cet équipement produira 1 650 000 kWh par an, soit la consommation électrique de près de 500 ménages.

L'investissement, de quelque 8 millions d'euros, est financé par la société espagnole Akuo. L'électricité produite sera couplée au réseau EDF dans sa totalité, a indiqué lors de la visite Pierre Orsatti, le directeur de NG Concept, la division construction de FM Logistic. Akuo facturera la vente de l'électricité à EDF pendant vingt ans. Le marché du solaire photovoltaïque en France a représenté en 2007 une puissance d'environ 45 MW, selon l'association des entreprises du secteur. "L'objectif à l'horizon 2020 est de 7.000 MW", a déclaré à Laudun Arnaud Mine, le président de la filière photovoltaïque du Syndicat des énergies renouvelables. "Ce sont des objectifs ambitieux", a-t-il ajouté, précisant que "l'Allemagne a installé l'an dernier environ 1.200 MW" en photovoltaïque alors que la France en a installé de l'ordre de 20 MW.

Dans le cadre du développement des énergies renouvelables, la Commission européenne a fixé au mois de janvier, à chaque pays, une part à atteindre dans sa consommation énergétique totale d'ici 2020. Pour la France, cette part d'énergies renouvelables a été fixée à 23 %, contre 10,3 % en 2005. "Il faut que toutes les filières -biomasse, éolien, photovoltaïque...- apportent leur contribution pour arriver à cet objectif de 23 %", a souligné M. Mine. Pour le photovoltaïque, il faut "une démarche volontariste des pouvoirs publics", a-t-il ajouté. Aussi faut-il notamment que "le tarif qu'EDF reverse aux producteurs - 55 cts le kw/h - soit maintenu, qu'on ne le diminue pas ou qu'on ne le supprime pas".

Avant de livrer une centrale clés en mains, Urbasolar a assuré l'ensemble du montage du projet, depuis l'étude de faisabilité, l'ingénierie technique et financière, le lancement et le suivi des procédures administratives, l'interface avec les pouvoirs publics et le distributeur d'électricité soumis à obligation d'achat, jusqu'au raccordement. En novembre dernier, la société a déjà réalisé pour Carrefour la toiture photovoltaïque de son magasin de Nîmes Ouest.

Pour réaliser ce projet, Urbasolar utilise la technologie du Groupe Sika Sarnafil, spécialiste de la membrane synthétique d'étanchéité, et de Solar Integrated, qu'il représente sur le territoire français. Associée à Akuo Energy, investisseur en projets d'énergies renouvelables qui, avec la Caisse des dépots et consignations, a financé l'opération, Urbasolar assurera, pendant 25 ans, l'exploitation de la centrale pour la vente de l'électricité produite par la toiture photovoltaïque à EDF.

Urbasolar

Construction des deux plus grands parcs photovoltaïques au monde prévue fin 2009 dans le Brandebourg
Vendredi, 25/04/2008 - 00:00

Les deux plus grands parcs photovoltaïques (PV) au monde doivent voir le jour d'ici fin 2009 en Allemagne dans le Land de Brandebourg. Solar-Tech AG, fabricant allemand de panneaux PV, ambitionne en effet d'installer à l'emplacement d'un ancien terrain de manoeuvre militaire (au sud du Land) et d'un ancien aérodrome militaire (à l'ouest du Land) respectivement 50 MW et 80 MW. Le permis de construire vient d'être obtenu pour le premier projet, dont les investissements s'élèvent à 160 millions d'euros. Le deuxième projet devrait permettre de couvrir les besoins en électricité de 15.000 foyers. Solar-Tech a annoncé vouloir n'utiliser que des panneaux solaires à concentration qu'il a lui même développés et produits en Chine.

Le gouvernement du Land accueille très favorablement les projets du nouvel investisseur qui "s'intègrent parfaitement dans notre stratégie visant à faire du Brandebourg un lieu central des énergies renouvelables", selon Alexander Gallrein, porte-parole de l'Agence de l'énergie du Land (ZAB). De nombreux terrains inutilisés font actuellement l'objet de convoitise de la part d'industriels du secteur PV, en particulier dans le nord et le nord-est du Land, à proximité de la ville de Francfort-sur-l'Oder, où sont déjà implantées 3 entreprises de fabrication de module PV. Communes et ZAB sont actuellement en négociations avec un certain nombre d'autres investisseurs.

Le Ministère de l'environnement du Land se réjouit de la reconversion d'immenses surfaces militaires en sites de production d'électricité photovoltaïque. Le Professeur Klaus Vajen, Directeur du département des techniques solaires à l'Université de Kassel, y voit aussi une stratégie fondamentalement positive, non seulement parce qu'elle permet de valoriser des surfaces inutilisées, mais aussi parce qu'elle est rentable du point de vue énergétique : "l'ensoleillement dans le sud de l'Espagne n'est que moitié plus élevé" que dans le Brandebourg, où l'exploitation de parcs se justifie donc également. Le plus grand parc allemand actuel totalise une capacité de 12 MW (près de Wurzbourg) et un parc de 40 MW est en construction à proximité de la ville de Leipzig.

BE

Energie éolienne : l'objectif des 14 % de l'électricité européenne en 2020 est réaliste
Vendredi, 25/04/2008 - 00:00

L'Union Européenne est sur la bonne voie pour réaliser l'objectif d'obtenir 12 à 14 % de son électricité à partir des fermes éoliennes d'ici 2020, d'après un rapport publié le 16 avril. Le rapport rédigé par l'Association européenne pour l'Energie éolienne a également indiqué que l'énergie éolienne était susceptible de représenter près d'un tiers de la nouvelle capacité électrique pour la période 2005-2020 et 46 % de cette nouvelle capacité pour la décennie 2020-2030. L'Union Européenne souhaite obtenir 20 % de son électricité à partir de sources renouvelables telles que l'énergie solaire, l'énergie de la marée, l'hydroélectricité et la biomasse d'ici 2020. Actuellement, l'Union Européenne obtient 8,5 % de son électricité à partir de sources renouvelables. « En moyenne, la capacité d'énergie éolienne doit augmenter de 9,5 gigawatts par an au cours des treize prochaines années pour atteindre les 180 gigawatts et fournir 12 à 14 % de la demande de l'Union européenne en 2020 » a déclaré le directeur exécutif de l'Association européenne pour l'Energie éolienne Christian Kjaer. « C'est certainement faisable, étant donné que la capacité d'énergie éolienne de l'Union Européenne a augmenté de 8,5 gigawatts l'an dernier » a-t-il ajouté.

L'énergie éolienne satisfait actuellement 3,7 % de la demande européenne en électricité. Pure Power démontre que l'objectif de la Commission d'accroître cette part à 12 % pour 2020, est certainement réalisable. En 2007, la puissance éolienne installée a augmenté de 8,5 GW. 180 GW d'éolien en 2020 produiraient 477 TWh, dont 133TWh offshore. Cela permettrait de fournir la demande de 107 millions de ménages européens en moyenne. A ce niveau, l'énergie éolienne représenterait 18,1 % de la capacité électrique totale installée en UE, ce qui représente plus de la moitié de la contribution en énergie renouvelable nécessaire pour atteindre l'objectif contraignant. Avec une législation appropriée, de vrais avantages - économiques et environnementaux - peuvent être apportés par l'énergie éolienne à toute l'Europe.

L'Association européenne pour l'énergie éolienne promeut activement l'utilisation de l'énergie éolienne en Europe et dans le monde. Les membres de l'Association proviennent de 40 pays et comprennent près de 300 sociétés, d'associations et d'institutions de recherche. Ces membres sont principalement des fabricants (qui couvre près de 98 % du marché mondial de l'énergie éolienne), des fournisseurs d'éléments, des instituts de recherche, des associations nationales pour les énergies renouvelables, des développeurs, des fournisseurs d'électricité, des compagnies de finances et d'assurance et des consultants.

EWEA

Vers des cellules solaires peintes sur de l'acier plat ?
Vendredi, 25/04/2008 - 00:00

Une équipe du Centre de recherche sur les matériaux de la Faculté de Sciences de l'Ingénieur de l'Université de Swansea (Pays de Galles) coordonne un projet de recherche visant à déposer de façon industrielle des cellules solaires sur des feuilles d'acier plat. L'objectif est d'utiliser les bardages et toits en acier des bâtiments pour produire de l'électricité.

Pour cela, les scientifiques britanniques, en collaboration avec le groupe sidérurgique britannique Corus, travaillent sur des cellules solaires sensibilisées à colorant (les DSSCs pour Dye sensitised solar cells, voir en fin d'article) qu'ils souhaiteraient peindre par spray sur le substrat acier. Ils ont choisi ce type de cellule notamment pour son faible coût et pour son efficacité à l'extrémité la moins énergétique du spectre solaire, convenant bien au climat britannique.

Le groupe de l'Université de Swansea collabore depuis de nombreuses années avec l'industrie sidérurgique britannique, notamment avec le groupe Corus (qui possède d'ailleurs deux usines à proximité de Swansea, à Llanelli et Port Talbot). C'est en travaillant sur la durabilité de l'acier et de ses revêtements, et notamment des peintures à base de pigments de dioxyde de titane, que les chercheurs gallois ont eu l'idée de créer une peinture qui fonctionne comme une cellule solaire sensibilisée à colorant. Ils souhaiteraient exploiter la même technologie que celle actuellement utilisée en aciérie par Corus et qui consiste à peindre les feuilles d'acier en les passant entre des rouleaux. Les scientifiques espèrent atteindre ainsi un rendement compris entre 30 et 40 m2 par minute.

Un financement de recherche, alloué par le Welsh Energy Research Centre (WERC, le Centre gallois de recherche en énergie) du gouvernement de l'Assemblée galloise, a permis à l'équipe galloise d'étudier, en collaboration avec Corus, la faisabilité d'un tel système. Les résultats obtenus ont mené à un financement de plus de 1,5 million de livres (environ 1,9 million d'euros) accordé par le conseil de recherche Engineering and Physical Sciences Research Council (EPSRC) à un consortium composé de l'Université de Swansea, de l'Université de Bangor, de l'Université de Bath et d'Imperial College London.

Les compétences sont réparties entre les différents partenaires du consortium : cellules solaires sensibilisées à colorant pour Imperial College, photoélectrochimie pour l'Université de Bath, dépôt de matériaux et chimie de surface pour l'Université de Bangor et développement du revêtement de l'acier pour l'Université de Swansea.

Les installations de revêtement de Corus Colors, la division spécialisée du groupe Corus, produisent un million de tonnes par an de produits à base d'acier peint, ce qui correspond à environ cent millions de m2 de toits et de bardages. Les chercheurs gallois estiment que, en revêtant cette surface de matériel photovoltaïque et en supposant un taux de conversion de 5 %, on pourrait générer une puissance annuelle de 450 GigaWatts, soit l'équivalent de 50 fermes éoliennes.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Environnement : Adoption définitive de la directive «Qualité de l'air»
Vendredi, 25/04/2008 - 00:00

La Commission européenne se félicite de l'adoption, le 14 avril 2008, de la directive concernant la qualité de l'air ambiant et un air pur pour l'Europe. Cette directive s'inspire rigoureusement de la proposition de la Commission de septembre 2005 et témoigne de la ferme détermination de l'Union européenne à améliorer la qualité de l'air en fixant des normes contraignantes pour les particules fines PM2.5.

M. Stavros Dimas, membre de la Commission chargé de l'environnement, a déclaré à ce propos : «L'Union européenne a franchi aujourd'hui une étape décisive dans la lutte contre l'une des causes essentielles des problèmes en matière de santé et d'environnement. Les citoyens européens sont préoccupés par la pollution de l'air. La nouvelle directive sur la qualité de l'air est destinée à répondre à cette préoccupation en établissant des normes ambitieuses mais réalistes concernant la pollution due aux particules fines PM2.5 dans l'Union européenne».

La directive adoptée fusionne quatre directives et une décision du Conseil en une unique directive sur la qualité de l'air. Elle fixe des normes et des dates butoir pour la réduction des concentrations de particules fines, qui, au même titre que les particules plus grosses connues sous le code PM10 et déjà réglementées, comptent parmi les polluants les plus dangereux pour la santé humaine.

En vertu de la directive, les États membres seront tenus de réduire, d'ici à 2020, l'exposition aux PM2.5 en zone urbaine de 20 % en moyenne par rapport aux chiffres de 2010. Elle leur impose de ramener les niveaux d'exposition au-dessous de 20 microgrammes/m3 d'ici 2015 dans ces zones. Sur l'ensemble de leur territoire, les États membres devront respecter le plafond de 25 microgrammes/m³ fixé pour les PM2.5. Cette valeur cible doit être atteinte en 2015 ou, dans la mesure du possible, dès 2010.

La nouvelle directive établit de nouveaux objectifs en ce qui concerne les particules fines PM2.5 sans modifier les normes de qualité de l'air existantes. Elle accorde toutefois aux États membres une plus grande souplesse pour le respect de certaines de ces normes dans les secteurs où cela leur est difficile. Vingt-cinq des vingt-sept États membres de l'Union européenne éprouvent en effet des difficultés à respecter les plafonds applicables aux PM10, qui sont dépassés dans au moins une partie de leur territoire.

Les délais d'application des normes PM10 peuvent être reportés de trois ans à compter de l'entrée en vigueur de la directive (soit mi-2011), ou de cinq ans au maximum pour le dioxyde d'azote et le benzène (2010-2015), pourvu que la législation communautaire applicable, en matière par exemple de prévention de la pollution industrielle et de lutte contre cette pollution soit pleinement mise en oeuvre et que toutes les mesures appropriées de lutte antipollution soient prises. La directive dresse une liste des mesures à envisager à cet égard.

La nouvelle directive sur la qualité de l'air est l'une des mesures phares de la stratégie thématique en matière de pollution atmosphérique adoptée par la Commission en septembre 2005. Elle fixe, pour l'horizon 2020, des objectifs ambitieux, économiquement rationnels, en faveur de l'amélioration de la santé publique et de la qualité de l'environnement.

La directive sera publiée au Journal officiel de l'UE en mai 2008 parallèlement à une déclaration de la Commission concernant le stade d'élaboration et d'adoption d'autres mesures de lutte contre les émissions provenant de diverses sources. Il existe déjà une législation communautaire en matière d'émissions d'échappement dues aux véhicules légers, mais en décembre 2007, la Commission a présenté une proposition législative visant à renforcer l'efficacité de la législation sur les émissions industrielles et une autre sur la limitation des émissions d'échappement provenant des moteurs de véhicules utilitaires lourds.

Europa

L'écoulement des eaux des lacs du Groenland accélère la fonte des glaces
Vendredi, 25/04/2008 - 00:00

Des glaciologues ont pour la première fois observé et mesuré l'écoulement soudain et total d'un lac à l'intérieur de la calotte glaciaire du Groenland, un phénomène qui risque d'accélérer la fonte des glaces arctiques durant l'été. Ces scientifiques ont ainsi pu découvrir un système de tuyauterie naturelle dans le glacier par lequel les eaux provenant de la glace fondue à la surface pénètrent profondément dans l'épaisseur de la calotte amplifiant la fonte et le déversement de la glace dans l'océan. L'effet "lubrifiant" de ces eaux sur la base du glacier peut accélérer le rythme d'écoulement de la glace de 50 à 100 % dans certaines zones les plus stables du glacier, estiment ces deux glaciologues, Sarah Das du Woods Hole Oceanographic Institution (WHOI) et Ian Joughin de l'Université de Washington à Seattle (Nord Ouest), auteurs de ces recherches.

Des milliers de lacs se forment sur les glaciers du Groenland chaque été alors que le réchauffement de l'air et le rayonnement solaire font fondre la glace à la surface, notent-ils. "Nous avons trouvé des indices très solides indiquant que ces lacs aux eaux super-glaciales se formant en été peuvent en réalité faire craquer la glace en profondeur dans un processus appelé hydro-fracture", explique Sarah Das. "Si cette craquelure à la surface de la glace est assez grande et qu'il y a un réservoir d'eau suffisant pour la remplir, cela peut créer un conduit allant jusqu'à la base du glacier", ajoute-t-elle dans cette étude parue dans Science Express, la version en ligne de la revue américaine Science. Les résultats de ces travaux montrent que la fonte des glaces de surface joue effectivement un rôle important dans la dynamique du glacier et a aussi un impact plus grand sur le déchargement de la glace des glaciers dans l'océan que soupçonné auparavant. Mais relève Ian Joughin, ce phénomène a un impact limité sur la réduction de la masse du glacier. Les grands morceaux de glace qui se détachent pour former des icebergs sous l'effet du réchauffement climatique ont nettement plus d'impact sur la dynamique des glaciers, relève-t-il.

Des observations satellitaires montraient dans le passé que ces lacs pouvaient disparaître parfois en un jour mais les scientifiques ignoraient alors où allait cette eau et l'impact sur le déversement de la glace dans l'océan. Ils se bornaient à faire des prédictions théoriques sur la manière dont les eaux de surface pouvaient atteindre la base du glacier à travers une couche de glace de plus de deux kilomètres d'épaisseur. Pendant les étés 2006 et 2007, ces deux glaciologues et une équipe de scientifiques ont utilisé des sismographes, des systèmes de mesure de la surface de l'eau et des balises du système de positionnement par satellite (GPS) de manière à suivre l'évolution de deux lacs ainsi que les mouvements de la glace se trouvant autour.

Ils ont aussi recouru à des photos aériennes et de satellite pour traquer le mouvement du glacier vers la côte. Les observations les plus spectaculaires ont été faites en juillet 2006 quand leurs instruments ont capturé le drainage soudain et total d'un lac de 5,6 kilomètres carré contenant 0,044 kilomètre cube d'eau. Comme une baignoire, le lac s'est totalement vidé en 24 heures avec la plus grande partie de l'eau s'écoulant en 90 minutes à un rythme plus rapide en moyenne que les eaux des chutes du Niagara. Les données recueillies ont révélé que l'eau du lac s'est engouffrée dans la crevasse qu'elle ont élargie et atteint la base du glacier 980 mètres plus bas. La vitesse horizontale du glacier, qui est constamment en mouvement même dans des conditions normales, a doublé en moyenne quotidienne à cet endroit même, selon ces chercheurs.

Yahoo

De nouvelles prévisions pessimistes sur l'élévation du niveau des océans
Vendredi, 25/04/2008 - 00:00

D'après de nouvelles estimations présentées à l'occasion de la conférence de l'Union européenne des géosciences, le réchauffement climatique pourrait élever le niveau des océans de 80 cm à 1,5 m d'ici à la fin du siècle. Des estimations bien plus pessimistes que celles formulées dans le dernier rapport du Groupe Intergouvernemental d'Experts sur l'Evolution du Climat (GIEC). Ces prévisions s'appuient sur les travaux du laboratoire Proudman, dont l'une des chercheuses, Svetlana Jevrejeva, a évoqué le rythme accéléré de hausse du niveau des océans. Après 2 cm au XVIIIe siècle, 6 cm au XIXe et 19 cm au siècle dernier, le niveau pourrait s'élever de 80 cm à 1,5 m d'ici à 2100.

Or, le GIEC dans son rapport définitif rendu public fin 2007 estime que la hausse devrait être comprise entre 18 cm et 59 cm. Il s'agit de "sous-estimations" selon Simon Holgate, également chercheur au laboratoire Proudman. De surcroît, cette fourchette est jugée bien optimiste par certains spécialistes comme le directeur de l'Institut Goddard de la NASA, James Hansen. James Hansen précisait l'année dernière que "les calottes sont soumises à des effets non linéaires très importants et à des rétroactions" encore partiellement prises en compte. Actuellement, l'effet de serre lié aux activités humaines contribue à un forçage radiatif de 2 w/m². Or, il suffirait d'un seul watt supplémentaire pour que la planète se retrouve à la température la plus élevée de la période interglaciaire précédente, où le niveau de la mer était alors supérieur de cinq à six mètres... Selon James Hansen.

L'augmentation du niveau des océans trouve son origine dans la dilatation thermique de l'eau (un corps plus chaud occupe plus de volume) mais aussi dans la fonte quasi généralisée des glaciers continentaux. Même si les estimations divergent encore sur l'ampleur de l'élévation, les scientifiques s'accordent sur le fait que les régions du monde qui en souffriront le plus seront, comme de coutume, les pays en développement d'Afrique et d'Asie, où les moyens manquent pour édifier des protections contre les inondations. Alors que l'élévation du niveau de la mer et les phénomènes météorologiques plus violents sont déjà une réalité tangible dans les pays asiatiques, des dizaines de millions de réfugiés climatiques supplémentaires sont à prévoir dans le cadre de cette nouvelle étude. A ce titre, "si (le niveau des mers) augmente d'un mètre, 72 millions de Chinois seront déplacés, ainsi que 10 % de la population vietnamienne", a prévenu Svetlana Jevrejeva.

http://www.pol.ac.uk/

NP

L'humidité des continents, chef d'orchestre naturel du méthane dans l'atmosphère
Vendredi, 25/04/2008 - 00:00

Des chercheurs du Laboratoire de glaciologie et géophysique de l'environnement ainsi que d'autres chercheurs du programme de forage européen EPICA, viennent d'identifier les principales raisons du doublement des teneurs en méthane entre -18 000 ans (dernier maximum glaciaire) et -11 500 ans (période "chaude" actuelle).

En cause, l'extension des zones humides continentales, tels les marécages en milieu boréal dont les émissions de méthane étaient quasiment nulles durant le maximum glaciaire. Plus étonnant, les émissions de méthane associées aux feux de végétation seraient restées constantes lors de cette transition climatique majeure. Publiés dans la revue Nature le 17 avril 2008, ces résultats permettent de mieux cerner les mécanismes pouvant amplifier dans le futur les émissions naturelles de méthane, un gaz à effet de serre hautement incriminé dans le réchauffement climatique.

Les carottes de glace constituent la seule archive disponible pour reconstruire avec précision la composition de l'atmosphère dans le passé, notamment les teneurs en gaz à effet de serre comme le méthane. Il s'agit du second gaz à effet de serre d'origine humaine après le gaz carbonique. Les teneurs en méthane ont augmenté de plus de 150 % au cours des dernières 200 années, en relation avec les émissions anthropiques (agriculture, exploitation du gaz naturel, ...). Les chercheurs sont parvenus à identifier les processus responsables du doublement de la concentration en méthane atmosphérique lors de la dernière transition glaciaire-interglaciaire.

Première conclusion, près de la moitié de cette augmentation résulte d'un accroissement substantiel des émissions de méthane à partir des régions marécageuses tropicales. De plus, leurs analyses mettent en évidence que les émissions de méthane, cette fois à partir des marécages et des tourbières boréales (hautes latitudes de l'hémisphère nord), étaient quasi inexistantes en conditions glaciaires.

Celles-ci ont commencé à peser seulement au cours de la transition climatique. Enfin, de manière surprenante, les feux de végétation, responsables aujourd'hui d'environ 20 % des émissions naturelles de méthane, n'ont pas produit, lors de ce changement majeur, de variations significatives des teneurs en méthane dans l'atmosphère. De prime importance, ces résultats soulignent le rôle des zones marécageuses continentales en tant que sources de méthane, aussi bien en milieu tropical qu'en milieu boréal.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le lithium pourrait ralentir la progression de la SLA
Vendredi, 25/04/2008 - 00:00

La sclérose latérale amyotrophique (SLA) est une affection neurologique dégénérative fatale pour laquelle les essais thérapeutiques se suivent et se ressemblent car ils sont le plus souvent décevants.

Une équipe italienne laisse cependant entrevoir un espoir avec la publication de résultats expérimentaux et cliniques très positifs obtenus avec le lithium. Francesco Fornai et coll. ont d'abord démontré un effet favorable du lithium chez des souris modèles de la maladie avec prolongation statistiquement significative de la survie et réduction de la vitesse de progression des lésions. Sur ces bases et sur celles d'études in vitro, les chercheurs italiens ont débuté en octobre 2005 un essai clinique dont les premiers résultats sont publiés par le très prestigieux Proceedings of the National Academy of Sciences (PNAS).

Quarante-quatre patients atteints de SLA sporadique à début bulbaire ou classique ont été inclus dans l'essai. Ils ont été randomisés en un groupe traité par riluzole seul (n=28) et un groupe recevant en association du lithium (300 à 450 mg/j pour atteindre un taux plasmatique de 0,4 à 0,8 mEq/L) (n=16). Les deux groupes étaient comparables par les scores de gravité de l'affection. L'étude a duré 15 mois. Il faut noter que si l'étude était conduite en simple et non en double aveugle, les médecins qui devaient évaluer les effets du traitement ne connaissaient pas le traitement effectivement reçu par chaque patient.

En terme de progression de la maladie, une différence significative (p<0,01) a été constatée en faveur du lithium avec une absence d'aggravation sur 15 mois sur les échelles Norris et ALSFRS-R spécifiques de la maladie et une aggravation moins rapide selon l'échelle MRC de testing manuel. Ainsi par exemple à 15 mois le score de Norris a décru de 10,6 % sous lithium + riluzole versus 46,1 % sous riluzole seul. Surtout, les courbes de survie se sont séparées à partir du 6ème mois aboutissant à 29 % de décès à un an et 15 mois sous riluzole contre 0 % sous lithium (p<0,01).

Les mécanismes possibles de cet effet favorable du lithium sur l'évolution de la SLA, largement explorés par l'équipe italienne chez l'animal, sont sans nul doute très complexes et restent pour une large part hypothétiques.

La nouvelle a fait l'effet d'une bombe dans le petit monde de la SLA puisqu'il s'agit de l'effet favorable le plus important rapporté dans un essai clinique. Selon le Professeur Meininger, responsable de la coordination des centres référents français sur la maladie, l'annonce de ces résultats a conduit de nombreux patients à demander à leur médecin généraliste de leur prescrire du lithium en dehors de tout essai clinique.

JIM

Des mutations mitochondriales induiraient des métastases
Vendredi, 25/04/2008 - 00:00

Dans la version en ligne de la revue Science, le professeur Jun-Ichi HAYASHI et son équipe, de l'Université de Tsukuba, ont publié un article sur la probable origine génétique du potentiel métastatique des cellules tumorales. D'après leurs travaux, c'est une mutation de l'ADN mitochondrial (ADN-mt) des cellules tumorales qui augmenterait le potentiel métastatique des cellules tumorales.

Les mutations de l'ADN mitochondrial sont courantes dans les cellules tumorales humaines, mais leur mise en cause était encore sujette à caution, car ces mutations pouvaient être aussi la conséquence du cancer. Afin d'étudier le rôle des mutations de l'ADN mitochondrial dans la survenue de métastases, l'équipe du professeur HAYASHI a utilisé la technique de "cybrid" (cytoplasmic hybrid), qui consiste à fabriquer des cellules contenant de l'ADN nucléaire et mitochondrial d'origines différentes.

Deux souches de cellules cancéreuses de souris ont été utilisées, une à fort potentiel métastatique et l'autre non, et leurs noyaux ont été échangés. Les cellules "cybrid" ainsi obtenues ont été injectées en sous-cutané chez des souris et des tumeurs se sont développées qui ont ensuite métastasé aux poumons. Les souris qui ont reçu les cellules contenant de l'ADN-mt de lignées à fort potentiel métastatique avaient beaucoup plus de métastases des poumons que les souris qui avaient reçu des cellules contenant de l'ADN-mt de lignées à faible potentiel métastatique, suggérant que l'ADN-mt était responsable de ce potentiel métastatique. Toutefois, l'ADN-mt ne semblait pas être impliqué dans la formation de la tumeur primitive : en effet, l'injection de cellules "cybrid" contenant de l'ADN-mt métastatique mais un noyau de cellule non cancéreuse n'a pas provoqué de formation de tumeur. L'ADN-mt conférant un haut potentiel métastatique contient deux mutations dans le gène codant la sous-unité 6 de la NADH déshydrogénase (ND6). Ces mutations induisent une réduction de l'activité du complexe respiratoire I et une surproduction d'espèces réactives de l'oxygène (ERO). Le pré-traitement des cellules tumorales fortement métastatiques par des antioxydants avant leur implantation chez les souris supprime leur pouvoir métastatique. Ces résultats indiquent que des mutations de l'ADN-mt peuvent contribuer à la progression des tumeurs en augmentant le potentiel métastatique des cellules tumorales.

Caducée

Des cellules souches neurales dans la moelle épinière humaine
Vendredi, 25/04/2008 - 00:00

En France, 40 000 personnes sont atteintes, suite à un accident, de lésions de la moelle épinière. 1 500 nouveaux cas de para ou tétraplégies surviennent chaque année touchant principalement les jeunes âgés de 25 à 30 ans. La moelle épinière est la partie du système nerveux central qui se situe dans le prolongement du cerveau à l'intérieur de la colonne vertébrale. Elle assure le bon fonctionnement de tout un réseau de neurones moteurs indispensables à la réalisation de tous nos mouvements mais aussi la transmission des signaux sensitifs et le contrôle des fonctions viscérales. Actuellement les lésions affectant ce câblage de neurones sont irréversibles.

Les cellules souches sont aujourd'hui fortement étudiées par les chercheurs du monde entier pour leurs capacités à se différencier en un type de cellule donné. Elles sont effectivement à l'origine de tous les types de cellules de l'organisme. Ces cellules indifférenciées sont présentes chez l'embryon, mais aussi chez l'adulte. Néanmoins, elles sont beaucoup plus rares dans l'organisme adulte et moins pluripotentes : les cellules souches adultes présentes dans un tissu ne peuvent pas, en général, donner un autre type de tissu que le leur.

En cultivant ces cellules in vitro, les scientifiques de l'Inserm ont montré qu'elles sont capables de donner tous les types de cellules neuronales : neurones eux-mêmes mais aussi cellules gliales (oligodendrocytes et astrocytes). Moins connues mais tout aussi importantes que les neurones, les cellules gliales assurent un rôle nourricier et participent au contrôle de l'activité neuronale.

Ces cellules précurseurs découvertes dans la moelle épinière adulte sont d'un grand intérêt thérapeutique car elles pourraient compenser, via une utilisation en thérapie génique, les pertes neuronales /ou gliales dans les lésions traumatiques, les pathologies neurodégénératives ou affectant la gaine de myéline entourant les neurones. Par leur caractère autochtone elles présentent effectivement l'avantage de s'affranchir des phénomènes de rejets. La thérapie génique consisterait alors à injecter de manière spécifique dans l'organisme, grâce à des vecteurs viraux, ce qu'on appelle des facteurs de croissance. Les cellules souches ainsi "réactivées" pourraient se différencier à nouveau et donner naissance à une nouvelle génération de cellules neuronales.

La diversité de ces cellules et les modalités de leur différenciation restent encore à explorer pour envisager un usage thérapeutique. "L'intérêt thérapeutique des cellules souches dites adultes est maintenant admis par l'ensemble de la communauté scientifique. Même si la route est encore longue, ce travail constitue une belle avancée pour toutes les pathologies affectant les motoneurones et pour lesquelles il n'existe aujourd'hui aucun traitement" déclare Alain Privat, Directeur de Recherche à l'INSERM.

Inserm

Cancer de la prostate : hypothèses sur la baisse de mortalité aux Etats-Unis
Vendredi, 25/04/2008 - 00:00

La mortalité par cancer de la prostate a fortement baissé entre 1994 et 2004 aux Etats-Unis, par comparaison avec le Royaume-Uni, coïncidant avec un recours plus important chez les Américains au dépistage par dosage de la PSA, ont constaté des chercheurs. Le terme "PSA" est l'abréviation de Prostatic Specific Antigene, "antigène spécifique de la prostate". Le dosage de cette molécule, à partir d'une prise de sang, permet d'évaluer l'état de la prostate. Son taux augmente lorsque la prostate grossit ou en cas de cancer. Mais le dépistage systématique du cancer de la prostate par dosage de la PSA est sujet à polémique, des spécialistes craignant qu'il n'entraîne un sur-diagnostic et en conséquence un sur-traitement avec le risque d'effets secondaires.

Jusqu'à présent, il n'existe aucune preuve scientifique solide montrant que le recours au dépistage par dosage de la PSA entraîne une baisse de la mortalité par cancer de la prostate. Aux Etats-Unis, l'utilisation de ce test, introduit vers 1990, est quasiment une routine, souligne une équipe de chercheurs conduite par Simon Collin (Université de Bristol, Royaume-Uni), dans l'édition de mai de la publication spécialisée Lancet Oncology. En 2001, 57 % des hommes âgés de 50 ans ou plus déclaraient avoir subi ce test dans les 12 derniers mois. Au Royaume-Uni, seulement 6 % des hommes entre 45 et 84 ans auraient été testés chaque année entre 1999 et 2002.

Parallèlement, les chercheurs ont montré, depuis le début des années 1990, une baisse de la mortalité par cancer de la prostate presque quatre fois plus importante aux Etats-Unis (-4,17 % par an) qu'au Royaume-Uni (-1,17 % par an). Cet écart pourrait s'expliquer notamment par les différences de politiques de dépistage, mais aussi de traitement, dans ces deux pays, estiment-ils, soulignant que les cancers de la prostate "ont tendance à être traités de façon plus agressive aux Etats-Unis qu'au Royaume-Uni". "Les spéculations sur le rôle du dépistage continueront jusqu'à la publication de résultats d'essais comparatifs rigoureux", concluent-ils. Aux Etats-Unis, 218.890 nouveaux cas de cancer de la prostate ont été diagnostiqués en 2007 et 27.050 décès résultant de cette maladie enregistrés, selon l'Institut national américain sur le cancer.

Romandie

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top