RTFlash

RTFLASH Recherche & Technologie
NUMERO 482
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Juillet 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
2 milliards de PC en service en 2014
Plus de 50 % de la population mondiale utilisera un mobile d'ici à 2010
La télécardiologie fait avancer la télémédecine
Avenir
6000 mètres sous les mers !
Matière
Electricité éolienne : la France commence à rattraper son retard
Record mondial pour un câble électrique supraconducteur
Des microsphères uniques qui peuvent stocker l'hydrogène, filtrer les gaz, délivrer des médicaments...
Terre
L'Union européenne s'engage sur le climat et l'efficacité énergétique
France : état des lieux des objectifs européens en matière d'environnement
L'accélération du réchauffement et de la montée du niveau des océans se confirment
Les plantes poussent de plus en plus haut pour lutter contre le réchauffement climatique
La Grande-Bretagne annonce un plan ambitieux pour développer les énergies renouvelables
Le Portugal mise sur l'énergie des vagues pour produire de l'électricité
Vivant
Développement d'un traitement anticancéreux ciblant les cellules souches cancéreuses
Feu vert européen pour le 1er traitement oral du cancer du sein métastasé
Une nouvelle thérapie immunologique a permis la régression complète d'un mélanome métastasé
Le cancer, une maladie inflammatoire
Cancer du sein et de la prostate : un vaccin testé sur l'homme
Un risque accru d'infarctus du myocarde en cas de déficit en vitamine D
Les ondes dangereuses chez le rat
Sclérose en plaques : des progrès dans les traitements
L'obésité progresse en France
La diversité moléculaire : facteur clé de l'intelligence?
Recherche
La Antro Solo : une voiture qui roule à l'énergie solaire
Edito
Edito : Gènes et environnement : un couple indissociable et interdépendant



Depuis la découverte de la structure de l'ADN il y a 55 ans, un débat permanent agite la communauté scientifique pour savoir quelle est la part respective du capital génétique propre à chaque individu et de l'environnement en matière de longévité et dans le déclenchement des grandes pathologies, cancers, maladies cardio-vasculaires, maladies neurodégénératives.

Des chercheurs américains viennent de montrer que le génome de chaque individu change dans le courant de la vie sous l'effet de facteurs environnementaux ou alimentaires, ce qui expliquerait l'émergence de maladies comme le cancer avec le vieillissement.

Des chercheurs de l'université Johns Hopkins (Maryland, est) ont découvert que les marques épigénétiques sur l'ADN (autres que la séquence elle-même) se modifient au cours de la vie d'une personne et l'ampleur des changements est similaire parmi les membres d'une même famille(JAMA).

L'épigénétique regroupe l'étude des mécanismes permettant aux cellules de maintenir l'intégrité de leur génome. "Nous commençons à voir que l'épigénétique est au coeur de la médecine moderne car les changements épigénétiques, à la différence de la séquence d'ADN qui est la même dans chaque cellule, peuvent se produire sous l'effet du régime alimentaire ou de l'exposition à des facteurs environnementaux", souligne le Docteur Andrew Feinberg, professeur de biologie moléculaire et de génétique à la faculté de médecine de l'Université Johns Hopkins.

"L'épigénétique pourrait bien jouer un rôle dans des maladies comme le diabète, l'autisme et le cancer", ajoute-t-il. Ces chercheurs ont analysé des échantillons d'ADN provenant de quelque 600 personnes ayant participé à l'étude sur le coeur dite de Reykjavik. Les participants ont fourni des échantillons d'ADN en 1991, et de nouveau entre 2002 et 2005. Ces généticiens ont mesuré les variations totales de méthylation, qui est la principale modification épigénétique (donc réversible) de l'ADN, dans 111 de ces échantillons.

Ils ont comparé la méthylation de ces personnes entre 2002 et 2005 à celle des échantillons collectés en 1991. Ces chercheurs ont découvert que dans quasiment un tiers des cas, la méthylation avait changé pendant cette période de onze ans. "Nous avons constaté un changement notable au cours du temps qui selon nous prouve que l'épigénétique d'un individu change avec l'âge", explique le Docteur Daniele Fallin, professeur associé d'épidémiologie à la faculté de médecine Johns Hopkins. Ces changements épigénétiques pourraient aussi être héréditaires, ce qui expliquerait pourquoi des familles sont plus touchées que d'autres par certaines maladies, poursuit-elle.

Une autre récente étude, réalisée par l'Université de San Francisco, vient de montrer qu'une modification du mode de vie comprenant un changement d'alimentation et la pratique régulière d'exercices physiques pouvait avoir, au bout de quelques mois, un impact sensible et très positif en ralentissant ou inhibant l'expression d'une multitude de gènes, dont certains (RAN et Shoc2) sont fortement impliqués dans le déclenchement de plusieurs types de cancers, colon sein et prostate notamment (PNAS).

Ces récentes études sont remarquables car elles confirment que, pour un même individu, les modes d'expression des gènes varient sensiblement dans le temps sous l'effet d'une multitude de facteurs environnementaux. Avec l'arrivée, d'ici 5 ans de puces à ADN permettant pour quelques centaines d'euros, d'établir un profil génétique individuel, la médecine sera bientôt en mesure de prévenir de manière très efficace et personnalisée, les risques d'un grand nombre de maladies en agissant directement sur les facteurs environnementaux pour modifier sélectivement l'expression des gènes impliqués dans ces pathologies. Il s'agit là d'une véritable révolution conceptuelle qui aura des conséquences majeures sur notre santé et, plus largement, sur notre société toute entière.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
2 milliards de PC en service en 2014
Vendredi, 11/07/2008 - 00:00

En moins de six ans, le nombre de PC en service dans le monde devrait doubler. Cette prévision vient du cabinet Gartner, qui s'est penché sur l'évolution du marché des PC sur la période 2004-2012. Selon ses experts, plus de 1 milliard d'ordinateurs sont déjà en service sur la planète. Il y en aura 2 milliards en 2014, si le taux d'équipement poursuit son rythme de croissance actuel de 12 % par an.

Les pays développés - Etats-Unis, Europe et Japon - contribuent majoritairement à ce développement, puisque 58 % des ordinateurs en fonctionnement le sont dans ces régions, alors qu'elles ne représentent que 15 % de la population mondiale. Mais la donne devrait changer. Les pays émergents devraient être à l'origine de 70 % du prochain milliard d'ordinateurs installés d'ici à 2014, prévoit Gartner.

OInet

Plus de 50 % de la population mondiale utilisera un mobile d'ici à 2010
Vendredi, 11/07/2008 - 00:00

Début 2008, deux personnes sur cinq utilisaient un téléphone portable. Le développement des marchés en Asie, au Moyen-Orient et en Afrique va tirer la croissance du secteur, prévoit le cabinet Strategy Analytics. Plus de la moitié de la population mondiale utilisera un téléphone mobile d'ici début 2010, contre 40 % début 2008, une progression liée au développement de ce marché en Asie, au Moyen-Orient et en Afrique, a estimé le cabinet Strategy Analytics.

Le nombre d'abonnements de téléphonie mobile va passer, dans le monde, de 3,9 milliards en 2008 à 5,6 milliards en 2013. La région Asie-Pacifique, le Moyen-Orient et l'Afrique "resteront les moteurs de la croissance du marché de la téléphonie sans fil à moyen terme, en contribuant à hauteur de 80 % à la hausse des abonnements d'ici 2013" , explique l'institut.

Mais la croissance dans ces trois zones génèrent moins de revenus que dans les pays développés : elles représentent près de 60 % des abonnements dans le monde pour moins de 40 % du chiffre d'affaires. "Leur importance grandissante va entraîner une réduction de 15 % des recettes moyennes par abonnement dans les cinq prochaines années", a souligné l'analyste Phil Kendall.

Près de 500 millions d'abonnés bénéficieront fin 2008 de la téléphonie mobile de troisième génération (3G), cette technologie qui permet de meilleurs débits pour transmettre des données. Alors qu'elle ne sera utilisée que par un abonné sur six, en 2009, la 3G générera un tiers des recettes, a précisé une autre analyste de Strategy Analytics, Susan Welsh de Grimaldo. D'ici 2013, la 3G concernera la moitié des abonnements, ajoute l'étude.

LE

La télécardiologie fait avancer la télémédecine
Vendredi, 11/07/2008 - 00:00

Cinquante ans après l'implantation du premier pacemaker, le développement de la télécardiologie, qui permet le suivi des patients à distance, ouvre une nouvelle ère dans la prise en charge des porteurs d'implants cardiaques.

Désormais, les données relatives à l'état cardiaque du patient et au fonctionnement de l'appareil implanté peuvent être transmises directement, via une borne GSM installée au domicile du patient, au médecin qui les reçoit par mail, SMS ou fax, après traitement par un serveur central. En routine, les données sont transmises à heure fixe, toutes les 24 heures, mais lorsqu'une anomalie est décelée par l'appareil (arythmie significative, dysfonctionnement de sonde, batterie faible), la transmission est immédiate.

« Toutes les marques s'y mettent, la technologie est récente, encore peu diffusée en Europe mais c'est un enjeu incontournable pour l'avenir », explique Philippe Ritter, rythmologue à la clinique chirurgicale Val d'Or à Saint-Cloud et président du congrès Cardiostim.

Plus de 60 000 patients reçoivent chaque année un dispositif cardiaque implantable - pacemaker, resynchronisateur ou défibrillateur -, mais seule une minorité bénéficie pour l'instant du suivi à distance. En France, 3 000 patients sont contrôlés via le système de télécardiologie associé à un stimulateur développé par la société allemande Biotronik, leader sur le marché hexagonal. Biotronik équipe 50 000 personnes dans le monde. « Grâce à ce mode de suivi, le patient gagne en sécurité : avant même qu'il éprouve une gêne, le médecin est alerté d'une anomalie », observe Vincent Péters, directeur des affaires réglementaires et commerciales de la société.

Progrès

^ Haut
Avenir
Nanotechnologies et Robotique
6000 mètres sous les mers !
Vendredi, 11/07/2008 - 00:00

Les chercheurs de l'Institut Leibniz pour les sciences de la Mer (IFM Geomar), basé à Kiel en Allemagne, ont mis au point un robot sous-marin capable de descendre jusqu'à des profondeurs de l'ordre de 6000 m. "ROV Kiel 6000" peut donc explorer environ 95 % des fonds océaniques du monde, ce qui ouvre des perspectives nouvelles en matière de cartographie des océans. Piloté par un bateau de surface, grâce à un câble en fibre optique de 6500 m de long, et combiné à un autre robot sous-marin, ce dernier va permettre d'affiner considérablement l'échelle d'exploration des grands fonds. Le bateau de surface prendrait des clichés de haut, et le premier robot des images plus détaillées, à environ 50 m au dessus de ROV, tandis que ce dernier serait dévolu à l'exploration directe du fond.

Grâce à ses deux bras articulés et sa caméra haute définition, "ROV Kiel 6000" est conçu pour effectuer des mesures, prélèver des échantillons, afin de découvrir des ressources potentiellement exploitables jusqu'à 6000 m de profondeur. Un système de sonar très sophistiqué lui permet de se déplacer avec une précision de l'ordre du centimètre dans les ténèbres abyssales. Lors de sa phase de tests, il a d'ores et déjà permis d'observer des dépôts de métaux précieux près de cheminées hydrothermales. Les scientifiques de l'IFM Geomar comptent également sur le robot pour mieux comprendre le mécanisme de la séquestration du CO2 par les eaux océaniques. L'exploitation des hydrates de méthane comme source d'énergie figure également parmi les recherches prévues.

JDI

^ Haut
Matière
Matière et Energie
Electricité éolienne : la France commence à rattraper son retard
Vendredi, 11/07/2008 - 00:00

La puissance installée de production éolienne d'électricité en France devrait doubler d'ici à 2010, selon une étude de RTE (Réseau de transport d'électricité). RTE estime que la puissance éolienne installée devrait atteindre 5.000 mégawatts (MW) en 2010 et 7.000 MW en 2012, contre 2.500 MW au 31 mai 2008, en tenant compte des projets en cours et des données fournies par les producteurs.

"En cinq ans, l'énergie électrique d'origine éolienne produite en France a été multipliée par 10", indique également le gestionnaire du réseau de transport d'électricité français, qui souligne toutefois que la France reste en retard par rapport à certains de ses voisins européens. A fin 2007, les puissances installées représentaient 22.200 MW pour l'Allemagne et 15.100 MW pour l'Espagne, les deux premiers pays européens en matière d'éolien.

Un arrêté de 2006 relatif à la programmation pluriannuelle des investissements de production d'électricité prévoit de développer en France 17.000 MW d'éolien en 2015. "La puissance éolienne installée devrait atteindre 20.000 MW en 2020", souligne RTE. Si cet objectif est atteint, la France devrait produire 48 TWh d'électricité éolienne en 2020, soit environ 9 % de la consommation intérieure d'électricité prévue à cette échéance (535 TWh)

L'organisme évalue à environ un milliard d'euros cumulés d'ici à 2020 les investissements nécessaires sur son réseau pour un parc éolien terrestre d'environ 20.000 MW (lignes et postes), soit 500 millions d'euros d'ici à 2010-2012 puis 500 millions de 2010-2012 à 2020 (sous condition de la réalisation effective des moyens de production éoliens prévus).

"Sur l'année 2007, la productibilité mensuelle (énergie effectivement produite rapportée à l'énergie maximale théoriquement productible) des installations éoliennes est variable, de 10 % à 35 %, pour une valeur moyenne sur l'année de 24 %. La grande variabilité des rendements est liée, par nature, à l'intermittence des conditions de vent", indique également RTE.

En 2007, les énergies renouvelables en France ont produit 71,1 Terawattheures (TWh) d'électricité, essentiellement grâce aux moyens de production hydraulique, soit 13 % de la production française, qui a atteint 544,7 TWh. Les énergies renouvelables ont représenté l'an dernier près de 15 % de la consommation intérieure d'électricité du pays - qui s'est élevée à 480,3 TWh -, avec une croissance de 79,4 % à 4,0 TWh de la filière éolienne (0,8 % de la consommation intérieure).

RTE

Record mondial pour un câble électrique supraconducteur
Vendredi, 11/07/2008 - 00:00

L'île de Long Island (New York) vient de mettre en service trois câbles électriques très spéciaux, parce que supraconducteurs : l'électricité qui les parcourt sur 600 mètres n'y rencontre aucune résistance. Cette propriété curieuse, mise en évidence en 1911, nécessite toutefois une très basse température, de l'ordre de - 200 degrés C dans le cas présent, condition difficile à obtenir.

Le câble inventé par le français Nexans - numéro un mondial du secteur - pour le compte de l'opérateur américain Long Island Power Authority, est donc un bijou de technologie de 15 cm de diamètre. Au coeur de cette nouveauté, un ruban de seulement 4 mm de largeur, une matrice d'argent sur laquelle sont "brodés" des filaments supraconducteurs à base de bismuth. Autour coule le liquide réfrigérant, de l'azote liquide. L'enveloppe cryogénique, qui empêche l'ensemble de se réchauffer, est réalisée avec un système de deux tubes concentriques séparés par un excellent isolant : le vide.

"Il s'agit du câble supraconducteur de transport électrique le plus long et le plus puissant du monde", résume Jean-Maxime Saugrain, directeur de l'activité supraconducteurs chez Nexans. La liaison doit alimenter en électricité quelque 300 000 foyers avec une tension de seulement 138 000 volts, alors qu'avec un câble traditionnel, il faudrait tripler la tension pour transporter une puissance équivalente.

Comme le souligne Jean-Maxime Saugrain, "le but de la manoeuvre, c'est de montrer la faisabilité du système, mais aussi d'éviter de tirer une ligne aérienne à haute tension de 345 000 volts", avec tous les inconvénients que cela suppose dans un milieu fortement urbanisé. "Le câble supraconducteur ne génère, par construction, aucun champ magnétique, poursuit Jean-Maxime Saugrain. Il n'a donc aucun impact électro-magnétique sur l'environnement. Il n'y a pas non plus d'impact thermique, à la différence d'un câble standard, qui chauffe et dont il faut évacuer la chaleur."

Les avantages d'un système supraconducteur sont multiples : placé dans les points stratégiques du réseau, il permet de le désengorger et d'éviter qu'il s'effondre en cas de demande subite ; à la différence des lignes à haute tension, les câbles peuvent être tirés dans des conduites existantes, sur des ponts ou dans des tunnels de service, à condition toutefois d'installer des stations de refroidissement tous les 5 kilomètres ; par son absence de champ magnétique et son absence d'échauffement, il répond aux attentes des protecteurs de l'environnement.

LM

Des microsphères uniques qui peuvent stocker l'hydrogène, filtrer les gaz, délivrer des médicaments...
Vendredi, 11/07/2008 - 00:00

De multiples applications sont possibles pour ces microsphères poreuses. Le Savannah River National Lab (SRNL, Caroline du Sud), laboratoire du Department of Energy, a développé un nouveau matériau appelé Porous Wall, Hollow Glass Microspheres (PW-HGM), des microsphères de verre creuses à la coquille poreuse qui peuvent être remplies d'absorbeurs de gaz ou d'autres matériaux : des gaz comme l'Hydrogène peuvent donc entrer dans les sphères par les pores interconnectés et être stockés, constituant ainsi un système de stockage à l'état solide sûr.

Le SRNL participe à plus d'une demi douzaine de programmes de collaboration concernant les PW-HGM, comme le stockage de l'Hydrogène pour les véhicules (Toyota), la purification et séparation des gaz, et d'autres applications diverses comme le développement de nouveaux systèmes d'administration de médicaments et d'agents de contraste IRM.

Les microsphères font de 2 à 100 micro-m de diamètre. Leur coque fait 1 micro-m d'épaisseur et les pores interconnectés de 10 à 300 nm de large. Elles sont fabriquées très simplement en chauffant de la poudre de verre fine (20 à 40 micro-m), ce qui forme des bulles de gaz puis des microsphères. Les HGM formés sont trempés dans l'eau et collectés par flottaison, ce qui permet au passage de les séparer des perles de verre formées sous l'effet de la chaleur de la flamme. Pour que les HGM deviennent poreuses (PW-HGM), elles sont trempées dans de l'acide hydrochlorique. L'interconnectivité des pores (i.e. des pores reliant l'intérieur de la coque à l'extérieur, comme des petits tunnels) est très importante, pour que les sphères puissent accueillir des absorbeurs de gaz spécifiques.

Par exemple, en incorporant des absorbants à l'intérieur, les chercheurs peuvent produire un environnement protecteur comme une coquille pour protéger les gaz inflammables, ou les matériaux stockés qu'ils soient solides, liquides ou gazeux, et offre donc l'avantage unique de stocker et de transporter des matériaux de ce type. La porosité offre aussi des possibilités de filtrage : en contrôlant la taille des pores, les chercheurs peuvent purifier des gaz lorsqu'il sont mélangés. De plus, leurs propriétés mécaniques peuvent être modifiées pour qu'elles puissent couler comme du liquide. Cela ouvre la possibilité d'utiliser le réseau de distribution d'essence existant avec ce nouveau système de stockage.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Union européenne s'engage sur le climat et l'efficacité énergétique
Vendredi, 11/07/2008 - 00:00

L'Union européenne s'est solennellement engagée le 4 juillet à parvenir avant la fin de l'année à un accord permettant de réduire ses émissions de 30 % à l'horizon 2020 pour prendre les devants sur la scène mondiale. Réunis à Saint-Cloud, les ministres de l'Environnement et de l'Energie des Vingt-Sept ont fait un geste symbolique au début de la présidence française de l'UE. Ils ont apposé leur signature sur un immense globe terrestre en compagnie du prix Nobel de la paix Rajendra Pachauri qui, à la tête du Groupe international d'experts sur le climat (GIEC), a démontré en 2007 l'origine humaine du réchauffement climatique.

"L'impact se révèle bien plus grave que prévu", a déclaré ce dernier devant les ministres en expliquant qu'il restait sept ans pour agir avant 2015, année où les émissions polluantes devront atteindre leur pic, faute de quoi la fonte des glaciers et du Groenland pourrait faire monter le niveau des océans de sept mètres.

Les 27 états de l'Union se sont engagés à concrétiser avant la fin de l'année l'objectif d'une réduction de 20 % des émissions par rapport à 1990, voire 30 % en cas d'accord international, en imposant de nouvelles contraintes aux industries, en produisant au moins 20 % d'énergies renouvelables et en produisant 10 % de biocarburants.

Deuxième fait marquant de cette conférence, l'UE s'est également engagée à faire des économies d'énergie la priorité de sa stratégie, alors que l'objectif d'une amélioration de 20 % de l'efficacité énergétique grâce à l'isolation des bâtiments, à la réduction de la pollution des automobiles et aux ampoules basse tension n'était qu'indicatif. "L'efficacité énergétique est aujourd'hui la clé de voûte de la stratégie énergétique", a dit Borloo.

L'isolation des bâtiments, qui consomment 42 % de l'énergie en France, fera l'objet d'un effort particulier, tout comme l'éclairage public ou privé grâce à des ampoules à basse tension ou la conduite écologique, par exemple grâce à l'installation de mécanismes coupe-moteurs lorsque les voitures sont à l'arrêt.

En mars 2007, toute une série d'objectifs contraignants avaient été fixés, comme l'obligation d'utiliser en 2020 20 % d'énergies renouvelables et 10 % de biocarburants mais, en matière d'efficacité énergétique, il n'y avait qu'un engagement non contraignant de 20 %. Mais le partage du fardeau est difficile.

La Commission a proposé un mécanisme européen d'échange de permis de polluer (ETS) qui se fondera sur les secteurs industriels afin d'éviter les distorsions et à terme toutes les industries devront acheter aux enchères 100 % de leur CO2. Cette révision du système des quotas d'émissions de gaz à effet de serre, en donnant un prix à la tonne de CO2, vise à inciter les industriels à investir dans des technologies propres. Cette mise aux enchères des droits à polluer permettra de récolter quelque 55 milliards d'euros par an qui seront en partie utilisés pour financer les demandes de pays de l'Est pour mettre leur appareil productif à niveau.

Il faudra également résoudre le cas de certains secteurs "dévoreurs" d'énergie, comme l'acier ou les raffineries, qui risquent d'être laminés par la concurrence de pays moins vertueux qui gagneraient à ne pas jouer le jeu, puisque les entreprises européennes risquent de s'y délocaliser.

La France souhaite un mécanisme de taxation aux frontières des produits "sales" mais l'Allemagne préfèrerait octroyer des quotas "gratuits" aux entreprises polluantes européennes. Un compromis devra être trouvé sur cette question des "fuites de carbone". Enfin Jean Louis Borloo a ouvert un débat sur la réduction de la TVA pour les produits "verts".

L'UE devra également décider s'il y aura une directive générale rendant l'objectif contraignant pour l'efficacité énergétique ou des mesures secteur par secteur, comme pour le changement des ampoules électriques traditionnelles par des ampoules à basse tension. Le calendrier européen se superpose à un calendrier mondial lui-même serré. La conférence internationale de Poznan, en décembre 2008, constituera une étape-clé dans les négociations sur le changement climatique afin d'arriver à un accord fin 2009 à Copenhague.

Europa

France : état des lieux des objectifs européens en matière d'environnement
Vendredi, 11/07/2008 - 00:00

A l'heure où la France prend la présidence de l'Union Européenne et dans la dynamique du Grenelle de l'environnement, le numéro 124 du 4 pages de l'Ifen, intitulé « La France face à ses objectifs environnementaux européens » renseigne sur le degré d'atteinte, par la France, des principaux objectifs définis dans le cadre de la politique européenne pour l'environnement. Il présente une sélection d'indicateurs donnant un bilan partiel de la situation française comparée à la moyenne européenne.

S'agissant de la stabilisation des émissions de gaz à effet de serre sur la période 2008-2012 par rapport au niveau de 1990 : en 2006, les émissions agrégées des six gaz à effet de serre de la France étaient inférieures de 4 % au plafond fixé par le protocole de Kyoto.

La progression de la part des énergies renouvelables dans la consommation intérieure brute d'électricité atteignait 13 % en France en 2007. L'objectif est fixé à 21 % d'ici 2010. Jusqu'en 2005, la production française d'électricité d'origine renouvelable a augmenté moins vite que la consommation totale d'électricité. Depuis 2006, elle croît davantage.

La directive 2001/77/CE qui vise à faire progresser la part de l'électricité produite à partir d'énergies renouvelables dans la consommation intérieure brute d'électricité fixe des objectifs différenciés par Etat membre (21 % pour la France).

Or en 2007, cette part a atteint 13 % contre 15 % en 1990. Explication de l'Ifen : la production hydraulique, principale source d'électricité renouvelable, est très dépendante des fluctuations météorologiques et a été touchée par le déficit pluviométrique important depuis 2002. Depuis 2006 toutefois, la part d'électricité d'origine renouvelable s'accroît : 88 % provient de l'hydraulique, 6 % de l'éolien et 6 % de la biomasse.

Quant à l'enrayement de la perte de la biodiversité à l'horizon 2010 : en 2006, la France a augmenté significativement le nombre de ses sites désignés au titre des directives « oiseaux » et « habitats-faune-flore » constituant le réseau Natura 2000. Mi 2007, ce réseau couvrait 12 % du territoire terrestre métropolitain.

Un autre objectif était la limitation de la pollution de l'air et depuis 1990, la France a réduit significativement ses émissions de polluants acides et de précurseurs d'ozone. De nouvelles mesures sont cependant à l'étude pour réduire davantage celles d'oxydes d'azote et respecter le plafond d'émission fixé pour 2010.

Enfin s'agissant des déchets et du recyclage, et plus particulièrement la production de déchets et leur valorisation, dans son plan national pour la prévention de la production de déchets de 2004, la France visait la stabilisation d'ici 2008 de la production de déchets des ménages et des entreprises. Depuis 2000, l'augmentation de la quantité des déchets municipaux est parallèle à celle de l'activité économique, soit + 1,7 %.

Quant à l'objectif qui vise à parvenir à un taux de recyclage des emballages compris entre 55 et 80 % à l'horizon 2008 : en 2005, 53 % des emballages provenant des ménages et des entreprises ont été recyclés en France. Les objectifs de recyclage pour les papiers-cartons, le verre, les métaux et le bois étaient déjà atteints, pas encore pour les plastiques.

Rapport IFEN)}}

L'accélération du réchauffement et de la montée du niveau des océans se confirment
Vendredi, 11/07/2008 - 00:00

Un groupe des climatologues australiens et américains a établi que les océans mondiaux avaient vu leur température augmenter plus rapidement au cours des 40 dernières années du vingtième siècle que ne l'indiquaient les études précédentes, selon les données des scientifiques publiées dans le magazine américain Nature.

"Nous avons constaté que le réchauffement de l'océan mondial avait été de 50 % plus rapide entre 1961 et 2003 qu'on ne le pensait auparavant", estime l'auteure de l'étude Catia Domingues qui estime à 1,5 mm par an le rythme de progression du niveau des mers depuis 50 ans, soit plus de 9 cm.

Il faut rappeler que, depuis 2000 ans, le niveau de la mer a été très stable, n'augmentant que de 0,1 mm par an par en moyenne. Mais la vitesse à laquelle monte le niveau de la mer s'accélère considérablement depuis deux siècles : il a monté de 2 cm durant le 18ème siècle, de 6 cm au 19ème siècle, et 19 cm au siècle dernier. Pour le XXIeme siècle, le GIEC prévoit une élévation comprise entre 18 cm et 59 cm.

Mais certains chercheurs considèrent que le GIEC n'a pas pris en compte la dynamique des glaces. Leur déplacement plus rapide que prévu, dû à l'eau provenant de la fonte, pourrait fortement accélérer leur disparition et donc la hausse du niveau des mers. Ce phénomène pourrait être responsable d'environ un tiers de la future élévation du niveau des mers, d'après Steve Nerem de l'Université du Colorado aux États-Unis. Ces prévisions alarmistes ont récemment été confirmées par l'Union européenne des géosciences qui estime pour sa part que la fonte des glaciers, la disparition des calottes glacières et le réchauffement des océans pourraient faire monter de 1,5 mètre le niveau des mers.

Une élévation d'un mètre du niveau des mers au cours de siècle provoquerait le déplacement de plusieurs centaines de millions de personnes, notamment en Asie. L'observation des océans nous permet d'évaluer précisément le changement climatique. Catia Domingues estime que l'océan conserve près de 90 % de l'énergie thermique, jouant en même temps le rôle de tampon thermique qui réduit l'effet du réchauffement climatique.

Nature

CSIRO

Les plantes poussent de plus en plus haut pour lutter contre le réchauffement climatique
Vendredi, 11/07/2008 - 00:00

Le réchauffement climatique a entraîné la migration de nombreuses espèces végétales vers des altitudes plus élevées depuis ces dernières décennies, selon une étude conduite par une équipe internationale. Comparant la distribution de 171 plantes forestières à des altitudes variant de celle du niveau de la mer à 2.600 mètres entre 1905 et 1985, puis de 1986 à 2005, ces chercheurs ont déterminé que ces végétaux avaient grimpé de 29 mètres en moyenne par décennie. Ces observations montrent que les changements climatiques n'affectent pas seulement la distribution en longitude et en latitude des espèces végétales mais également en altitude.

Ceci suggère aussi que la plupart des espèces de plantes occupant la même zone et partageant les mêmes caractéristiques physiologiques ont tendance à migrer, expliquent les auteurs de ces travaux parus dans la revue américaine Science. Le changement est plus marqué pour les végétaux dont l'habitat se situe dans les régions montagneuses ainsi que pour les herbes caractérisées par un renouvellement plus rapide, souligne l'étude.

Ces tendances confirment la théorie selon laquelle les espèces végétales d'altitude sont plus sensibles au changement climatique, souligne Jonathan Lenoir de l'AgroParisTech, à Nancy (est de la France), principal auteur de cette étude. Le réchauffement du climat a provoqué une réponse biologique et écologique des animaux et des plantes à la surface de toute la planète, comme le montre l'évolution de la distribution et de la densité des espèces, mais aussi dans les profondeurs marines, relèvent ces chercheurs.

Les scientifiques notent également que le changement climatique en France où une grande partie de l'étude a été menée, a été caractérisé par des hausses annuelles moyennes de température d'une ampleur beaucoup plus grande (+ 0,9 degré Celsius) que dans le reste du monde (+ 0,6 degré). Dans les régions alpines, la hausse de la température moyenne approche même + 1 degré, depuis le début des années 1980, ce qui explique le recul des glaciers.

Science

La Grande-Bretagne annonce un plan ambitieux pour développer les énergies renouvelables
Vendredi, 11/07/2008 - 00:00

Le gouvernement britannique a présenté un plan d'investissement de 100 milliards de livres sterling (126 milliards d'euros) sur 12 ans, destiné à multiplier par dix le recours aux énergies renouvelables au Royaume-Uni, à réduire ses émissions de gaz à effet de serre et à limiter sa dépendance aux hydrocarbures. Ces propositions visent à atteindre l'objectif que s'est fixé Londres en la matière, c'est-à-dire porter à 15 % en 2020 la part de l'énergie consommée issue de sources renouvelables. Les seuls besoins en électricité devraient être couverts pour un tiers par les énergies renouvelables.

"Une révolution verte est en marche (...) Il s'agit du plus important changement dans notre politique énergétique depuis l'avènement de l'électricité nucléaire", a déclaré le Premier ministre, Gordon Brown, dans un discours prononcé à la Tate Modern, une ancienne usine électrique transformée en musée. "Je suis absolument sûr que c'est la bonne voie pour ce pays." Son ministre de l'Industrie, John Hutton, a expliqué dans un communiqué que le développement des énergies renouvelables s'effectuerait parallèlement à la relance du secteur nucléaire et au développement d'une filière charbon "propre". Il a précisé que les industries et technologies propres (en incluant le nucléaire) représenteront au niveau mondial 700 milliards de dollars de chiffre d'affaires en 2010, l'équivalent du secteur aéronautique, et atteindront 3000 milliards de dollars en 2050, employant alors 25 millions de personnes.

Ce plan, a-t-il ajouté, "jouera un rôle crucial dans le traitement du changement climatique et la réduction de notre dépendance au pétrole et au gaz. Le principal volet du plan prévoit l'installation de 4.000 nouvelles turbines éoliennes sur le sol britannique et de 3.000 autres au large des côtes. Brown a souligné que le secteur des énergies renouvelables représentait un potentiel de 160.000 emplois, auxquels pourraient s'ajouter 100.000 postes pour la construction et l'exploitation de nouvelles centrales nucléaires, que Londres entend déléguer à des entreprises privées. La Grande-Bretagne tire actuellement moins de 5 % de son électricité des énergies renouvelables. 400 000 personnes en Grande-Bretagne travaillent déjà dans le secteur de l'environnement, qui représente 30 milliards d'euros de CA par an.

Gordon Brown a également souligné l'importance de l'amélioration de l'efficacité énergétique dans le logement : "Si nous améliorons de 20 % l'efficacité énergétique dans chaque foyer, cela permettra une économie moyenne de 250 euros par an sur la facture énergétique d'un ménage"a-t-il précisé.

GB

Le Portugal mise sur l'énergie des vagues pour produire de l'électricité
Vendredi, 11/07/2008 - 00:00

Le Portugal, en pointe sur les énergies renouvelables, a pris une longueur d'avance dans la recherche sur l'énergie houlomotrice, qui utilise la force des vagues pour produire de l'électricité, et espère à moyen terme prouver sa rentabilité. Depuis 2005, des scientifiques portugais testent en collaboration avec des partenaires étrangers cette technologie résultant de l'action du vent sur la mer qui, selon une étude du Centre de l'énergie des vagues (CEO), pourrait en théorie fournir près d'un cinquième de l'électricité consommée dans le pays.

"D'ici 2012, nous espérons être en mesure d'atteindre une capacité de production de 100 MW", déclare le professeur Antonio Sarmento, chercheur à l'Institut supérieur technique de Lisbonne et président du CEO. "La majeure partie du réseau électrique est installée sur le littoral où vit plus de la moitié de la population portugaise, ce qui représente un potentiel de croissance important", fait valoir M. Sarmento. Le premier projet pilote portugais en activité a été développé sur l'île de Pico dans l'archipel des Açores, à quelque 1.500 km des côtes portugaises. Depuis trois ans, cette centrale de démonstration fonctionne de manière alternée.

Outre Pico, deux autres grandes centrales sont en projet : l'une à Povoa do Varzim (nord), présentée comme la plus grande centrale houlomotrice du monde, a rencontré plusieurs problèmes techniques mais devrait, selon ses responsables, être inaugurée cet été ; l'autre doit également commencer à fonctionner au Large de Peniche (centre) l'an prochain. Preuve de l'intérêt porté à la force des vagues, il existe actuellement plusieurs technologies différentes testées à travers le monde, certaines recourant à des structures flottantes, d'autres totalement immergées.

Les vagues permettent d'actionner des turbines génératrices d'énergie. L'électricité produite est ensuite transportée par câbles sous-marins vers la côte pour être finalement raccordée au réseau. Sur le terrain, les essais de prototypes sont coûteux et techniquement complexes et les sociétés portugaises sont souvent dépendantes de partenaires étrangers. Par ailleurs, des obstacles restent encore à surmonter, notamment la longévité des équipements. Mais, à en croire les spécialistes portugais, les avantages de l'énergie houlomotrice sont nombreux. Moins onéreuse que l'éolien, elle est également plus stable et prévisible. "Alors que le vent peut apparaître et disparaître à n'importe quel moment, notre capacité de prévision avec l'énergie des vagues est plus importante. Cela peut aller jusqu'à six jours", explique un responsable du CEO.

Selon les chercheurs de ce centre, le Portugal dispose, par rapport à d'autres pays, de plusieurs atouts pour développer cette technologie : météo favorable, peu de tempêtes, des vagues moyennes, une amplitude des marées modérée, une profondeur des eaux de plus de 50 mètres le long du littoral permettant de multiplier la puissance des vagues... Tous ces éléments permettent un meilleur accès au off-shore et donc un entretien plus simple des installations.

Yahoo

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Développement d'un traitement anticancéreux ciblant les cellules souches cancéreuses
Vendredi, 11/07/2008 - 00:00

La recherche sur les cellules souches a graduellement acquis de l'importance dans le domaine de la recherche sur le cancer, particulièrement en ce qui concerne le développement et la résistance des tumeurs. La découverte en 1994 par le chercheur canadien John Dick d'une petite population de "cellules initiatrices de tumeurs" (CIT) comme étant des cellules alimentant la leucémie a mené à la découverte d'autres CIT concernant le cancer du sein (en 2003), du cerveau (en 2004), de la prostate (en 2005), du côlon (en 2006) et du pancréas (en 2007).

Les scientifiques sont de plus en plus convaincus que la capacité de croissance d'une tumeur dépend d'un petit nombre de cellules malveillantes se comportant comme des cellules souches dans la tumeur. Les CIT ont été appelées cellules souches cancéreuses car elles sont pluripotentes à l'instar des cellules souches sanguines dans la moelle osseuse.

Mis au point par Oncomed, un traitement contre le cancer découlant de ces recherches pourrait être mis sur le marché d'ici quelques années. Ce premier candidat médicament, connu sous le nom de M2118, utilise des anticorps monoclonaux conçus pour se fixer aux cellules souches cancéreuses et ainsi interrompre leur signalisation. Ce traitement, dont les résultats des premiers essais cliniques seront connus l'an prochain, semble être en mesure de se combiner avec un traitement standard afin d'arrêter la croissance des tumeurs et de prévenir la récurrence tumorale.

BE

Feu vert européen pour le 1er traitement oral du cancer du sein métastasé
Vendredi, 11/07/2008 - 00:00

La Commission européenne vient d'autoriser la mise sur le marché du lapatinib (Tyverb®, GSK) contre les cancers du sein avancés métastatiques sur-exprimant les récepteurs HER-2, caractéristiques des cellules tumorales qui gouvernent la formation de métastases. Ce médicament autorisé aux Etats-Unis depuis 2007 bénéficiait en France, d'une Autorisation temporaire d'Utilisation (ATU).

Chez les patientes déjà traitées et chez qui sont apparues des métastases, son utilisation est désormais autorisée par l'Europe en association avec la capecitabine. Ce qui ne constitue pas une surprise car déjà l'été dernier le Docteur Jean-Yves Blay, Directeur scientifique du Cancéropôle Lyon-Auvergne-Rhône Alpes, (CLARA) expliquait lors du congrès de l'ASCO à Chicago que « l'incidence (des métastases cérébrales) paraît nettement moins importante lorsque la prise de lapatinib est associée à la capecitabine ».

L'octroi d'une AMM européenne ne signifie pas que le médicament devienne d'emblée disponible dans les services français. Le fabricant a fait savoir qu'il « travaille d'ores et déjà avec les autorités locales (de chaque pays) pour faire en sorte que le lapatinib soit accessible aussi tôt que possible aux patientes éligibles. » Le lapatinib est le premier traitement ciblé par voie orale dans le cancer du sein métastatique. Il ouvre aussi des potentialités intéressantes, qui pourraient déboucher sur la possibilité de réduire les doses administrées dans des proportions importantes. Ce serait une source d'économies très substantielles, que certains auteurs estiment supérieures à 1 700 dollars par mois et par malade.

DS

Une nouvelle thérapie immunologique a permis la régression complète d'un mélanome métastasé
Vendredi, 11/07/2008 - 00:00

L'utilisation de lymphocytes autologues dans le traitement de certains cancers évolués est une piste qui a été explorée par plusieurs équipes dans le monde. Diverses études préliminaires ont montré que l'injection de cellules T cytotoxiques (ou CD8+) autologues pouvaient avoir des effets cliniques favorables. Cependant, on sait que l'action anti-tumorale des CD8+ est sous la dépendance des CD4+ et qu'il pourrait donc être plus efficace d'utiliser directement ce type de cellules.

Une équipe du Fred Hutchinson Center de Seattle vient de franchir un pas dans cette voie en traitant (avec succès) un patient atteint de mélanome malin métastasé avec des CD4+ autologues multipliés in vitro. Ce type de thérapeutique a été rendu possible par l'identification d'antigènes associés à des tumeurs comme le NY-ESO-1 dont les épitopes sont présentés par des HLA de classe II et par la mise au point de techniques de multiplication des cellules CD4+ in vitro.

Le patient de Naomi Hunder et coll. était un homme de 52 ans souffrant d'un mélanome malin avec métastases pulmonaires et ganglionnaires iliaques et inguinales diagnostiquées par scanner et TEP scan. Aucune réponse tumorale n'avait été obtenue après excision locale, interféron alpha et interleukine-2.

L'analyse immunohistochimique de la tumeur avait mis en évidence divers antigènes reconnus par les cellules T dont le NY-ESO-1.

Les cellules mononuclées du sang du patient ont été collectées par leucophérèse et mises en culture. Les CD4+ « dirigés » contre NY-ESO-1 ont été isolés et multipliés. Après vérification de leur capacité à répondre in vitro à un contact avec NY-ESO-1 par la production d'interleukine-2 et d'interféron gamma, ces CD4+ ont été réinjectés au patient par une perfusion de deux heures. Au total 5 milliards de cellules T ont été injectés (3,3 milliards par m2).

Deux mois après le traitement, un nouveau bilan d'extension (par scanner et TEP scan) a montré une disparition complète des métastases ganglionnaires et pulmonaires sans apparition de nouvelles localisations.

Avec un recul de 26 mois, le patient demeure en rémission complète sans aucun autre traitement. Ce traitement « à la carte », nécessitant la mise en jeu de techniques immunologiques hautement sophistiquées, paraît certes difficilement reproductible sur une large échelle. Cependant, son efficacité remarquable, rapide et durable, au prix d'effets secondaires très modestes, laisse penser qu'une nouvelle ère thérapeutique vient peut-être de s'ouvrir pour cette pathologie jusqu'ici au-delà de toutes ressources thérapeutiques.

JIM

Le cancer, une maladie inflammatoire
Vendredi, 11/07/2008 - 00:00

Un cancer sur six est causé par des conditions d'inflammation chronique. Une étude récente vient de démontrer que cet impact catastrophique de l'inflammation est dû aux dommages au matériel génétique des cellules causés par des radicaux libres, ce qui favorise la progression du cancer.

Plusieurs observations suggèrent l'existence d'un lien très étroit entre l'inflammation chronique et le risque de développer un cancer. Un des meilleurs exemples de cette association est sans doute l'augmentation dramatique (20 fois) du risque de cancer du côlon chez les personnes touchées par les maladies inflammatoires de l'intestin, en particulier les colites ulcéreuses.

Comment l'inflammation peut-elle autant influer sur le risque de cancer ? Un grand pas dans la compréhension de cette relation vient d'être franchi par une étude réalisée par des chercheurs du Massachusetts Institute of Technology. Les chercheurs ont observé que l'inflammation provoque la formation de radicaux libres, des molécules très actives qui endommagent les constituants du matériel génétique (l'ADN).

En conditions normales, de tels dommages sont reconnus et peuvent être réparés par nos systèmes de défense, ce qui permet de limiter les dégâts. Cependant, ces systèmes de défense ne fonctionnent pas de façon optimale chez un certain nombre de personnes et les dommages à l'ADN peuvent alors provoquer l'apparition de mutations qui mèneront ultimement au développement d'un cancer. Il est donc possible de réduire le risque d'être touché par le cancer en modifiant notre mode de vie et notre alimentation de façon à réduire l'inflammation.

Canoe

Cancer du sein et de la prostate : un vaccin testé sur l'homme
Vendredi, 11/07/2008 - 00:00

Aux Etats-Unis, vingt personnes atteintes d'un cancer de la prostate ou du sein vont bénéficier d'un tout nouveau traitement, qui a donné des résultats spectaculaires sur les souris atteintes de tumeurs très agressives.

Des études en laboratoire ont montré voici une dizaine d'années qu'une souris immunisée contre la maladie par l'adaptation de son métabolisme résistait à toutes les tentatives de la tuer en implantant de grandes quantités de cellules cancéreuses. Depuis lors, des recherches sont en cours pour voir comment adapter cette technique à l'homme.

Plus de vingt patients souffrant d'un cancer vont bénéficier de la même thérapie que celle appliquée aux souris de laboratoire, avec l'espoir de les voir développer la même immunité contre la maladie, a précisé 'The Independent on Sunday'. L'élément le plus important de cette expérience sont les granulocytes, une catégorie de globules blancs qui fournissent l'immunité aux souris et qui, provenant de donneurs sains, semblent aussi en mesure de détruire les cellules humaines causant les cancers de la prostate et du sein, sans affecter les cellules normales.

Si cette expérimentation réussit chez l'homme, elle permettrait de vaincre des tumeurs solides, comme on le fait déjà, grâce à des greffes de cellules, contre les leucémies. Cette tentative de vaccination thérapeutique a été autorisée par la Food and Drug administration.

LV

Un risque accru d'infarctus du myocarde en cas de déficit en vitamine D
Vendredi, 11/07/2008 - 00:00

Une étude publiée dans les Archives de Médecine indique qu'un déficit en 25-hydroxyvitamine D est associée à un risque d'IDM plus élevé chez les hommes. Le risque serait doublé dans le cas des sujets déficients en vitamine D comparé à ceux dont la concentration est jugée normale, expliquent les auteurs.

Ces résultats confirment que les apports recommandés en 25-hydroxyvitamine D devraient être revus à la hausse pour aboutir éventuellement à des effets positifs, expliquent les auteurs. « La déficience en vitamine D est associée à un nombre croissant de pathologies et à la mortalité totale », écrivent Giovannucci et collaborateurs dans cet article. « Ces résultats soutiennent encore plus la notion d'un rôle important de la vitamine D dans l'infarctus du myocarde ».

L'étude a été menée sur la base des dossiers médicaux et des dosages sériques en 25-hydroxyvitamine D chez 454 hommes âgés de 40 à 75 ans qui avaient un antécédent d'IDM non fatal ou de maladie cardiovasculaire ayant conduit au décès. Les données ont été comparées à celles de 900 sujets contrôles sans antécédent cardiovasculaire.

Archinte

Les ondes dangereuses chez le rat
Vendredi, 11/07/2008 - 00:00

Le taux de mortalité des rats de laboratoire double lorsqu'ils sont exposés aux ondes des téléphones portables et réseaux wi-fi, indique une étude de l'université catholique de Louvain (UCL). Cette étude est publiée alors qu'une vingtaine de scientifiques et de cancérologues ont lancé le 15 juin à Paris un appel en faveur de mesures de précaution dans l'utilisation des téléphones portables, en l'absence de conclusions scientifiques définitives sur leur éventuelle dangerosité pour la santé.

Le taux de mortalité de trois groupes de rats soumis pendant 18 mois à trois niveaux d'expositions électromagnétiques utilisées dans les technologies mobiles s'est élevé à 60 %, contre 29 % dans un groupe de rats "épargnés", selon l'étude belge, qui constitue la thèse de doctorat en sciences appliquées défendue à l'UCL par Dirk Adang. Un résultat qualifié "d'inquiètant" par Le Soir, qui souligne que le rat "partage 90 % de son patrimoine génétique avec l'homme".

Les causes de cette surmortalité chez le rat restent cependant encore à établir formellement, seuls 19 des 124 rats de laboratoire ayant jusqu'ici été autopsiés. Mais Dirk Adang avance l'hypothèse d'un dérèglement du système immunitaire des rats, pourtant soumis à des ondes aux taux "conformes aux standards internationaux en vigueur".

"Il est remarquable que dans tous les groupes soumis à une exposition, on constate une augmentation des monocytes (globules blancs actifs dans l'élimination des particules étrangères) comparativement au groupe témoin", écrit le chercheur belge. "Ces découvertes montrent un stress dans la formation du système sanguin après une exposition à faible dose, à long terme, de micro-ondes (...) C'est comme si l'organisme réagissait à une agression étrangère ou à une intrusion", ajoute-t-il. Des études complémentaires seront nécessaires pour "établir si l'exposition aux micro-ondes a engendré un vieillissement prématuré des rats", estime M. Adang, qui assure toutefois que "les présomptions existent à ce niveau".

AFP

Sclérose en plaques : des progrès dans les traitements
Vendredi, 11/07/2008 - 00:00

Les progrès enregistrés ces dernières années dans le domaine de la sclérose en plaques (SEP), une maladie neurologique caractérisée par des lésions disséminées du cerveau et/ou de la moelle épinière représentent un réel espoir, notamment dans la sphère des traitements. Le système nerveux central est fait de cellules, les neurones, qui véhiculent l'influx nerveux. L'axone, un des prolongements du neurone, est entouré d'une gaine protectrice, la myéline qui, elle, nourrit, protège et permet une conduction rapide de l'influx nerveux.

La sclérose en plaques est caractérisée par une atteinte des manchons de myéline du système nerveux central, suivie d'une dégénérescence des axones. Un phénomène dû à la transformation du lymphocyte, la cellule immunitaire du sang, en lymphocyte activé qui provoque une réaction inflammatoire.

Il y a une dizaine d'années, seuls les corticoïdes permettaient de traiter la SEP, en agissant uniquement sur la durée des poussées. Aujourd'hui, les avancées thérapeutiques sont réelles et il existe plusieurs traitements:

- les immunomodulateurs qui agissent sur la phase inflammatoire et sont efficaces sur les formes rémittentes, c'est-à-dire des formes évoluant par poussées (2/3 des cas de SEP au début). Ces médicaments permettent de diminuer de 30 % en moyenne la fréquence des poussées, et semblent aussi réduire le handicap à moyen terme, mais chez certains patients seulement. Des études en cours tentent de trouver une explication à ce fait.

- les immunosuppresseurs, des traitements plus "agressifs" et prescrits en deuxième choix pour une durée courte, dans des formes très inflammatoires.

- le Natalizumab, un traitement qui permet de réduire de 68 % le taux de poussées mais qui comporte des risques de complication et est donc réservé aux formes très actives de la maladie.

Quant aux formes de SEP progressives, elles n'ont toujours pas de traitement adapté et efficace à l'heure actuelle mais des études sont en cours et un essai thérapeutique devrait voir le jour prochainement. Au futur, les espoirs de traitement reposent sur une trentaine de molécules aujourd'hui testées dans le cadre d'essais cliniques, la plupart en traitement des formes rémittentes.

Enfin, depuis une dizaine d'années, de nombreuses recherches visent à mieux comprendre le processus de réparation de la myéline. Ainsi, deux tiers des lésions sont spontanément remyélinisées en totalité ou partiellement. Les recherches actuelles visent à comprendre ce phénomène et les facteurs qui rentrent en jeu.

AP

L'obésité progresse en France
Vendredi, 11/07/2008 - 00:00

Si une étude menée en France, entre 1980 et 1991, ne montrait qu'une augmentation modeste de la prévalence de l'obésité chez l'adulte, avec une prévalence stable, d'environ 6,4 %, légèrement plus élevée chez les femmes, cette stabilité n'était plus retrouvée par 4 enquêtes (enquêtes Obepi), conduites en 1997, 2000, 2003 et 2006 par des équipes de l'INSERM et par le Professeur A. Basdevant, auprès de 20 000 foyers français représentatifs de la population nationale, chez des sujets âgés de 18 ans et plus. Il s'agissait pour les participants volontaires, de mesurer leur poids, leur taille et leur tour de taille. L'obésité a été définie, selon les critères de l'OMS, par un indice de masse corporelle (IMC) dépassant 30.

Les résultats montrent une augmentation de la prévalence de l'obésité chez l'adulte entre 1997 et 2006, passant de 8,6 % (IC à 95 % 8,2-8,8) en 1997 à 13,1 % (12,7-13,5) en 2006. Entre 1997 et 2006, la prévalence de l'obésité a ainsi augmenté dans presque toutes les classes d'âge, chez les hommes et chez les femmes, la prévalence du surpoids restant stable dans la plupart des tranches d'âge. L'accroissement de la prévalence de l'obésité a été observé même dans les foyers à hauts revenus mensuels, avec une augmentation de 7,6 % en 1997 à 11,4 % en 2006, pour les revenus par habitant les plus élevés.

JIM

La diversité moléculaire : facteur clé de l'intelligence?
Vendredi, 11/07/2008 - 00:00

L'intelligence ne dépend pas seulement de la taille du cerveau, ou du nombre des neurones qui le composent. L'un des facteurs déterminants serait la diversité moléculaire dans la composition des synapses, ces points de liaison entre les cellules nerveuses. C'est ce qui ressort d'une étude menée par des chercheurs du Wellcome Trust Sanger Institute et des universités d'Edimbourg et de Keele, au Royaume-Uni, qui ont procédé à une comparaison des synapses de différentes espèces animales.

Leurs travaux, publiés sur le site Internet de la revue Nature Neuroscience, début juin, ont consisté à analyser la diversité des protéines intervenant dans le fonctionnement des synapses d'invertébrés - comme la mouche - et de vertébrés, dont l'homme. Ils ont inclus dans leur comparaison la levure, organisme unicellulaire, certes dépourvu de système nerveux, mais représentatif des premiers stades de la vie. Il en ressort qu'au fil des millions d'années, la qualité et la complexité des connexions nerveuses se sont accrues. Cette évolution aurait permis l'émergence du cerveau actuel des vertébrés.

L'équipe britannique a constaté que le cerveau était encore plus complexe qu'on ne le croyait. "La vue simpliste selon laquelle "plus de nerfs" expliquerait une plus grande puissance cérébrale ne résiste pas à notre étude, explique le professeur Seth Grant, chef du projet. Personne ne s'était encore intéressé à la composition moléculaire des connexions neuronales sous l'angle comparatif. Nous avons trouvé des différences importantes dans le nombre de protéines."

L'une des forces de cette étude est de replacer le cerveau dans son évolution moléculaire. Le nombre et la complexité des protéines auraient explosé lors de l'apparition des animaux multicellulaires. Une seconde vague aurait accompagné l'émergence des vertébrés, il y a 500 millions d'années. Les protéines propres aux vertébrés leur auraient conféré un éventail plus large de comportements, incluant des fonctions mentales plus performantes.

Les chercheurs britanniques ont identifié un "kit de base" d'environ 150 protéines, présent jusque chez les êtres vivants les plus simples et impliqué dans les comportements les plus essentiels, comme la réponse au stress chez la levure. "Cet ensemble de protéines pourrait représenter les origines ancestrales du cerveau", écrivent les chercheurs. Ils font l'hypothèse que l'évolution de la complexité des synapses à partir de cette "proto-synapse" a contribué à la différenciation entre les invertébrés et les vertébrés. Mais aussi chez ces derniers, à l'apparition d'aires cérébrales diversifiées.

LM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La Antro Solo : une voiture qui roule à l'énergie solaire
Vendredi, 11/07/2008 - 00:00

La société hongroise Antro a conçu le prototype baptisé "Solo" et l'a dévoilé le 17 juin 2008 au Musée du transport de Budapest : il s'agit d'un véhicule hybride fonctionnant au biocarburant et à l'énergie solaire. Des panneaux solaires photovoltaïques ont été installés sur son toit. Tout un programme vert !

La Solo dispose de 3 places en ligne : le conducteur se retrouve au centre et ses deux passagers sont assis à ses côtés. Son fonctionnement est le suivant. En zones urbaines (courts trajets), ses 4 petits moteurs électriques présents dans les moyeux des roues et ses panneaux solaires lui permettent de rouler. Elle bénéficie alors de 25 km d'autonomie uniquement grâce à l'énergie solaire. Si elle est coincée dans les embouteillages ou dans une circulation ralentie, les passagers ont la possibilité de pratiquer une éco-conduite pas comme les autres : ils produisent de l'électricité à l'aide de pédales mécaniques entraînant une dynamo ! Sur route (longs trajets), elle s'appuie sur son moteur fonctionnant au diesel et au biocarburant (huiles végétales). Elle consomme ainsi de 1,5 à 2 litres de biocarburant aux 100 kilomètres. Résultat : ses émissions de CO2 sont de 40 g/km.

Sa vitesse de pointe ? 140 km/h. Ses mensurations ? Une longueur de 3,12 m et une largeur de 1,92 m. Son poids est de seulement 270 kg grâce à un châssis et à une coque fabriqués à partir de composites et fibres de carbone. Sinon j'aime bien sa forme ovale : ça lui donne un look très futuriste ! Bonne nouvelle, son prix reste abordable : 11 500 euros. Sa production en série devrait débuter en 2012.

Caradisiac

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top