|
|
|
|
|
NUMERO 486 |
|
|
|
|
|
|
|
Edition du 11 Septembre 2008
|
|
|
|
|
Edito
L'efficacité énergétique : un enjeu économique et écologique majeur pour la France et l'Europe
L'efficacité énergétique au niveau mondial augmente de 1,6 % par an depuis 1990 (1,3 % sans la Chine), poussée notamment depuis 2000 par l'augmentation du prix du pétrole. Sans cette amélioration continue, on consommerait aujourd'hui autour de 40 % de plus d'énergie par an pour satisfaire les mêmes besoins. Cette tendance à l'amélioration de l'efficacité énergétique devrait se confirmer dans le futur proche. La progression extraordinaire de l'efficacité énergétique en Chine (7,5 % par an) entre 1990 et 2000 a largement participé à cette progression mondiale. Mais depuis cette date, la progression de la Chine a nettement ralenti. S'il devait se confirmer dans les années à venir, ce ralentissement serait particulièrement problématique. Il subsiste de fortes disparités entre pays et régions du monde dans les niveaux de performance de l'efficacité énergétique. Si près de 2/3 des pays participent à cette performance énergétique mondiale, ce sont les pays les moins économes et à forte croissance économique comme la Chine et les Etats-Unis (1,9 % par an depuis 1990) qui ont fait le plus de progrès. L'Europe a la meilleure intensité énergétique du monde et continue de progresser de 0,8 % par an depuis 1990. Ainsi, par unité de produit intérieur brut, l'Europe consomme 30 % d'énergie en moins que les Etats-Unis et 40 % que la Chine. Son intensité énergétique est également plus faible que celle des pays émergents et des pays en voie de développement de manière générale. Il lui reste cependant encore beaucoup de progrès à faire en terme de performance énergétique pour atteindre les objectifs qu'elle s'est fixés, notamment les 8 % de réduction des émissions de gaz à effet de serre dans le protocole de Kyoto ou, plus récemment, l'amélioration de 20 % de sa performance énergétique d'ici 2020 adoptée par le conseil en mars 2007. Ce dernier objectif ne pourra être atteint au rythme actuel, même si les progrès réalisés ces dernières années ont permis de réaliser dans l'Europe entière des économies d'énergie importantes. Dans l'Europe des 25, la France se place dans le peloton de tête des 6 pays ayant la meilleure productivité énergétique, juste derrière l'Angleterre et l'Allemagne. Son efficacité énergétique diffère selon les secteurs. Grâce aux efforts fournis dans le secteur de l'automobile par la mise sur le marché de voitures qui consomment de moins en moins de carburant - 1 litre de moins que les voitures allemandes - la France est leader en matière d'efficacité énergétique dans le secteur des transports. En revanche, la France a pris du retard dans le secteur du logement. La priorité donnée au secteur du bâtiment dans le Grenelle de l'environnement et l'annonce de mesures concrètes par le ministère de l'Ecologie, du Développement et de l'Aménagement durables devraient permettre de corriger cette situation. Un ménage français consomme près de 30 % de plus d'énergie par logement que ceux des pays les plus performants tels les Pays-Bas ; pour le chauffage, la consommation par m² -corrigée du climat- est en France plus de deux fois plus élevée qu'en Norvège. La Commission a adopté un plan d'action dont le but est de parvenir à la réduction de la consommation d'énergie de 20 % d'ici à 2020. Le plan d'action comprend des mesures visant à améliorer la performance énergétique des produits, bâtiments et services, à améliorer le rendement de la production et de la distribution d'énergie, à réduire l'impact des transports sur la consommation énergétique. La Commission estime que les économies d'énergie les plus importantes concernent les secteurs suivants : bâtiments d'habitation et à usage commercial (tertiaire), avec un potentiel de réduction évalué respectivement à 27 % et 30 %, les industries manufacturières, avec des possibilités d'économies d'environ 25 %, et le secteur des transports, avec une réduction de la consommation estimée à 26 %. Ces réductions sectorielles de la consommation d'énergie correspondent à des économies globales estimées à 390 millions de tonnes équivalent pétrole (Mtep) chaque année, soit 100 milliards d'euros par an d'ici à 2020. Elles permettraient en outre de diminuer les émissions de CO2 de 780 millions de tonnes par an. Ces économies potentielles viendront s'ajouter à la réduction de consommation, estimée à 1,8 % ou 470 Mtep par an, résultant entre autres des mesures déjà engagées et du remplacement normal du matériel. La réalisation de l'objectif de réduction de 20 % permettra de réduire l'impact sur le changement climatique et la dépendance de l'UE vis-à-vis des importations de combustibles fossiles. Le plan d'action aura également pour effet de renforcer la compétitivité industrielle, de développer les exportations de nouvelles technologies et aura des effets positifs pour l'emploi. Les économies réalisées compenseront en outre les investissements effectués dans les technologies innovantes. Avec près de 20 % de la consommation totale d'énergie primaire et la croissance la plus rapide en termes de consommation, le secteur des transports représente à la fois un risque majeur pour l'environnement (émissions de gaz à effet de serre) et un des facteurs principaux de dépendance envers les combustibles fossiles. Une action sur la consommation des voitures et la promotion des transports alternatifs plus propres sont des éléments essentiels pour résoudre ces problèmes. La Commission envisage d'imposer un objectif contraignant de réduction des émissions automobiles polluantes, de manière à atteindre le seuil de 120 g de CO2/km d'ici 2012. La Commission européenne propose également de réduire la consommation d'électricité des appareils électroménagers et des équipements de bureau. Les États membres de l'Union ont approuvé le 7 juillet 2008 la proposition de règlement de la Commission européenne visant à réduire la consommation d'électricité, en mode veille, des appareils électroménagers et des équipements de bureau. Ce règlement fixe les exigences d'efficacité énergétique que devront respecter tous les produits commercialisés en Europe dans le but de diminuer de 73 % d'ici à 2020, la consommation d'électricité en mode veille de ces appareils dans l'Union. À l'heure actuelle, la consommation d'électricité liée aux veilles des appareils avoisine les 50 TWh par an dans l'Union européenne, ce qui représente plus de 10 % de la consommation totale d'électricité de la France! Enfin, la Commission européenne a dévoilé le 16 juillet 2008 son "paquet durabilité". Il s'agit d'un plan d'Action pour une production, une consommation et une politique industrielle durables. "Pour lutter plus efficacement contre le changement climatique et la destruction des écosystèmes, il est temps aujourd'hui de changer les types de produits qui sont proposés dans le commerce et de transformer les modes de production", a déclaré Stavros Dimas, commissaire chargé de l'environnement. Ce Plan d'Action comprend une proposition de directive sur l'éco-conception applicable aux produits liés à l'énergie, une révision de la directive sur l'étiquetage énergétique et une communication sur le "verdissement" des marchés publics. Par ailleurs, la Commission veut encourager l'achat des produits écologiques par les marchés publics et les incitations fiscales. En France, pour la première fois, l'ADEME (Agence de l'environnement et de la maîtrise de l'énergie) a réalisé en juillet 2008 une étude très remarquée sur l'économie et l'emploi liés aux secteurs de l'efficacité énergétique et des énergies renouvelables. Cette étude montre que les marchés de la maîtrise de l'énergie et des énergies renouvelables ont augmenté de 17 % en 2007 par rapport à l'année précédente, représentant 33 Mds?. Le nombre d'emplois a également progressé mais de façon moindre, avec une croissance de 8 %. Selon l'étude, 220.000 équivalents temps pleins seraient générés par ces secteurs en 2007, soit un niveau supérieur à celui de l'industrie automobile. L'amélioration de l'efficacité énergétique des transports et du résidentiel représente 70 % du marché. La demande des ménages, hors ventes d'énergies renouvelables, représente 57 % du marché. La demande des entreprises intervient pour 27 % avec 8Mds ? d'investissements (matériel ferroviaire et systèmes de production d'énergies renouvelables) alors que celle des collectivités territoriales s'élève à 4 % et 1,2 Mds? d'infrastructures de transports collectifs. Alors que l'amélioration de l'efficacité énergétique dans le résidentiel totalise le plus grand nombre d'emplois avec 98.000 équivalents temps pleins, les secteurs de l'équipement et de la vente d'énergies renouvelables se placent en deuxième position avec 52.000 emplois. L'étude dessine également un scénario de l'évolution de ces marchés à l'horizon 2012, sur la base des objectifs fixés lors du Grenelle de l'environnement et des tendances constatées au cours des dernières années. Ce scénario révèle une forte croissance des marchés liés à l'efficacité énergétique et aux EnR avec une croissance globale annuelle moyenne de 21 % d'ici 2012, atteignant 70 Mds ? en 2012. Le marché des équipements pour la production d'EnR augmenterait de 22 % par an en moyenne, dominé par les appareils de chauffage au bois, l'éolien, le photovoltaïque et les pompes à chaleur. Le nombre d'emplois liés à l'amélioration énergétique dans le résidentiel atteindrait ainsi 216.000 emplois en 2012, contre 98.000 en 2007. Quant au marché de l'efficacité énergétique, il atteindra 46 milliards d'euros en 2012, ce qui représente 2,5 % de notre PIB prévisionnel pour 2012 ! En France, le secteur du bâtiment est responsable de 21 % des émissions de CO2 et de 43 % de la consommation d'énergie finale en France. Le chauffage représente près des deux tiers de ces consommations d'énergie et la majeure partie des émissions de CO2 du secteur. Cependant, la consommation d'énergie totale des secteurs résidentiel et tertiaire confondus a augmenté dans le même temps de 30 % du fait de l'accroissement du parc, de l'élévation du niveau de confort (appareils électroménagers), de l'apparition de nouveaux besoins (climatisation). En France, parmi les 31,3 millions de logements, 19,1 millions, soit 61 % du parc, ont été construits avant la réglementation thermique de 1975. Avec un taux annuel de renouvellement du parc de 1 %, il restera en 2050 entre 30 et 40 % de logements antérieurs à 1975. Il est donc indispensable d'améliorer la performance des bâtiments existants. L'amélioration thermique de la totalité du parc existant nécessite des investissements importants. Les premières estimations financières laissent penser qu'au moins 600 milliards d'euros seraient nécessaires d'ici 2050, soit en moyenne 15 000 à 20 000 euros par foyer, c'est-à-dire 3 fois la dépense actuelle des travaux effectués par les ménages. Rappelons que la loi Grenelle prévoit une performance énergétique de 50 kWh/m2/an pour les constructions neuves dès 2012 et une réduction des consommations d'énergie du parc de bâtiments existants d'au moins 38 % d'ici 2020. Ce 1er juillet, la France a pris les rênes de la présidence de l'Union européenne pour les six prochains mois. Dans son allocution télévisée du 30 juin dernier, le président de la République, Nicolas Sarkozy, a affirmé que le « paquet climat-énergie », défini par la Commission européenne en janvier 2008, serait la priorité de la présidence française de l'Union. Les échéances de cette période sont cruciales. Sous la présidence française, le paquet énergie-climat devra aboutir à l'adoption de quatre textes : révision du marché européen de quotas de CO2, proposition de décision sur le « partage de l'effort » pour les secteurs hors quotas (agriculture, transports, bâtiments), réglementation des émissions de CO2 des véhicules individuels, directive-cadre sur les énergies renouvelables, dont le but est d'atteindre 20 % d'énergies renouvelables dans la consommation d'énergie de l'Union à l'horizon 2020, et proposition de directive sur le stockage géologique de CO2. Outre le paquet « énergie-climat », d'autres textes relatifs au changement climatique seront à l'ordre du jour pendant la présidence française : directive sur les émissions de CO2 des véhicules particuliers, livre vert sur la déforestation et le changement climatique, et proposition de directive visant à inclure les activités aériennes dans le système communautaire d'échanges de quotas d'émissions de gaz à effet de serre. Le secteur des transports étant une source importante de gaz à effet de serre (27 % des émissions de l'UE), la révision de la directive Eurovignette, relative à la taxation des poids lourds utilisant les infrastructures routières, devra aboutir à une meilleure prise en compte des externalités environnementales : changement climatique, bruit, congestion, pollution locale, atteintes à la biodiversité. Mais le « paquet climat-énergie » présenté en janvier 2008 par la Commission ne pourra être mené à bien que si nous inversons nos priorités, ce qui suppose de réduire à la source la demande et la consommation énergétique car l'énergie qui coûte la moins chère est toujours celle qu'on ne produit pas. L'Europe doit donc, de manière complémentaire à son effort en faveur des énergies renouvelable, s'attaquer au gaspillage, alors que les importations d'énergie coûtent un milliard d'euros par jour à l'Union européenne. Or toutes les études montrent qu'un euro investi dans les économies d'énergie est plus rentable qu'un euro investi dans les capacités de production. Les objectifs climatiques ne pourront être atteints qu'à la condition que la lutte contre le gaspillage énergétique devienne un objectif prioritaire et contraignant. L'efficacité et la sobriété énergétique doivent cesser d'être considérées comme des variables d'ajustement de la politique énergétique européenne et devenir les principes fondamentaux de l'action politique et économique, en Europe comme en France. A cet égard, une étude éclairante de l'Agence européenne de l'environnement montre qu'au niveau mondial, l'efficacité énergétique représente à elle seule plus de 60 % du gisement de réduction des émissions de CO2 d'ici 2050, c'est-à-dire plus que les ER, le stockage de carbone et les biocarburants réunis. Le développement plus rapide de l'efficacité énergétique et la réduction à la source de nos besoins en énergie sont donc les premiers leviers à utiliser pour parvenir à diviser par quatre nos émissions de CO2 par européen d'ici 2050 et à décarbonner presque totalement notre production d'énergie d'ici la fin de ce siècle, ce qui est absolument nécessaire pour limiter à un niveau supportable le réchauffement climatique inexorable de la planète. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Une voiture fonce dans la nuit. Au détour d'un virage, son conducteur n'a pas le temps de voir le véhicule immobilisé en travers de la chaussée... C'est l'accident. Derrière, d'autres voitures viennent s'encastrer dans les premiers. Le carambolage est inévitable. Ce scénario catastrophe aurait pu être évité si le conducteur avait été alerté à temps de la présence d'un obstacle quelques centaines de mètres devant lui. Comment ? Grâce à un système de communication sans fil entre véhicules. L'industrie automobile planche sur le sujet depuis plusieurs années. Elle a reçu le mardi 5 août 2008 un coup de pouce de la part de la Commission européenne qui a réservé à ces applications une bande de fréquence unique sur l'ensemble du territoire européen (5,85 à 5,92 GHz). « C'est une décision très importante, insiste Jacques Ehrlich, directeur du Livic (Laboratoire sur les interactions véhicules-infrastructure-conducteurs). Car elle ouvre la porte au déploiement d'un standard de communication entre véhicules et avec les équipements de bord de route. » La technologie Wave (Wireless Access for the Vehicular Environment) est une sorte de Wi-Fi mobile offrant une portée de l'ordre d'un kilomètre et un débit théorique de plusieurs Mbit/s. Elle est en cours de ratification au sein de l'IEEE sous la référence 802.11p. Les projets s'appuyant sur ces dispositifs de communication embarqués dans les voitures sont très nombreux. Un véhicule repérant une zone glissante sur la chaussée pourrait ainsi alerter les autres automobilistes circulant dans les environs. La présence d'un embouteillage pourrait être signalée de la même manière. « Chaque voiture équipée devient un capteur d'informations qui transmet sa localisation et sa vitesse à un centre de gestion de trafic qui peut informer le réseau routier », explique le chercheur du Livic. De quoi améliorer considérablement les dispositifs actuels d'info trafic très limités géographiquement. Dans ce cas précis, des équipements de bord de route pourraient servir de relais de communication avec le centre de gestion. « On peut aussi imaginer des panneaux communicants qui délivreront à la volée aux véhicules des informations sur la limitation de vitesse, les conditions de circulation, la présence de travaux, une visibilité réduite... », précise Jacques Ehrlich. Les coûts de maintenance risquent toutefois de limiter le déploiement de ces dispositifs. Dans un premier temps, les industriels pourraient équiper les nombreux panneaux d'affichage électronique disséminés le long des autoroutes. les premières applications pourraient voir le jour d'ici à cinq ans. OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Les demandes accrues pour la fabrication de robots se rapprochant de l'aspect humain et le désir des chercheurs de concevoir des objets mécaniques qui se manient aisément les ont incité à créer un nouveau matériau à la fois élastique et conducteur de courants électriques. Les scientifiques japonais présentent une matière textile qu'ils tentent de substituer aux polymères actuellement employés pour le recouvrement des parties extérieures des pièces robotiques. La douceur et la flexibilité ainsi que cette étonnante propriété de transporter l'électricité constituent une découverte dans le monde scientifique. Ce nouveau matériau double, en extension, ses dimensions premières. Cette substance surpasse en conductibilité 570 fois le caoutchouc lorsqu'elle est correctement étirée. La mise au point de ce produit permet d'entrevoir diverses applications dans le domaine de la robotique dont une amélioration de la qualité de revêtement des robots qui accompagneront les hommes dans leur quotidien. Les polymères et silicones d'utilité courante dans la fabrication de l'épiderme artificiel, malgré leur maniabilité, ne peuvent à ce jour, effectuer la conduction électrique. Les nanotubes de carbonne, présents dans ce matériau, présentent une mobilité électronique supérieure. On estime à un faible coût la fabrication de cette substance. Les créateurs de ce nouveau matériau, de l'université de Tokio, envisagent d'y recourir également à d'autres fins tel que le recouvrement des volants des voitures. L'analyse de différents paramètres, suite à la pression des mains sur le volant, permettrait de révéler un état d'incapacité de prendre la route d'un conducteur aux facultés affaiblies. Certains se plaisent à entrevoir d'autres fonctions utilitaires. Un matelas que l'on recouvrerait de ce tissu conducteur, par la référence aux positions prises durant le sommeil, détecterait les causes de certaines pathologies attribuables aux différentes postures du dormeur. Ces données susciteraient des actions préventives afin de remédier à divers maux. Le port de vêtements confectionnés dans ce matériau identifierait certains paramètres physiologiques. Les chercheurs n'excluent aucunement la possibilité que ce produit entre dans la fabrication d'écrans souples. Les scientifiques poursuivent leur travail de recherche en vue de parfaire ce polymère élastique avant de mettre sur le marché les produits innovateurs qui en découlent. SLT
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le Grand collisionneur de hadrons (LHC), le plus grand accélérateur de particules du monde, a été mis en route mercredi près de Genève, avec pour mission de percer les secrets de la matière et de l'univers. Un premier faisceau de protons a été injecté juste après 07H30 GMT dans le LHC, un anneau de 27 km de circonférence enfoui à 100 mètres sous terre de part et d'autre de la frontière franco-suisse. "Après l'injection du faisceau, il a fallu attendre environ 5 secondes pour l'acquisition des données", a déclaré le directeur du projet LHC, Lyn Evans. Les collisions de protons qui seront provoquées au sein du LHC devraient permettre de détecter des particules élémentaires inobservées à ce jour, dont le boson de Higgs, pierre manquante du "Modèle standard" des particules élémentaires qui composent la matière. Les très hautes énergies mises en oeuvre propulseront les particules à plus de 99,9999 % de la vitesse de la lumière et permettront de recréer pendant une fraction de seconde l'état de l'univers lors du big bang, c'est à dire à sa naissance il y a 13,7 milliards d'années. Le projet, d'un coût de 3,76 milliards d'euros, a mobilisé pendant plus d'une décennie des milliers de physiciens et d'ingénieurs du monde entier. Cet outil, sur lequel environ 5.000 physiciens et ingénieurs travaillent depuis plus de 10 ans, est le plus grand projet scientifique de ces dernières années. Robert Aymar, le directeur général de l'Organisation européenne pour la recherche nucléaire (Cern), se dit persuadé qu'il "permettra d'aboutir à des découvertes qui changeront notre vision du monde et en particulier de sa création". Depuis 1996, le Cern a construit à 100 mètres sous terre près de Genève un anneau de 27 km de circonférence refroidi durant deux ans pour atteindre 271,3°C, soit juste 1,9°C de plus que le zéro absolu. Autour de l'anneau sont installés quatre grands détecteurs au sein desquels vont se produire des collisions de paquets de protons (particules de la famille des hadrons, d'où le nom du "Grand collisionneur de hadrons"). Leur vitesse atteindra jusqu'à 99,999 % de celle de la lumière (environ 300.000 km par seconde). A pleine puissance, 600 millions de collisions par seconde génèreront une floraison de particules, dont certaines n'ont jamais encore pu être observées. Pour trier les 15 millions de gigaoctets de données recueillis chaque année, 11 grands centres répartiront l'information brute à 200 sites à travers le monde, qui la stockeront et l'analyseront. Parmi les détecteurs, Atlas et CMS vont traquer le boson de Higgs, une particule élémentaire qui conférerait une masse à certaines autres particules, et dont l'absence bouleverserait la physique théorique. "Il y a une très forte probablité pour que le boson de Higgs puisse être observé", estime toutefois Yves Sacquin, de l'Institut de recherche sur les lois fondamentales de l'univers (Irfu) à Saclay, près de Paris. Au-delà du Higgs, "nous sommes convaincus qu'il existe de très nombreuses particules beaucoup plus lourdes que celles que nous connaissons avec très peu d'interactions et qui sont présentes dans l'univers. C'est ce que nous appelons sans doute la matière noire", explique pour sa part M. Aymar. Pour lui, "il est certain que le LHC fournira l'identification et la compréhension de cette matière noire", qui compte pour 23 % de l'univers, alors que la matière ordinaire ne compte que pour 4 % (le restant étant constitué d'énergie sombre). Un autre détecteur, le LHCb, tentera de trouver où est passée l'antimatière, présente au moment du big bang en quantité égale avec la matière. Enfin, le détecteur Alice s'intéressera aux collisions d'ions plomb, pour récréer durant le temps d'un éclair la soupe primordiale de quarks et de gluons qui formait la matière durant les premières microsecondes de l'univers, avant la formation des protons. Après le démarrage du deuxième faisceau, qui tourne en sens inverse du premier, des collisions seront provoquées à des énergies de plus en plus élevées, jusqu'à atteindre sept fois la puissance du Fermilab américain, qui était jusqu'à présent l'accélérateur le plus puissant. Le projet a coûté 3,76 milliards d'euros. "Cette machine donnera vraisemblablement des résultats inattendus. Ces données risquent de bouleverser la physique des particules élémentaires", a expliqué le physicien français Hubert Reeves. "C'est vraiment un outil impressionnant. Les puits pour descendre le matériel ont une taille par laquelle il serait possible de faire passer une cathédrale", insiste-t-il. Le physicien britannique Stephen Hawking a pour sa part indiqué mardi avoir parié 100 dollars que le LHC ne trouverait pas le boson de Higgs. Ne pas le découvrir ne serait pas un échec, selon le scientifique britannique. "Ce que le LHC trouve, ou n'arrive pas à trouver, nous en dira long sur la structure de l'univers", a-t-il dit. LHC
|
|
|
|
|
|
|
|
Des scientifiques ont lancé un appel pour accélérer le développement de l'énergie solaire dont la technologie est en passe de devenir compétitive, lors d'une conférence internationale qui s'est achevée le 5 septembre à Valence. Le secteur de l'énergie photovoltaïque affiche un rythme de développement important de l'ordre de 40 % par an, mais la part de l'énergie solaire dans l'électricité produite demeure anecdotique, a souligné le Français Daniel Lincot, chercheur au CNRS, durant cette conférence. "La production mondiale de modules photovoltaïques en 2007 a représenté une surface de 40 kilomètres carrés alors que pour couvrir la consommation électrique de pays comme la France ou l'Allemagne, il faudrait environ 5.000 km2", a souligné ce chimiste, spécialiste de l'énergie photovoltaïque, lors d'une intervention. "Les ressources en énergie solaire sont énormes et distribuées partout dans le monde, dans tous les pays et aussi sur les océans", a souligné M. Lincot qui présidait cette 23e Conférence européenne de l'énergie solaire photovoltaïque. La compétitivité du photovoltaïque face aux autres énergies est "une perspective à court terme" alors que les coûts des composants des panneaux solaires sont de plus en plus bas, a assuré M. Lincot. Le scientifique a appelé à "accélérer le déploiement" des panneaux solaires dans le contexte actuel "d'urgence" en matière d'énergie pétrolière et de changement climatique. Selon les scénarios actuels, l'énergie solaire représentera en 2020, 3 % de la production d'électricité en Europe, ce qui couvrira une surface de 1.000 km2 tandis que le véritable démarrage du photovoltaïque est attendu pour 2030/2050. Des scientifiques et industriels du secteur ont lancé, lors de cette conférence, un appel international pour "accélérer le développement mondial" de l'énergie solaire, signé par "plus de 200 personnalités", selon M. Lincot. La conférence a rassemblé 3.500 experts et 715 entreprises du secteur du 1er au 5 septembre à Valence. L'Allemagne et l'Espagne sont les deux pays leaders en matière d'énergie solaire, avec respectivement 4.000 et 600 mégawatts de capacité installés. Yahoo
|
|
|
|
|
|
|
|
Dans un contexte de diminution du pouvoir d'achat, et alors que les émissions polluantes ne cessent d'augmenter, de plus en plus de particuliers et professionnels s'interrogent sur le recours aux énergies renouvelables. Mais recourir à l'installation de panneaux solaires photovoltaïques est-il, en définive, une affaire rentable ? Par arrêté du 10/07/06, EDF doit conclure avec chaque producteur (y compris particulier) qui en fait la demande, un contrat dit « d'obligation d'achat », dont la durée et les tarifs sont fixés par la Direction de la demande et des marchés énergétiques (DIDEME) après négociations avec les fédérations de producteurs. Dans l'état actuel des choses, les conditions du rachat sont fixées de la façon suivante : - Métropole : 30 c?/kWh , + prime d'intégration au bâti de 25 c?/kWh - Corse, DOM, Mayotte : 40 c?/kWh , + prime d'intégration au bâti de 15 c?/kWh. Avant de se lancer dans l'installation de panneaux solaires photovoltaïques, il faut encore définir en amont si ladite installation sera rentable d'un point de vue économique ! Pour vous permettre d'estimer la rentabilité de votre future installation, de nombreux paramètres rentrent en ligne de compte : - capacité de production électrique des panneaux solaires, - emplacement géographique, - recours à un emprunt bancaire ou autofinancement, - coût des assurances,etc... Quelques-uns s'en sont arraché les cheveux et y ont passé des nuits blanches ! Il était temps qu'un programme web simple d'accès permette de calculer immédiatement le retour sur investissement de votre projet. C'est désormais chose faîte avec le nouvel outil de calcul de rentabilité de panneaux solaires photovoltaïques. En un seul formulaire simple d'accès, anonyme et gratuit proposé sur le lien ci-dessous, vous pouvez faire l'estimation de ce que vous pourriez gagner en revendant à EDF l'électricité produite grâce au soleil dont vous bénéficiez chaque jour ! Vous accéderez alors au contenu détaillé, année par année, des gains que vous allez réaliser. Mieux encore, le calcul vous informe du délai de retour sur investissements de l'installation. ER
|
|
|
|
|
|
|
|
Les centrales électriques européennes vieillissent lentement mais sûrement. Des experts estiment que des nouvelles centrales d'un rendement total de 200.000 mégawatts (soit environ 200 grandes centrales ) devront être construites d'ici 2020. Etant donné que les énergies renouvelables ne pourront combler à moyen ou long terme ce manque, le charbon occupera toujours une place importante. Ce combustible ne fait toutefois pas l'unanimité en raison des émissions de CO2 qu'il génère, et le renforcement de son utilisation n'est pas en accord avec le protocole de Kyoto qui préconise une réduction mondiale des émissions de dioxyde de carbone. Il est ainsi nécessaire d'augmenter le degré d'efficacité des centrales afin de produire plus d'électricité à partir du combustible, mais aussi moins de CO2. Des chercheurs de six chaires de l'université RWTH d'Aix la Chapelle travaillent en commun avec les entreprises RWE Power, E.ON, Siemens et Linde sur le projet OXYCOAL-AC pour concrétiser cet objectif. Le projet OXYCOAL-AC est financé dans sa première phase à hauteur de 6 millions d'euros par le Ministère de l'Economie et du Travail (BMWA), le Ministère de la Science et de la Recherche (MWF) du Land de Rhénanie du Nord Westphalie ainsi que des partenaires industriels. C'est le premier projet retenu dans le cadre du programme "concept de recherche et développement de centrales à énergies fossiles à faibles émissions" (COORETEC) mis en place par le BMWA à la fin 2003. La première phase du projet intitulée "Développement de composants" vient de s'achever avec succès : les chercheurs ont réussi a développer une technique membranaire à haute température, grâce à laquelle ils peuvent produire du dioxygene pur à des températures "relativement basses", c'est-à-dire à environ 850 degrés Celsius. A cette température, la membrane, de structure cristalline perovskite, entre en vibration et laisse ainsi passer les ions d'oxygène. La combustion du charbon avec de l'oxygène pur, réalisée avec réinjection du gaz dégagé dans le milieu de combustion, doit permettre de produire de l'électricité sans émission de CO2. La deuxième étape du projet, qui démarre désormais et qui durera trois ans, consiste à démontrer la faisabilité de ce procédé sur une installation pilote. Comme le souligne le Professeur Kneer de la RWTH, "même si les énergies renouvelables sont prometteuses, très vite elles ne pourront pas couvrir les besoins énergétiques, ni en Europe, ni ailleurs". Si les résultats des tests sont satisfaisants, le procédé pourrait être applique à grande échelle d'ici 2020. BE
|
|
|
|
|
|
|
|
La Californie s'est donné des objectifs ambitieux : elle souhaite que 20 % de toute son énergie soit un jour fournie par de l'énergie dite renouvelable. C'est dans cette perspective que deux sociétés américaines vont doter la Californie du plus grand parc de panneaux solaires au monde. Ces nouvelles installations pourront fournir 12 fois plus d'électricité que la plus importante installation du genre à l'heure actuelle. Par une journée ensoleillée, ces installations seront en mesure de produire 800 mégawatts d'énergie, soit sensiblement la même quantité qu'une petite centrale nucléaire. Un mégawatt est la quantité d'énergie nécessaire pour faire fonctionner un grand magasin de vente au détail comme Wal-Mart. Pacific Gas & Electric, le principal distributeur d'électricité californien, a signé l'accord le 14 août. Il achètera l'électricité de deux sociétés locales de cellules photovoltaïque : OptiSolar, qui construira un premier parc de panneaux solaires de 550 MW, tandis que SunPower a annoncé un projet de 250 MW. Les deux parcs, bâtis entre San Francisco et Los Angeles, devraient être complétés en 2013, rapporte le New York Times. Pacific Gas & Electric compte ainsi respecter le mandat californien obligeant chaque distributeur d'électricité à obtenir au moins 20 % de son électricité de sources renouvelables pour 2010 : l'accord avec OptiSolar et SunPower devrait lui permettre d'atteindre 24 % d'énergie renouvelable en 2013. Une avancée de taille pour une meilleure accessibilité de l'énergie photovoltaïque : avec une énergie générée 35 fois plus grande que la plus grosse installation mondiale actuelle (23 MW au sud-est de l'Espagne), l'échelle de ces deux projets devrait permettre d'obtenir un coût de génération beaucoup plus faible que pour les installations existantes. PG&E affirme à ce sujet que l'électricité générée par ces projets sera compétitive avec le prix de l'énergie éolienne. Deux compagnies ont été retenues pour ce projet : Optisolar et Sun Power Corporation. Ces deux compagnies mettent de l'avant des technologies différentes. Une est simple et peu coûteuse, avec des panneaux fixes, alors que l'autre est plus efficace et plus compliquée puisque les panneaux pivotent pendant la journée, selon l'orientation du soleil. Pour mettre les choses en perspective, il faut savoir qu'avec ses 800 mégawatts de puissance d'énergie solaire, la Californie fera bande à part. Les installations du genre les plus puissantes des États-Unis peuvent produire 14 mégawatts, alors que l'Espagne possède un parc d'une capacité de 23 mégawatts et l'Allemagne en a un de 40 mégawatts. Canoe
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les 21 glaciers encore existant dans les Pyrénées auront tous disparu avant 2050 en raison du réchauffement climatique, anticipe une étude de chercheurs universitaires espagnols. "La montée progressive de la température --un total de 0,9 degré celsius de 1890 jusqu'à maintenant-- confirme que les glaciers pyrénéens disparaîtront avant 2050, selon les experts", explique un site officiel d'informations scientifiques espagnols, SINC. Cette disparition est la conséquence du "réchauffement climatique que nous sommes en train de vivre" a commenté le professeur de l'Université de Cantabrie, Juan José Gonzalez Trueba qui a dirigé l'étude. "Les hautes montagnes sont des espaces particulièrement sensibles aux changements climatiques et environnementaux et dans cet espace, l'évolution des glaciers (...) est un des indicateurs les plus efficaces pour mettre en évidence le réchauffement global que nous vivons actuellement" explique le scientifique. Des chercheurs des universités de Cantabrie, Madrid et Valladolid ont réalisé une "première étude globale" de l'évolution du processus de dégel des trois zones de haute montagne du territoire espagnol : Pyrénées et Sierra Nevada (sud), selon SINC (Service d'information et de nouvelles scientifiques). "Entre 1880 et 1980, au moins 94 glaciers ont disparu dans la Péninsule ibérique et des années 80 jusqu'à nos jours, 17 autres glaciers ont disparu", écrit SINC. Il n'existe aujourd'hui plus que 21 glaciers, tous dans les Pyrénées, dont 10 côté espagnol et 11 côté français, qui occupent une surface totale de 450 hectares. "De 1990 à nos jours, les calculs ont démontré que le rapide dégel a provoqué la disparition totale des glaciers les plus petits et la réduction de 50 à 60 % de la superficie des plus grands", explique ce site spécialisé. Le glacier le plus au sud de l'Europe qui était situé dans la Sierra Nevada, a disparu au début du 20e siècle tandis que dans les Pics d'Europe, des glaciers relevés par des voyageurs et naturalistes à la fin 19e, ne sont plus également qu'un souvenir. Yahoo
|
|
|
|
|
|
|
|
Le maire de New York, Michael Bloomberg, a proposé le 19 août, au cours du "Sommet national pour l'énergie propre", organisé par l'Université du Nevada, le sénateur démocrate Harry Reid et le "Centre américain pour l'action et le progrès", un vaste programme visant à la fois à stabiliser la consommation d'énergie de New York et à produire à terme un tiers de l'électricité new yorkaise à l'aide des énergies renouvelables. Bloomberg propose notamment d' installer des éoliennes sur les gratte-ciel et ponts de New York, et face à la ville dans l'Océan Atlantique. "Il y a exactement cinq ans, le 14 août 2003, ce pays a reçu une leçon magistrale des risques que nous courons dans le futur si nous ne changeons pas le cours des choses", a déclaré le maire, évoquant le gigantesque "black out" qui avait plongé dans l'obscurité pendant 24 heures tout le nord-est des Etats-Unis , affectant 40 millions d'habitants dans huit Etats américains et 10 millions de Canadiens. "Ma ville, New York, fut concernée. Et en tant que maire, je n'oublierai jamais ce qui s'est passé (...): Broadway s'est éteinte, les trois aéroports se sont arrêtés, des milliers de personnes ont été bloquées dans les ascenseurs, les métros, les secouristes ont dû évacuer des milliers d'usagers à travers des tunnels sombres", a ajouté M. Bloomberg. "Nous avons compris que cette fois-ci l'ennemi n'était pas le terrorisme mais nous-mêmes et notre incapacité à rénover nos infrastructures", a-t-il souligné. "Nous pourrions tirer de l'énergie des fleuves qui entourent New York, l'Hudson et l'East River, nous avons déjà un projet pilote en cours, équiper de panneaux solaires toutes les administrations, les écoles et les hôpitaux. Et pourquoi des entreprises n'installeraient-elles pas des éoliennes sur nos ponts et gratte-ciel. Pourquoi n'utiliseraient-elles pas l'énorme potentiel des vents de l'Océan Atlantique pour y planter des éoliennes off-shore" ?, a encore lancé le maire. Pour Michael Bloomberg, le premier défi est de "conserver notre usage de l'énergie à son niveau actuel, même si notre population augmente." Ainsi la consommation énergétique des services de la municipalité devra-t-elle être réduite de 30 % d'ici 2017, ce qui permettra de retirer 220 MW de la demande. Plusieurs villes américaines travaillent actuellement à la mise au point de standards d'efficacité énergétique pour les bâtiments, a-t-il ajouté. Ce plan, baptisé "PlaNYC" envisage la généralisation des panneaux solaires sur les toits de la ville, ainsi que l'installation d'éoliennes sur les gratte-ciels et sur les ponts. "Nous avons estimé que le solaire pourrait répondre à près de 20 % des besoins de la ville en électricité" a-t-il avancé. Et l'installation de parcs éoliens en mer pourrait répondre à 10 % des besoins d'ici 2018. Bloomberg a prévenu que les efforts d'investissement nécessaire pour éviter un nouveau black-out seraient considérables. Ainsi, d'après les chiffres du Département Americain à l'Energie, adapter le réseau du pays à la présence de 20 % d'énergie éolienne nécessiterait 60 milliards de dollars d'investissement d'ici 2030. NYC
|
|
|
|
|
|
|
|
Des scientifiques n'écartent plus désormais la perspective d'une fonte à grande vitesse des glaces du Groenland, qui entraînerait alors une montée des eaux qui submergerait une grande partie des régions littorales du globe. Dans une étude publiée le 31 août en ligne sur le site de la revue Nature Geoscience, une équipe américaine rapporte qu'à l'ère glaciaire, la grande banquise des Laurentides qui recouvrait alors la majeure partie du continent nord-américain avait fondu beaucoup plus rapidement qu'imaginé, déversant des milliards de tonnes d'eau dans les océans. Cette découverte soulève de graves interrogations sur la pérennité future du Groenland, puisque la fonte des Laurentides avait été provoquée par une hausse des températures qui pourrait bien se reproduire d'ici la fin du siècle, expliquent ces chercheurs. "La fonte des glaciers était toujours apparue comme un processus extrêmement lent. Mais ces nouvelles preuves surgies du passé, couplées avec les modèles climatiques, nous montrent qu'il est tout sauf lent !", rapporte la climatologue Allegra LeGrande de la New York Columbia University. "Par le passé, les banquises se sont montrées très réactives aux changements climatiques, laissant entendre qu'il pourrait en aller de même à l'avenir", ajoute-t-elle. Dans son 4e rapport publié en 2007, le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC : expertise croisée multinationale mandatée par l'ONU, Prix Nobel de la Paix 2007, NDR), a renoncé à chiffrer la hausse possible du niveau des océans au 21e siècle du fait des inconnues pesant sur l'évolution du Groenland et sur l'Antarctique, les deux principales réserves de glaces du globe. Selon les estimations, une fonte totale du Groenland provoquerait une élévation de la mer de sept mètres. Pour explorer le passé, Anders Carlson de l'Université du Wisconsin a fouillé avec son équipe les sédiments laissés par la banquise des Laurentides : à son apogée il y a environ 20.000 ans, cette couche de glace atteignait trois km d'épaisseur et s'étendait du sud de New York jusqu'à l'actuel Ohio. Jusqu'à une vague de réchauffement, semble-t-il causée par une légère déviation de l'axe de rotation de la Terre qui a davantage exposé la Terre aux rayonnements solaires. L'équipe du Professeur Carlson a recherché des marqueurs radioactifs laissés par les déchets organiques dans les sédiments afin d'établir le rythme et la cartographie de la fonte, puis d'en comparer les données avec les niveaux historiques des océans relevés sur les coraux. Selon ces observations, la banquise a fondu en deux phases très rapides : la première il y a 9.000 ans a provoqué une hausse du niveau des océans de sept mètres - à raison de 1,3 cm par an. La seconde, il y a 7.500 ans a rajouté cinq mètres d'élévation (0,4 cm par an). Par comparaison, le niveau des mers augmente aujourd'hui de 3,3 mm chaque année. Les scientifiques font valoir que le Groenland est une île baignée par des eaux froides et que sa géologie n'est pas celle de l'Amérique du nord : par conséquent l'expérience des Laurentides ne devrait pas se rééditer exactement dans les mêmes termes. Cependant, les projections les plus élevées du GIEC pour la fin du siècle sont conformes aux données connues qui ont provoqué la disparition de la banquise aux Laurentides, soulignent-ils. D'autant que le Groenland est de taille nettement plus modeste. Pour les spécialistes des sciences de la Terre, Mark Siddall et Michael Kaplan, ces nouveaux travaux "laissent penser qu'une fonte du Groenland de l'ordre d'un mètre par siècle ne peut plus être écartée". NGS
|
|
|
|
|
|
|
|
Le CIER, organisme de recherche américain, a réalisé une étude en s'intéressant à l'impact économique du changement climatique et aux coûts de l'inaction dans différentes régions des Etats-Unis. Les scientifiques ont constaté que les coûts directs de l'inaction face aux défis du changement climatique sont complètement négligés. Pourtant, tous les secteurs de l'économie seront affectés. Les infrastructures essentielles au maintien du niveau de vie, comme l'approvisionnement en eau ou le traitement des eaux usées, seront touchées. Et les écosystèmes sur lesquels la qualité de vie repose, comme les forêts, rivières et lacs, souffriront. Tous ces coûts ne sont habituellement pas pris en compte dans les calculs. Le CIER, en présentant une vue d'ensemble des impacts climatiques sur des secteurs économiques divers aux EU, tire cinq leçons clés : 1. Les impacts économiques du changement climatique affecteront tous les Etats-Unis. 2. Ces impacts économiques seront inégalement distribués à travers les régions et les secteurs. 3. Les impacts climatiques négatifs seront plus importants que les bénéfices dans la plupart des secteurs qui fournissent des biens et services essentiels à la société. 4. Les impacts du changement climatique produiront d'immenses tensions sur les budgets du secteur public. 5. Les effets secondaires des impacts climatiques peuvent induire des prix plus élevés, une réduction des revenus et des suppressions d'emplois. Une politique nationale pour l'action immédiate, couplée avec des efforts d'adaptation aux impacts inévitables, réduira significativement les coûts globaux du changement climatique. D'après le CIER, le gouvernement fédéral américain devrait organiser et financer des études spécifiques secteur par secteur afin d'aider à orienter la politique climatique et l'investissement. Cier
|
|
|
|
|
|
|
|
Il s'agit d'un système qui provoque la circulation de l'air dans un bâtiment pour provoquer l'expulsion de l'air chaud et l'aspiration d'air froid, généralement en provenance d'une zone souterraine comme une cavité abritant un cours d'eau souterrain. Ce genre de système permet de refroidir un bâtiment sans consommer d'énergie. Dans le même genre, la cheminée solaire provoque elle aussi la circulation de l'air. Mais dans ce cas-la, nul besoin de vent. La cheminée est conçue pour absorber la chaleur, elle chauffe l'air qu'elle contient, ce qui provoque naturellement son ascension et son expulsion par la cheminée. Une aspiration d'air a donc lieu simultanément, généralement de l'air frais qui a auparavant circulé dans le sol pour être refroidi. Ces deux systèmes présentent globalement le même défaut, l'investissement nécessaire est assez lourd. Toutefois, leur avantage écologique est indéniable, particulièrement dans les régions tempérées, où ces systèmes peuvent suffire pour éviter totalement le recours à une climatisation classique. Ce n'est donc pas le cas en Inde, mais malgré tout, un premier bâtiment, associant ces deux systèmes est en cours de construction à New Delhi, au Centre for Science and Environment (CSE). L'idée d'associer les deux systèmes est celle d'un ingénieur mécanicien de Jaipur, M. Jyotirmay Mathur, qui travaille au Malaviya National Institute of Technology et de Rajeev Kathpalia, pour Vastu Shilpa Consultant, un cabinet d'architecture basé à Ahmedabad. Inderscience
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des scientifiques américains ont découvert un gène jouant un rôle clé dans la production d'anticorps neutralisant des rétrovirus. Cette avancée ouvre la voie à la mise au point d'un vaccin contre le sida, selon des travaux prometteurs publiés récemment aux Etats-Unis. Cette découverte faite sur des souris paraît aussi expliquer pourquoi certaines personnes exposées au VIH (virus de l'immunodéficience humaine) responsable du sida ne sont jamais infectées, relèvent les auteurs de cette étude parue dans la revue Science datée du 5 septembre. Ce gène, appelé Apobec3, qui existe aussi chez les humains et se situe au même endroit sur le chromosome, contrôle la capacité des souris à produire des anticorps neutralisant des rétrovirus qui leur permettent de combattre avec succès des infections. Ces chercheurs font l'hypothèse que ce gène pourrait jouer le même rôle chez les humains et neutraliser le rétrovirus responsable du sida. Cette hypothèse est confortée par de précédentes études montrant que les protéines produites par Apobec3 ont des propriétés anti-VIH et que la région du chromosome où se trouve ce gène exerce une influence sur la capacité de ce virus à infecter l'organisme. "Cette avancée met en évidence un mécanisme génétique potentiel de production d'anticorps capables de neutraliser le virus du sida, ce qui est essentiel pour empêcher l'infection", souligne dans un communiqué le Docteur Anthony Fauci, directeur de l'Institut national américain des allergies et des maladies infectieuses (NIAID). "D'autres recherches sur la fonction du gène Apobec3 chez les humains pourraient conduire à la découverte de médicaments et vaccins contre le sida", ajoute-t-il. Les anticorps sont la clé pour combattre avec succès des infections virales et la plupart des vaccins stimulent la production d'anticorps visant un virus en particulier. Mais malgré un quart de siècle de recherche et la mobilisation d'importantes ressources, la médecine n'a pas encore pu mettre au point un vaccin efficace contre le virus du sida sans lequel cette pandémie, déjà responsable de plus de 25 millions de morts, ne peut-être maîtrisée. "Cette découverte apporte une nouvelle dimension à notre compréhension du mécanisme biologique d'Apobec3 qui pourrait nous aider à résoudre le casse-tête de la neutralisation du virus du sida", relève le Docteur Warner Greene, directeur du Gladstone Institute of Virology and Immunology de l'Université de Californie (ouest), principal auteur de ces travaux. L'hypothèse selon laquelle le gène Apobec3 joue un rôle non seulement dans la capacité du VIH à provoquer une infection mais aussi dans la réponse immunitaire de l'organisme à ce virus avait été avancée à la vue des résultats d'une étude précédente. Cette recherche avait montré que la région chromosomique humaine contenant plusieurs gènes Apobec3 est liée aux réponses anti-VIH chez un groupe d'Italiens qui ne sont jamais devenus séropositifs malgré de nombreux contacts sexuels avec leurs partenaires infectés. Les travaux du Gladstone Institute et du NIAID apportent également un nouvel éclairage sur la manière dont le virus du sida utilise l'une de ses propres protéines, appelée Vif, pour détruire deux protéines humaines produites par le gène Apobec3. Etant donné le fait qu'Apobec3 paraît jouer un rôle important pour aider le système immunitaire à produire des anticorps contre des rétrovirus, la destruction de ces deux protéines par Vif pourrait expliquer pourquoi la plupart des individus ne fabriquent pas d'anticorps contre le virus du sida. "Nos recherches sur les souris laissent penser que la neutralisation de la protéine Vif permettrait d'obtenir une plus forte réponse immunitaire contre le VIH", explique le Docteur Kim Hasenkrug, du NIAID, co-auteur de l'étude, jugeant cette voie prometteuse. Science
|
|
|
|
|
Bientôt, la médecine pourrait avoir une nouvelle arme de choix dans la lutte contre le cancer : les nanoaimants. L'idée est ancienne, mais plusieurs équipes sont en train de donner un tour concret à leurs recherches. Mille fois plus petits que le diamètre d'un cheveu humain, les nanoaimants permettent de cibler et de tuer les cellules cancéreuses sans toxicité pour les tissus sains. Les nanoaimants se fixent grâce à des marqueurs précisément sur la tumeur, puis un champ magnétique extérieur est appliqué. Il fait monter la température entre 45 et 50°C, ce qui tue les cellules adjacentes sans aucune toxicité pour les autres. MagForce Nanotechnologies AG, une entreprise allemande, espère obtenir une autorisation de mise sur le marché en Europe dès 2010. JI
|
|
|
|
|
|
|
|
Des chercheurs américains ont eu du nez : le cancer de la peau dégage une odeur particulière. "Les chercheurs soupçonnaient depuis longtemps que des odeurs émanaient des tumeurs mais nous sommes les premiers à identifier et à mesurer les composants contenus dans ces odeurs", affirme Michelle Gallagher, principale auteur de cette étude et chimiste au Monell Chemical Senses Center à Philadelphie. Cette étude devait être présentée à la dernière conférence annuelle de l'American Chemical Society à Philadelphie. Pour déterminer si les odeurs de la peau changeaient chez des personnes atteintes d'un cancer de la peau, cette scientifique et d'autres chercheurs ont utilisé des techniques avancées de chromatographie, une méthode d'analyse physico-chimique. Cette méthode leur a permis d'échantillonner et analyser l'air se trouvant juste au-dessus des tumeurs de onze patients diagnostiqués avec un épithélioma basocellulaire, la forme la plus commune de cancer de la peau. Plus d'un million de nouveaux cas de ce cancer sont diagnostiqués chaque année. Ils ont ensuite comparé le profil des substances chimiques détectées au-dessus des tumeurs des onze malades afin d'obtenir un profil chromatographique. "Nous avons trouvé un profil d'odeurs au-dessus des tumeurs différent de celui des tissus sains", indique Michelle Gallagher. "Les mêmes composants chimiques sont présents dans les deux cas mais à proximité des tumeurs cancéreuses certaines de ces substances augmentent tandis que d'autres diminuent comparativement à la peau de personnes saines", poursuit-elle. Les chercheurs n'ont donné aucune précision quant aux composants découverts car ils ont indiqué avoir déposé une demande de brevet pour cette technique. Ils prévoient de pouvoir identifier un "profil d'odeurs" fiable pour les trois types de cancer de la peau, dont le carcinome malpighien et le mélanome, la forme la plus grave. "Cette avancée ouvre la voie à de nouvelles approches potentielles pour diagnostiquer le cancer de la peau basé sur un profil d'odeurs de la peau qui, nous l'espérons, conduira à des diagnostics plus rapides et sans faire de prélèvements", selon Michelle Gallagher. L'équipe espère pouvoir combiner leur technique avec la technologie émergente des nano-détecteurs ou "nez électroniques" qui permettent d'identifier des produits chimiques odorants. La chercheuse envisage la création d'un "nez électronique" que les médecins pourront passer sur la peau et qui déclenchera une alarme quand l'instrument reniflera la présence d'un cancer. Monell
|
|
|
|
|
|
|
|
Une étude menée par des chercheurs du centre national du cancer au Japon à montré que les femmes qui buvaient au moins trois tasses de café par jour avaient moins de risques de développer un cancer du col de l'utérus. Les chercheurs ont suivi 54.000 femmes âgées de 40 à 69 ans pendant 15 ans. Période au cours de laquelle 117 de ces femmes ont développé un cancer du col de l'utérus. Le rapport entre cancer du l'utérus et consommation de café ? Les femmes qui en buvaient trois tasses par jour et plus ont 60 % de risque de moins de développer un cancer du col de l'utérus que celles qui en buvaient moins de deux tasses par semaine. Explication : « le café entraînerait une baisse du taux d'insuline, ce qui peut abaisser les risques de développer un cancer du col de l'utérus », selon l'étude. Dans l'Hexagone, cette maladie touche 3.300 femmes et provoque 1.000 décès par an, selon les chiffres du Collège national des gynécologues et obstétriciens français (CNGOF). Le cancer du col de l'utérus, lié à une infection par les papillomavirus humains (HPV) génitaux est une infection sexuellement transmissible. NCBI
|
|
|
|
|
|
|
|
Les données présentées dans l'International Journal of Obesity reposent sur une base solide puisqu'elles sont issues des statistiques provenant d'organismes de santé de 106 pays différents représentant 88 % de la population mondiale. Si des doutes demeuraient encore concernant l'existence d'une « épidémie d'obésité », ils sont balayés : selon l'étude un tiers de la population adulte était en surpoids en 2005, soit environ 937 millions de personnes au-dessus de la norme plus 396 millions d'obèses. Mais plus grave, les projections effectuées par des chercheurs de l'Université de Tulane, en Nouvelle-Orléans, indiquent que ces chiffres pourraient rapidement augmenter de façon spectaculaire. Si la tendance observée actuellement se poursuit dans les deux prochaines décennies, la planète comptera 2,16 milliards d'adultes en surpoids et 1,12 milliard d'obèses en 2030. Soit 57.8 % de la population mondiale ! Les auteurs signalent également que si un pourcentage élevé d'obèses vit actuellement dans les pays industrialisés, les pays émergents vont connaître un rattrapage important qui va réduire cet écart. L'obésité se définit par un excès de poids lié à une accumulation de masse grasse. Pour savoir si le poids d'une personne est « normal » on se sert de l'indice de masse corporelle (IMC). On considère que l'IMC est normal entre 18 et 25, de 25 à 30 il y a surpoids et au delà de 30 c'est l'obésité. A ce stade, les risques de développer un diabète, de l'hypertension ou des problèmes cardiaques sont fortement augmentés, ce qui accroît la morbidité de cette pathologie. Le tour de taille est un autre indicateur de l'obésité, lorsqu'il est supérieur à 90 cm chez la femme ou à 100 pour l'homme, on parle d'obésité abdominale. En France, on estime à plus de 10 % le nombre de personnes présentant un surpoids. IJO
|
|
|
|
|
|
|
|
Plusieurs études ont suggéré une association inverse entre consommation de café et maladie de Parkinson. Cependant, ces travaux étant principalement américains et comptant peu d'études de cohortes, ils appelaient réplication. Cette étude réalisée par l'Institut de santé publique d'Helsinki, qui s'est attachée à préciser la relation entre consommation de café et risque de maladie de Parkinson, apporte ainsi de nouveaux éléments au débat, d'autant plus intéressant que la population de Finlande a le taux de consommation de café le plus élevé du monde. Il s'agit d'une étude prospective conduite chez 6 170 hommes et femmes, âgés de 50 à 79 ans, indemnes de maladie de Parkinson à l'inclusion. La consommation de café était établie grâce à un autoquestionaire rempli par les participants. Cette cohorte a été suivie 22 années durant, au cours desquelles 101 cas incidents de maladie de Parkinson sont survenus (attestés par un neurologue). De nombreux facteurs potentiels de confusion ont été pris en compte dans l'analyse, et des ajustements ont été effectués notamment sur l'âge, le sexe, le statut marital, le niveau d'éducation, la consommation d'alcool, l'activité physique de loisir, le tabagisme, l'indice de masse corporelle (IMC), l'hypertension artérielle et la cholestérolémie. Après ajustements, l'analyse met en évidence un risque relatif de maladie de Parkinson de 0,26 (intervalle de confiance à 95 % IC95] de 0,07 à 0,99) ; p pour la tendance = 0,18) chez les sujets buvant quotidiennement 10 tasses de café ou plus, en comparaison de sujets ne buvant pas de café. Si l'association observée entre consommation de café et maladie de Parkinson est apparue semblable chez les hommes et chez les femmes, elle s'est avérée significativement plus forte chez les sujets en surpoids (IMC supérieur à 25) et chez ceux dont la cholestérolémie était, dans cette population d'étude, inférieure à la médiane, de 7,24 mmol/l. Par ailleurs, l'étude montre une association inverse, statistiquement significative, entre tabagisme et maladie de Parkinson, avec un risque relatif, ajusté sur l'âge et le sexe, de 0,19 (IC 95 de 0,07 à 0,52) en comparaison des non-fumeurs. [JIM
|
|
|
|
|
|
|
|
Une équipe de l'Institut de recherche en immunologie et en cancérologie (IRIC) de l'Université de Montréal vient d'annoncer dans un communiqué, « l'identification d'une protéine capable de stimuler la production de lymphocytes T, ces cellules du système immunitaire impliquées dans la reconnaissance et l'élimination des agents infectieux ». Cette découverte, dont les résultats ont été publiés dans la revue Immunity, permet d'envisager de pouvoir éventuellement contrer les effets délétères du vieillissement sur la réponse immunitaire. Grâce au travail du docteur Claude Perreault et de ses collaborateurs sur les propriétés stimulatrices d'une protéine appelée Wnt4, il pourrait être possible de renverser le déclin de la réponse immunitaire chez les personnes âgées. « L'atrophie du thymus est un problème majeur de santé publique, indique le Docteur Perreault. Elle compromet l'efficacité de la vaccination et la résistance à des virus répandus, le virus respiratoire syncytial pour ne donner qu'un exemple, responsable de 150.000 hospitalisations par année aux États-Unis. Ceci parce que les « vieux » lymphocytes ne sont pas aptes à faire face à l'agression de nouveaux corps étrangers, qu'il s'agisse d'un virus ou d'une tumeur. » La dégénérescence du thymus, une petite glande à la base du cou où s'effectue la maturation des lymphocytes T, est l'un des signes les plus évidents du déclin de la réponse immunitaire avec l'âge. Ce déclin, qui devient significatif à l'approche de la cinquantaine, est causé non seulement par une diminution de la production de lymphocytes T par le thymus mais également par un appauvrissement du répertoire d'antigènes que ceux-ci peuvent reconnaître. Il en résulte une susceptibilité accrue aux infections ainsi qu'une résistance moindre aux effets immunosuppresseurs de la chimiothérapie. C'est en induisant une surabondance de la protéine Wnt4 dans les organes où s'élaborent les cellules du système immunitaire que le Docteur Perreault et ses collaborateurs ont pu constater l'effet stimulateur qu'exerce cette protéine sur le développement de ces cellules. À l'aide de marqueurs spécifiques aux différents stades de maturation cellulaire, les chercheurs ont ainsi déterminé que, chez la souris, la reconstitution du système sanguin par des cellules produisant la protéine Wnt4 s'accompagnait d'une augmentation marquée du nombre de progéniteurs des globules blancs. Cette augmentation est particulièrement évidente dans le thymus où, en présence de Wnt4, le nombre de progéniteurs de lymphocytes T augmente et où, inversement, il diminue lorsque le gène Wnt4 est inactivé de façon à ce que la protéine correspondante ne soit plus produite. SA
|
|
|
|
|
|
|
|
Des chercheurs français et britanniques viennent de mettre en évidence un lien entre maladies coronariennes et augmentation du risque de souffrir ultérieurement de troubles cognitifs. Dues le plus souvent à la présence de plaques sur la paroi interne des artères du muscle cardiaque, les maladies coronariennes se caractérisent par des crises d'angine de poitrine et des infarctus du myocarde. Elles constituent l'une des causes les plus fréquentes de mort prématurée dans les pays industriels. L'étude a été menée sur un groupe de 5 837 fonctionnaires britanniques - hommes et femmes - âgés de 61 ans. Tous font partie de la cohorte "Whitehall II", créée en 1985 dans le but d'étudier l'impact sur différentes pathologies des facteurs socio-économiques et comportementaux. Les participants bénéficient d'un examen médical approfondi tous les cinq ans et doivent, dans l'intervalle, répondre à des questionnaires. Dirigés par Archana Singh-Manoux (unité 687 de l'Inserm, University College de Londres), les auteurs de cette publication ont procédé à une évaluation standardisée des fonctions cognitives de chaque fonctionnaire à partir d'une série de tests concernant les capacités mathématiques, de raisonnement mais aussi de mémoire et d'expression verbale. Ils ont pu établir que les 620 participants ayant un passé de maladie coronarienne obtenaient des performances statistiquement inférieures aux autres fonctionnaires. Plus précisément, ces performances sont d'autant plus faibles que la maladie est ancienne, le score baissant d'environ 30 % par tranche de cinq années. "Nous souhaitions mener ce travail de recherche sur les facteurs à l'origine des états de démence bien en amont de la démence proprement dite car, à ce stade, tout est devenu beaucoup trop complexe, explique Archana Singh-Manoux. Les conclusions auxquelles nous parvenons permettent d'établir clairement une corrélation pour laquelle nous n'avons pas d'explications démontrées. On peut toutefois raisonnablement avancer l'hypothèse selon laquelle une altération chronique de la vascularisation du tissu cérébral du fait de la maladie coronarienne peut entraîner une altération précoce des fonctions cognitives qui, à terme, évolue vers la perte d'autonomie et la démence." Ces conclusions peuvent être rapprochées des observations anatomopathologiques faites sur des cerveaux de personnes décédées qui ont montré que, dès 47 ans, 50 % d'entre elles présentaient déjà des lésions cérébrales caractéristiques de la maladie d'Alzheimer alors qu'elles n'en montraient aucun des symptômes. L'équipe franco-britannique rappelle que les facteurs de risque de la maladie coronarienne sont aujourd'hui bien connus. Il s'agit notamment du tabagisme, du diabète, des taux sanguins élevés de cholestérol et de l'hypertension artérielle, autant d'éléments qui peuvent être modifiés, notamment par le sevrage tabagique, des modifications diététiques et une activité sportive. Pour Mme Singh-Manoux, on peut d'ores et déjà envisager que les messages sanitaires visant à prévenir la maladie coronarienne soient complétés en expliquant qu'ils concernent également la prévention du déclin précoce des fonctions intellectuelles. EHJ
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|