RTFlash

RTFLASH Recherche & Technologie
NUMERO 668
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Septembre 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Quand l'ordinateur peut lire nos émotions sur nos lèvres !
Avenir
Le premier nanocommutateur entièrement optique
Un cafard robotisé pour espionner l'ennemi !
Matière
Le vent pourrait fournir toute l'énergie consommée par l'humanité !
Produire de l'électricité avec de la rouille et de l'eau de mer
La directive européenne sur l'efficacité énergétique enfin adoptée
Etats-Unis : 80 % d'électricité renouvelable en 2050 ?
Espace
A la recherche de l'énergie sombre !
Terre
La fonte du pergélisol pourrait avoir des conséquences désastreuses sur le climat
Climat de la France : +0,4°C ces 10 dernières années
Réchauffement climatique et canicule : une boucle infernale !
Vivant
Dengue : un vaccin partiellement efficace enfin disponible
Des chercheurs suisses inventent le premier "téléphone cellulaire"
Stress au travail et infarctus : un lien confirmé
Une vaste étude épidémiologique conclut à l'utilité de la prévention du cancer du sein
Les maladies infectieuses peuvent-elles favoriser l'obésité ?
Cancer de l'estomac : attention au sel !
Cancer : la chimiothérapie peut rendre résistantes les cellules malignes !
La vitamine D joue bien un rôle majeur en matière de protection cardio-vasculaire
Edito
En décidant de sortir du nucléaire, le Japon va devenir le laboratoire mondial des énergies renouvelables



La décision avait beau être attendue, elle revêt une portée économique et politique considérable au niveau mondial : un an et demi après le terrible séisme qui a frappé le Japon et entraîné la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre, l'arrêt progressif de la production d'électricité nucléaire sur trente ans.

Le Japon devient ainsi le troisième pays, après l'Allemagne et la Suisse, à faire part de son intention de stopper ses réacteurs depuis l'accident du 11 mars 2011 à Fukushima Daiichi (220 km au nord-est de Tokyo). La production nucléaire représentait 30 % de la consommation électrique du Japon et cette part devait être portée à 53 % d'ici à 2030. Elle est cependant pratiquement à l'arrêt puisque, actuellement, il ne reste que deux réacteurs nucléaires sur 50 en service au Japon. Les autres réacteurs n'ont pas redémarré depuis le terrible séisme du 11 mars 2011 car ils doivent non seulement être réparés mais également être modifiés pour satisfaire aux nouvelles normes de sécurité décidées par le gouvernement japonais. Compte tenu de cette décision, il est probable que la plupart de ces réacteurs, sinon la totalité, ne soient jamais redémarrés.

Confronté à une chute brutale et massive de la production électronucléaire, le Japon tente de se réorganiser et de s'adapter à cette situation inédite depuis mars 2011 : il a dû diminuer de plus de 20 % la production électrique dans certaines régions pour éviter un black out complet du réseau et doit avoir recours à de nombreuses centrales thermiques dont l'approvisionnement en énergies fossiles plombe sa balance commerciale devenue très déficitaire. Il est vrai que depuis 2011, plus de la moitié de ce déficit commercial provient de l'augmentation massive des importations d'énergies fossiles, gaz et pétrole notamment.

Autre conséquence de cette situation : une augmentation sans précédent du prix de l'électricité depuis un an : 17 % pour les entreprises et 10 % pour les ménages car les compagnies productrices d'électricité sont bien obligées de répercuter sur les usagers l'augmentation importante de leurs coûts de production de l'énergie.

De son côté, le gouvernement nippon élabore depuis 6 mois un plan de transition énergétique qui a servi de base de réflexion pour la décision historique du 14 septembre. Pour justifier celle-ci, le Premier Ministre a souligné que le Japon devait "mettre toutes ses forces dans la balance pour qu'aucune centrale nucléaire ne fonctionne lors de la décennie 2030". Il a précisé que cette sortie responsable du nucléaire respecterait trois principes : ne plus construire de nouvelle centrale nucléaire, arrêter les réacteurs existants après quarante ans d'activité et, enfin, ne redémarrer les réacteurs arrêtés qu'après une mise aux nouvelles normes de sécurité constatée par une autorité indépendante.

Mais au-delà de cette décision politique majeure qui engage l'avenir à long terme du Japon, le gouvernement japonais construit une ambitieuse stratégie énergétique qui repose sur trois piliers complémentaires : développer massivement toutes les énergies renouvelables et non-conventionnelles, y compris les énergies issues de la mer, réduire de manière considérable la consommation d'énergie du pays et améliorer l'efficacité énergétique globale de l'économie nippone.

Dans ce cadre, le Premier Ministre japonais, Monsieur Noda, a évoqué trois scénarios de transition énergétique à l'horizon 2030 : une production nucléaire représentant 20 à 25 % de la consommation d'électricité, une part de seulement 15 %, ou une sortie complète du nucléaire à cette échéance.

Répondant  aux critiques concernant l'augmentation inévitable de la facture énergétique qui résultera de l'arrêt du nucléaire, le ministre de l'Economie, Yukio Edano, a pour sa part souligné que la sortie progressive du nucléaire était, au contraire, une "opportunité" pour le Japon et allait relancer la croissance en stimulant la recherche et l'innovation dans les domaines des énergies renouvelables et de l'efficacité énergétique.

La nouvelle politique énergétique japonaise table sur un coût de l'électricité solaire divisé par trois d'ici à 2020, et par six d'ici à 2030. Elle prévoit également l'installation de panneaux solaires sur les toits de 10 millions de bâtiments. Pour encourager le développement de l'énergie solaire, le gouvernement japonais vient de relever le tarif du KWh à 42 centimes d’euros, un tarif de rachat unique au monde et deux fois plus élevé qu'en Allemagne, qui sera garanti pendant 20 ans pour toutes les installations supérieurs à 10 mégawatts (MW).

Grâce à ces nouveaux tarifs, le retour sur investissement deviendra très rapide et devrait avoir un effet "boule de neige" sur le développement de l'énergie solaire. Le Japon est aujourd'hui au sixième rang mondial en matière solaire avec 1,3 gigawatt installé en 2011 et une puissance totale installée de 5 GW qui devrait tripler d'ici deux ans. Le Japon a par ailleurs annoncé, en avril 2012, la réalisation de la plus grande centrale solaire du pays qui totalisera une puissance installée de 70 MW sur 1,3 km² et devrait fournir assez d'électricité pour satisfaire 22.000 foyers.

L'éolien sera également massivement mobilisé et d'immenses parcs éoliens marins sont envisagés d'ici la fin de la décennie. En utilisant une nouvelle génération d'éoliennes marines, plus légères et plus performantes, les chercheurs japonais pensent qu'il est envisageable de recourir à une multitude d'éoliennes flottantes, respectueuses des fonds marin et moins chères à installer. Selon leurs calculs, il serait envisageable, sur une surface maritime de 440 000 km², de produire au total plus de 2 600 TW/h, soit deux fois et demi la consommation électrique totale du Japon (1 040 TWh par an) ou encore 13 % de la production électrique mondiale (20 000 TWh par an en 2010).

Enfin, un projet volontariste de production de bio et d'agrocarburants à partie de la biomasse terrestre mais également de micro-algues issues de la mer est à l'étude. 

Mais la réflexion de la société japonaise va plus loin et le Premier Ministre a également dénoncé pour la première fois publiquement "L'évolution des modes de vie, qui supposent des ressources énergétiques infinies" et a appelé ses concitoyens à "Créer de nouvelles manières d'être où une vie confortable pourra être alimentée avec une énergie limitée".

Le Japon veut non seulement produire la quasi-totalité de son énergie de manière propre et durable d'ici 30 ans mais il veut également changer les habitudes et réduire très sensiblement la consommation d'énergie à la source. C'est dans ce contexte qu'un projet de maison intelligente, utilisant la domotique, a été lancé début 2011.

Cette « Smart Energy House » préfigure ce que pourrait être l'habitation du futur. Entièrement gérée par informatique, elle est équipée d’une pile à combustible de 700 W, de panneaux solaires de 5 kW, de batteries de stockage lithium-ion. Résultat : dans une telle maison, une famille de trois personnes a pu réduire de presque 90 % sa consommation totale d'électricité et n'a consommé que 584 kWh en un an, contre 4830 kWh pour la même famille dans une maison japonaise standard ! Certes, le coût d'un tel système, encore à l'état de prototype reste prohibitif (environ 200 000 euros) mais le gouvernement souhaite le mettre sur le marché dès 2015 et table sur sa production industrielle pour faire baisser son prix.

Le Japon est également à la pointe en matière de valorisation énergétique des déchets. Des chercheurs de l’Université de Shizuoka ont en effet mis au point un combustible synthétique combinant de manière très innovante déchets plastiques et agricoles. Le résultat final se présente sous la forme de petits granulés d'un diamètre de 5 millimètres. Un kilo de ces granulés possède un pouvoir calorifique d'environ 6 600 kcal, équivalent à celui du charbon. Autre avantage, ces granulés ne dégagent pas d’oxyde de soufre quand ils sont brûlés et leurs cendres, riches en phosphore, sont elles-mêmes recyclables dans des engrais... A terme, ce type de combustible synthétique pourrait se substituer avantageusement au charbon qui assure encore plus du quart de la production électrique japonaise.

Le Japon mise également depuis plusieurs années sur le développement de l'hydrogène comme vecteur énergétique et compte bien accélérer son effort dans cette voie. Il y a quelques jours le "HIT Business Group", regroupant quatre compagnies, a annoncé un vaste projet de production d'hydrogène peu émettrice de CO2, à partir de déchets organiques provenant des égouts. L'unité de production expérimentale s'inscrit dans une chaîne compète de valorisation qui assure la récupération, le traitement et la transformation de ces déchets en hydrogène destiné à être utilisé dans des piles à combustible domestiques, industrielles ou automobiles dès 2015.

Mais le salut énergétique pour le Japon pourrait bien venir d'une autre voie aussi prometteuse mais longtemps inaccessible : les hydrates de méthane emprisonnés au fond des océans. L'information est passée inaperçue en Europe mais début 2012, une équipe de recherche américano-japonaise a en effet réussi pour la première fois au monde à extraire de manière continue pendant deux mois des hydrates de méthane dans la région de North Slope, en Alaska en utilisant une nouvelle méthode prometteuse qui consiste à récupérer ces hydrates en injectant un mélange de CO2 et d'azote dans un puits d'un kilomètre de profondeur.

Or, selon différentes estimations géologiques, il y aurait au fond des mers entourant le Japon au moins 7 milliards de m3 d'hydrates de méthane, soit l'équivalent de plus d'un siècle de consommation japonaise de gaz naturel, à condition toutefois de mettre au point des technologies de récupération qui préservent l'environnement et préviennent efficacement les risques de pollution et d'émissions massives de ce gaz à effet de serre dans l'atmosphère.

En prenant la décision de se passer de l'énergie nucléaire, le Japon fait donc un pari risqué mais qui à terme peut s'avérer payant. Ce grand pays scientifique et industriel sera obligé de relever, d'une manière ou d'une autre, ce défi de l'approvisionnement durable en énergie et nous pouvons être certains, compte tenu de la volonté de la société japonaise, de ses ressources intellectuelles et de sa culture d'innovation, que ce pays va se mobiliser complètement pour réussir ce pari de l'après nucléaire. Le Japon va devenir le laboratoire mondial des énergies renouvelables et non conventionnelles et sa capacité d'entraînement va accélérer l'inévitable transition énergétique mondiale liée à l'épuisement annoncée des ressources fossiles et à la nécessité de réduire plus fortement et plus rapidement nos émissions de gaz à effet de serre si nous voulons éviter d'ici 50 ans une rupture climatique brutale.

Souhaitons que l'Europe prenne toute la mesure de la décision japonaise du 14 septembre, qu'elle accélère le rythme de sa mutation énergétique et qu'elle mette rapidement en oeuvre un programme beaucoup plus ambitieux de recherche dans ce domaine stratégique des énergies renouvelables qui sera l'un des principaux moteurs de la croissance, de l'emploi et de la compétitivité au cours de ce siècle.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
Quand l'ordinateur peut lire nos émotions sur nos lèvres !
Samedi, 15/09/2012 - 14:32

L'ordinateur pourra-t-il bientôt déceler nos émotions et nos troubles en lisant sur notre visage ? Peut-être, si l'on en croit une étude publiée dans la revue de l'intelligence artificielle et du logiciel.

Des chercheurs de l’Université Karthigayan Muthukaruppanof Manipal International de Selangor (Malaisie) ont en effet mis au point un algorithme sophistiqué qui permet d'identifier les émotions même cachées, exprimées par une personne qui parle. Les chercheurs ont utilisé une immense base de données photographique de personnes asiatiques pour "apprendre" à l’ordinateur à reconnaître, en analysant principalement les plis et mouvements subtils des lèvres, les 6 émotions humaines fondamentales : le bonheur, la tristesse, la peur, la colère, le dégoût, la surprise et l'indifférence.

Comme le souligne cette étude, "la reconnaissance informatique sur un visage du type et du degré d'émotions présente un intérêt majeur pour améliorer la communication homme-machine".

Jusqu'à présent, cette capacité était considérée comme strictement humaine. Mais les chercheurs ont pu modéliser les relations subtiles qui existent entre les émotions ressenties par le sujet et les mouvements presque imperceptibles de sa bouche. Ils ont notamment montré qu'un sourire franc était toujours accompagné d'une contraction des muscles autour des yeux et de mouvements de sourcils spécifiques.

Cette "reconnaissance émotionnelle" pourrait permettre aux ordinateurs de gérer efficacement certaines situations de stress et pourrait également trouver de nombreuses applications dans les interfaces de commande utilisées par les personnes handicapées.

Article rédigé par Mark FURNESS pour RTFlash

Inderscience

Science Daily

^ Haut
Avenir
Nanotechnologies et Robotique
Le premier nanocommutateur entièrement optique
Samedi, 15/09/2012 - 14:50

Des chercheurs de l’Université de Pennsylvanie ont conçu le premier interrupteur optique à base de nanofils photoniques en sulfure de cadmium. Ces nanofils permettent de réaliser des interrupteurs photoniques minuscules qui n'ont plus  besoin d’une source de lumière externe. En effet, le premier nanofil fait office de laser et sert d'émetteur et le second nanofil assure la transmission du signal.

Ces deux nanofils sont séparés par une distance qui varie de 5 à 500 nanomètres et ce dispositif binaire permet de créer une porte logique  "NON-ET" à deux entrées.

Concrètement, cette porte NON-ET utilise deux sources de lumière, un interrupteur court (3,31 µm de longueur) et un interrupteur long (7,25 µm). A l'extrémité de chacun de ces nanofils se trouve un laser à argon faisant office d’interrupteur.

La réalisation de cette porte optique NON-ET démontre la faisabilité d'un circuit composé uniquement de composants optiques et constitue une étape importante vers l'ordinateur optique et l’informatique photonique qui pourraient fonctionner 1000 fois plus rapidement que nos ordinateurs actuels utilisant l'électron.

Article rédigé par Mark FURNESS pour RTFlash

Nature

Science Daily

Un cafard robotisé pour espionner l'ennemi !
Samedi, 15/09/2012 - 14:42

En 2009, des chercheurs de l'université de Berkeley, en Californie étaient parvenus à télécommander le décollage d'un scarabée puis à diriger son vol et enfin à le faire atterrir mais sans toutefois parvenir à une grande précision dans cette "télécommande".

Cette fois, des chercheurs de l'université de Caroline du Nord travaillant pour le département de recherche de l'armée américaine (Darpa) viennent de présenter le premier robot bionique opérationnel. il s'agit d'un gros cafard de Madagascar dont le déplacement peut être télécommandé par une puce et un transpondeur placé sur le dos de l'insecte !

Grâce à cet étonnant dispositif, les scientifiques ont réussi à commander un déplacement très précis et très rapide de ce "scarobot", le long d'une ligne tracée sur le sol.

Cette expérience ouvre la voie vers une multitude d'applications et d'utilisations : espionnage en tout genre mais également exploration fine dans des environnements dangereux pour l'homme ou inaccessibles : sites radioactifs ou zones de tremblements de terre par exemple. En outre, ce système bionique coûte bien moins cher qu'un micro-robot, complexe à réaliser et fragile. C'est pourquoi l'armée américaine a décidé en 2006 de financer un programme de recherche consacré au contrôle à distance d'insectes vivants.

Depuis 6 ans, les chercheurs de la Darpa ont réalisé des avancées décisives dans le domaine de la miniaturisation et de l'autonomie des batteries utilisées. Ils ont notamment mis au point des dispositifs piezzo-électriques qui permettent d'utiliser l'énergie cinétique de l'animal et de la convertir en électricité.

Mais la Darpa ne compte pas s'arrêter en si bon chemin et tente à présent d'équiper ses "scarobots" de microcaméras et de microcapteurs, ce qui transformerait ces insectes en espions redoutables et très difficiles à repérer.

Article rédigé par Mark FURNESS pour RTFlash

NCSU

^ Haut
Matière
Matière et Energie
Le vent pourrait fournir toute l'énergie consommée par l'humanité !
Jeudi, 20/09/2012 - 01:20

Peut-on calculer la quantité maximale d'électricité que l'on pourrait produire sur terre grâce au vent ? Oui, si l'on en croit deux équipes basées à Stanford en Californie qui viennent chacune de publier une étude sur les potentialités planétaires de l'énergie éolienne. Si les résultats obtenus diffèrent selon ces deux études, ces deux équipes sont néanmoins d'accord pour affirmer que le potentiel de production d'électricité éolienne de la planète dépasse largement la consommation énergétique mondiale.

Selon l'équipe de Carnegie Science, la consommation mondiale d'énergie actuelle est de 18 térawatts (TW) par an, alors que les vents terrestres pourraient théoriquement fournir chaque année jusqu’à 400 TW d'électricité, soit 22 fois la consommation actuelle du globe.

L'autre équipe, celle de Stanford, a pris une autre base de calcul et considère que, si d'ici à 2030 le monde accélérait sa transition vers les énergies renouvelables, sa consommation d'énergie passerait à "seulement" 11,5 TW par an. Ces chercheurs estiment pour leur part que le potentiel éolien total (terrestre et marin profond) de la planète, se situe autour de 250 TW par an. Toutefois, ce chiffre descend à 80 TW, si l'on exclut l'hypothèse de parcs éoliens en eaux profondes. Mais même dans cette hypothèse prudente, la production totale d'énergie éolienne reste nettement supérieure à la consommation énergétique globale de la planète (18 TW par an dans un cas et 11,5 TW par an dans l'autre).

Mais, dans un scenario supplémentaire, ces deux équipes ont également intégré l'utilisation d'éoliennes atmosphériques qui flotteraient à près de 10 kilomètres d'altitude. Là encore, les chiffres sont différents mais restent impressionnants : 1.800 TW par an pour Carnegie et 380 TW par an pour Stanford !

Dans leur étude, les chercheurs de Stanford précisent que quatre millions d'éoliennes de 5 mégawatts et d'une hauteur de 100 mètres (la moitié sur terre et l'autre moitié sur mer) pourraient fournir, en moyenne, 7,5 TW par an. Les deux millions d'éoliennes terrestres n'occuperaient qu'environ 1 % de la surface des terres, soit la moitié de l'état d'Alaska.

Les chercheurs de Carnegie Science soulignent quant à eux que si toute l'énergie mondiale était produite par des éoliennes, celles-ci auraient un impact très faible sur le climat mondial : elles n'affecteraient la température mondiale que de 0,1 degré et les précipitations de 1 %. En outre, l'étude rappelle que ces effets minimes sur le climat seraient largement compensés par les conséquences très bénéfiques liées à l'abandon des énergies fossiles : réduction massive des émissions humaines de gaz à effet de serre et de la pollution chimique et physique (particules fines notamment) qui entraînent chaque année environ 2,4 millions de décès, selon l'OMS.

Article rédigé par Mark FURNESS pour RTFlash

Carnegie Science

Stanford University

Produire de l'électricité avec de la rouille et de l'eau de mer
Jeudi, 20/09/2012 - 01:10

Des mois de recherches, d'essais et de tâtonnements ont été nécessaires, mais les résultats sont là : depuis plus de quatre mois, le prototype d'accumulateur à oxydoréduction par eau de mer fonctionne et il a maintenu allumée une petite lampe torche à LEDs jour et nuit pendant tout ce temps, avec une perte de puissance de seulement moins de 10 %. Seul entretien : compléter le niveau d'eau de mer une fois tous les deux mois environ...

L'idée de départ est que la dégradation des métaux quand ils sont plongés dans l'eau de mer, communément appelée « rouille » - « oxydoréduction » pour les scientifiques - est une réaction chimique qui induit un déséquilibre électronique, c'est-à-dire qu'il crée un courant électrique.

Ce phénomène est bien connu, notamment par les marins, qui doivent coller aux coques en acier de leurs navires des pièces de métal dites « sacrificielles » qui se dégradent en premier sous l'action de ce phénomène et évitent que ce soit la coque qui s'abîme.

Et si on savait jusque là s'en prémunir, personne n'avait imaginé de solution simple pour tirer parti de cette réaction. Des chercheurs américains travaillent actuellement sur une idée assez proche mais basée sur du lithium, un métal rare, cher, nocif, et qui se dissout rapidement. De plus, leur accumulateur doit être immergé dans l'eau de mer à une certaine profondeur, ce qui entraîne des coûts logistiques importants.

Le prototype réalisé par le Professeur Mamiharijaona Ramaroson et le Professeur Jean Marie Razafimahenina a les caractéristiques suivantes : tension à circuit ouvert : Uco = 3 volts, intensité du courant de court circuit  : Icc=1 ampère. Cette cellule a produit de l'électricité sans interruption pendant quatre mois, 24 heures sur 24. La lampe alimentée par ce courant reste illuminée avec la même intensité lumineuse. La cellule, d'une durée de vie estimée de 50 ans, utilise 250 ml d'eau de mer. Selon ces professeurs, l'installation ne présente aucun danger ni de risque pour l'environnement, car les produits de la réaction chimique des éléments constitutifs de la cellule ne sont pas nocifs.

Si le courant produit a une valeur très faible, il est tout à fait envisageable d'additionner des éléments pour obtenir la puissance nécessaire à des applications domestiques. De plus, de grands progrès sont réalisés actuellement dans toutes les applications utilisant du courant de faible intensité pour répondre notamment à la demande croissante de matériels compatibles avec l'utilisation de l'énergie solaire, qui elle aussi ne produit que des courants très faibles et pour laquelle toute une gamme d'appareils en 12v ont été développés.

Le Professeur Ramaroson Mamiharijaona travaille actuellement sur l'élaboration d'un nouveau prototype dont les éléments seront façonnés cette fois en plaques, de façon à maximiser les surfaces de contact tout en restreignant le volume nécessaire. Cet accumulateur devait pouvoir alimenter pendant plusieurs mois (années ?) une petite installation domestique de brousse comprennant par exemple quelques lampes à LEDs, une petite radio, et un chargeur de téléphone mobile.

Un des principaux avantages du système est son faible prix de revient : Madagascar est un des premiers producteurs mondiaux de graphite, qui est utilisé pour la cathode, et son coût est très bas (700€/tonne). La filière locale aurait cependant à être développée.

Industrie & Technologies

La Tribune de Diego

La directive européenne sur l'efficacité énergétique enfin adoptée
Mercredi, 19/09/2012 - 13:11

Le Parlement de Strasbourg a adopté le 11 septembre une directive européenne essentielle durcissant les objectifs d’efficacité énergétique dans l’Union européenne. En réduisant sa consommation d'énergie de 20 %, l'Europe pourrait économiser 50 milliards d'euros par an.

"Cette législation essentielle est non seulement cruciale pour atteindre les objectifs de sécurité énergétique et ceux liés au climat, mais elle favorisera réellement l'économie et créera des emplois. Elle réduira, de manière décisive, les coûts non négligeables et croissants de notre dépendance aux importations d'énergie, à savoir 488 milliards d'euros en 2011 ou 3,9 % du PIB, qui est particulièrement marquée dans les pays touchés par la crise", a déclaré le rapporteur, Claude Turmes.

Des mesures contraignantes d'économie d'énergie, notamment la rénovation de bâtiments publics, des programmes d'économie d'énergie pour les services publics, et des audits énergétiques pour toutes les grandes entreprises, seront obligatoires selon une directive européenne sur l'efficacité énergétique approuvée en assemblée plénière à Strasbourg par 632 voix pour, 25 voix contre et 19 abstentions.

Selon la directive, les États membres devront rénover 3 % de la surface au sol "chauffée et/ou refroidie totale des bâtiments appartenant à l'administration centrale et occupés par celle-ci" (départements administratifs dont les responsabilités couvrent l'ensemble du territoire d'un État membre). Ce critère s'appliquera aux bâtiments "ayant une surface au sol utile totale" supérieure à 500 m2 et, à partir de juillet 2015, à ceux dont cette surface dépasse 250 m2. Toutefois, les États membres pourront également utiliser d'autres solutions pour atteindre des économies d'énergie équivalentes.

Les compagnies d'énergie couvertes par la directive devront atteindre "des économies d'énergie cumulées au stade final" d'ici 2020. En vue de réaliser de nouvelles économies chaque année, cet objectif devra correspondre à au moins 1,5 %, en volume, de leurs ventes annuelles d'énergie, de 2014 à 2020, et être calculé sur la base des trois dernières années avant que la directive entre en vigueur.

La vente d'énergie pour le transport pourrait être exclue et d'autres moyens en vue d'atteindre des économies d'énergie équivalentes seront permis, à condition que l'équivalence soit maintenue.

Toutes les grandes entreprises devront faire l'objet d'un audit énergétique. Ces audits devront débuter dans un délai de trois ans après l'entrée en vigueur de la directive et être effectués tous les quatre ans par des experts qualifiés et agréés. Les petites et moyennes entreprises (PME) ne devront pas répondre à cette exigence.

Europa

Etats-Unis : 80 % d'électricité renouvelable en 2050 ?
Vendredi, 14/09/2012 - 19:18

Selon une étude du laboratoire américain des énergies renouvelables, intitulée "Quel avenir pour l'électricité renouvelable", il serait possible de produire à l'horizon 2050, dans des conditions économiques viables, 80 % de l''électricité consommée par les Etats-Unis à partir des énergies renouvelables actuellement disponibles (éolien, solaire, biomasse, géothermie, hydroélectricité), la moitié de cette électricité "propre" pouvant être fournie par les énergies intermittentes que sont le vent et le soleil.

Ce scenario, considéré comme réaliste par les chercheurs américains, aurait un impact très positif en matière d'environnement et de préservation des ressources naturelles : les émissions américaines de gaz à effet de serre seraient réduites de 80 % et la consommation d'eau de 50 %. Quant au coût d'une telle transition énergétique volontariste, il ne serait pas supérieur à celui d'un scenario alternatif incluant le nucléaire et  des centrales thermiques performantes à cycle combiné, utilisant du charbon et du gaz. Toutefois, cette étude n'intègre pas dans ses calculs la baisse probable du prix du gaz résultant de la montée en puissance de l'exploitation des gaz de schiste.

Actuellement, les énergies renouvelables représentent environ 10 % de la production américaine d'électricité (6,5 % d'hydroélectricité, 2,5 % d'énergie éolienne, 0,7 % de biomasse, 0,5 % de géothermie, et 0,05 % d'énergie solaire) et cette étude a comparé plusieurs scenarios qui vont de 30 % à 90% du mix énergétique assuré par des  énergies renouvelables.

Le scénario à 80 % électricité renouvelable prévoit 439 GW d'éolien (contre 50 GW aujourd'hui) et 150 GW de solaire photovoltaïque. L'étude souligne que les capacités de production par les énergies renouvelables devront croître de 20 GW par an en moyenne, de 2011 à 2020 et de 32 à 46 GW par an, entre 2041 et 2050, une progression forte mais considérée comme réaliste, à condition toutefois de relever trois défis : la formation des salariés et artisans impliqués dans cette mutation énergétique, l'accès aux ressources renouvelables et enfin l'adaptation du réseau de distribution avec l'adjonction massive de nouvelles technologies de stockage de l'énergie et le passage à une structure de réseau en "grille" avec des compteurs intelligents.

Mais l'étude souligne qu'en cas de progression de la demande d'électricité supérieure à 30 % entre 2010 et 2050, il sera nécessaire de recourir à des système de stockage de gaz naturel pour assurer l'équilibre entre l'offre et la demande d'énergie.

Article rédigé par Mark FURNESS pour RTFlash

NREL

^ Haut
Espace
Espace et Cosmologie
A la recherche de l'énergie sombre !
Jeudi, 20/09/2012 - 01:00

DECAM, la caméra à très haute résolution conçue pour observer le cosmos a commencé sa quête pour tenter d'identifier et de comprendre la mystérieuse "énergie sombre" qui, selon les scientifiques, représenterait au moins 70 % de notre univers (25 % étant constitués de matière noire tout aussi mystérieuse et 4 % de matière ordinaire). D'ici 2017, DECAM aura exploré un huitième de l'ensemble de la voute céleste.

Fruit d'une collaboration scientifique internationale, cette caméra unique au monde équipe le télescope de 4 m Victor M Blanco, situé dans l'Observatoire Cerro Tololo dans le désert d'Atacama au Chili. Elle possède une résolution de 570 millions de pixels et elle va balayer plus de 300 millions de galaxies au cours des cinq prochaines années dans l'espoir de mieux comprendre la nature intime de cette fameuse énergie sombre qui semble contrebalancer la gravitation et serait responsable d'une accélération de l'expansion de l'univers depuis 7 milliards d'années. Les premières images transmises par DECAM le 12 Septembre concerne l'amas de galaxies Fornax (Voir The dark energy survey).

DECAM est particulièrement sensible au spectre infrarouge, afin de pouvoir repérer et étudier les objets cosmiques situés à plus de 8 milliards d'années-lumière. Selon les lois de la physique, plus un objet cosmique est éloigné de nous, plus sa vitesse d'éloignement par rapport à nous est grande et il est possible de repérer de tels objets grâce au décalage vers le rouge de leur sceptre d'émissions lumineuses, le "redshift".

Cette traque de l'énergie sombre va se faire en utilisant plusieurs techniques complémentaires. Premièrement, DECAM va repérer et répertorier un type particulier de supernovae afin de mieux comprendre comment s'est déroulée l'expansion de l'Univers depuis le "big bang" et pourquoi le rythme de cette expansion semble s'être accéléré il y a 7 ou 8 milliards d'années.

Deuxièmement, DECAM va permettre de cartographier en 3D la distribution des amas de galaxies en mesurant les oscillations acoustiques baryoniques (baryon acoustic oscillations ou BAO en anglais), découvertes en 1999 et qui proviennent du "bruit de fond" cosmique de l'univers, issu du Big Bang.

Enfin, DECAM va étudier la façon dont les galaxies et amas de galaxies déforment la lumière, selon le phénomène de "lentille gravitationnelle", ce qui devrait également permettre de confirmer la présence de la fameuse matière noire dont la nature est tout aussi inconnue que celle de l'énergie sombre.

Comme le souligne James Siegrist (responsable de la physique au Département américain de l'Energie) qui a dirigé la réalisation du projet DECAM, "Aujourd'hui, avec la mise en service de DECAM, commence une nouvelle ère scientifique et une étape décisive dans la compréhension des forces qui structurent notre univers".

Article rédigé par Mark FURNESS pour RTFlash

BBC

DECam

 

 

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La fonte du pergélisol pourrait avoir des conséquences désastreuses sur le climat
Mercredi, 19/09/2012 - 13:42

Une étude dirigée par le professeur Andrew H. MacDougall de l’École des sciences de la terre et des océans de l’Université de Victoria (Colombie-Britannique) et publiée par "Nature Géoscience" montre que la fonte du pergélisol (sous-sol gelé en permanence couvrant environ 20 % du globe) en Arctique risque d’entraîner des émissions massives de CO2 retenu captif depuis des milliers d'années dans ces terres gelées.

La fonte accélérée du pergélisol pourrait en effet libérer entre 70 et 500 gigatonnes de carbone emprisonné dans le sol d’ici la fin du siècle. A titre de comparaison, les émissions humaines de carbone sont de l'ordre de 10 gigatonnes par an. Le pergélisol arctique recélerait au total 1700 gigatonnes de carbone, le double du carbone présent dans l’atmosphère. Ce phénomène s'apparente à une "boucle infernale" sous forme de rétroaction positive car ce carbone issu du pergélisol va s'ajouter aux émissions humaines et naturelles de CO2 (sols, forêts et océans), contribuant ainsi à augmenter l'effet de serre et accélérer le réchauffement qui lui-même accélère la fonte du pergélisol...

L'originalité de cette étude est qu'elle a utilisé une modélisation numérique qui intègre l'ensemble des échanges de flux terrestres, atmosphériques et océaniques.

Ce processus de fonte accélérée du pergélisol se combine à celui de la réduction constatée de la banquise et du réchauffement de l'océan arctique et, selon, cette étude, compte tenu de l'inertie des ces phénomènes et des temps de persistance du carbone dans l'atmosphère, il peut au mieux être ralenti, si nous réduisons drastiquement nos émissions de carbone au cours de 20 prochaines années, mais ne peut plus être arrêté.

L'étude prévoit que la rétroaction provoquée par cette fonte pourrait à elle seule provoquer une hausse de la température moyenne du globe allant jusqu'à 1,6°C. Cette hausse viendrait s'ajouter à celle déjà prévue par le GIEC (de 1,4 à 5,8° selon les scenarios) et résultant de l'augmentation massive des émissions humaines de gaz à effet de serre qui ont dépassé 48 gigatonnes d'équivalent-carbone en 2010. Or, selon une étude de référence publiée par "Nature" en avril 2009, l'humanité doit absolument limiter ses émissions totales de CO2 à 1440 gigatonnes (contre 2 500 gigatonnes prévues si nous restons sur le rythme actuel)  entre 2000 et 2050 pour avoir au moins 50 % de chances de ne pas provoquer une hausse moyenne de la température de plus de deux degrés d'ici la fin du siècle...

Article rédigé par Mark FURNESS pour RTFlash

Nature

Nature

Climat de la France : +0,4°C ces 10 dernières années
Mercredi, 19/09/2012 - 13:30

La question épineuse du "réchauffement climatique" continue de faire débat parmi la communauté scientifique et notamment le rôle de l'activité humaine dans le supposé réchauffement (part dite "anthropique"). En France, il est intéressant d’analyser l’évolution des températures sur ces dernières décennies. A ce titre, l’actualisation des moyennes climatiques, conventionellement établies sur 30 ans, de la période 1971-2000 à la période 1981-2010 est significative.

A l’échelle du pays, nous avons gagné en l’espace de 10 ans 0,4°C. Cela confirme la hausse moyenne, proche de 0,5°C, observée à l’échelle mondiale. Toutefois, cette évolution n’est pas homogène au fil de l’année, puisque certains mois ont connu un réchauffement beaucoup plus net que d’autres. L’hiver n’a par exemple connu aucune évolution significative. Décembre est même le seul mois à s’être légèrement refroidi (-0,2°C), en raison notamment de 2010, l’un des plus froids de ces 25 dernières années.

Le changement climatique est nettement plus perceptible au printemps, saison qui a revêtu ces dix dernières années un caractère de plus en plus estival. Juin est le mois qui s’est le plus réchauffé avec +0,8°C, suivi par avril (+0,6°C) et mai (+0,6°C). Cette tendance est également perceptible en automne, notamment en octobre (+0,6°C). En conclusion, si la France connaît toujours un vrai hiver, les intersaisons ont tendance à devenir de plus en plus agréables, et moins soumises aux risques de fraîcheur. La saison estivale connaît une hausse plus modérée (+0,3°C), où l’impact de la canicule de 2003 a été atténué par des périodes plus maussades depuis.

Pour ce qui est des précipitations et de l’ensoleillement, l’évolution est minime. On observe une très légère atténuation des pluies (-1,1 %) et quelques heures de soleil supplémentaires (+2 %). Ces chiffres marquent d’importantes disparités, autant spatiales que temporelles. Les hivers connaissent un meilleur ensoleillement et des périodes sèches plus fréquentes. En revanche, les nuages ont gagné un peu de terrain en été (notamment en juin), tandis que les automnes sont de plus en plus pluvieux, tout particulièrement octobre et novembre.

Géographiquement, la situation est également contrastée. Les régions de l’ouest ont vu davantage le soleil. En Décembre, nousavons gagné 30 % d'ensoleillement entre la Bretagne et le nord de l’Aquitaine. En revanche, les pluies méditerranéennes ont souvent pris un caractère extrême à l’automne, avec plusieurs épisodes majeurs (septembre 2002, septembre 2009). Les cumuls de pluie ont progressé de 25 % entre septembre et novembre sur Montpellier ou Nîmes, confirmant l’accentuation des précipitations diluviennes sur ces régions. En revanche, le reste du temps, les pluies y sont de plus en plus rares et les périodes de sécheresse s’allongent.

Il est à noter que si le réchauffement se poursuit au même rythme que ces dix dernières années, nous devrions connaître une hausse de 4°C en un siècle, ce qui est conforme aux projections. Toutefois, si aucune baisse n’est envisagée, de nombreux paramètres entrent en ligne de compte, et pourraient accentuer ou atténuer cette tendance.

La Chaîne Météo

Réchauffement climatique et canicule : une boucle infernale !
Dimanche, 16/09/2012 - 14:49

La NASA a publié début août un article du célèbre et respecté climatologue James Hansen qui souligne une nouvelle fois l'ampleur du changement climatique en cours et déclare : « le changement climatique qui est en train de se produire est pire que ce que nous pensions et nous avons à présent de sérieuses raisons scientifiques qui confirment les liens entre les récentes vagues de chaleur constatées dans le monde et le réchauffement global en cours".

La particularité de l'étude d'Hansen est qu'elle ne repose pas sur des modèles climatiques ou des simulations informatiques mais sur les observations concrètes des événements climatiques et des températures constatés depuis plusieurs années. En analysant finement l'ensemble des données concernant les températures à la surface de la Terre, cette étude montre une augmentation sensible de la fréquence et de l'intensité des épisodes caniculaires depuis un demi-siècle.

Jusqu'à présent, la majorité des climatologues, toujours prudents, admettaient que le réchauffement climatique augmente la probabilité des événements extrêmes mais rappelaient la variabilité naturelle du climat sur des cycles courts et la difficulté d'établir un lien de causalité entre un événement météorologique particulier et le changement climatique global. Mais l'étude de James Hansen brise ce tabou et montre que, statistiquement, les vagues de chaleurs extrêmes de plus en plus fréquentes ne peuvent pas être expliquées sans tenir compte de l'accélération du réchauffement climatique global.

Selon Hansen « Les vagues de chaleur exceptionnelles de 2003 en Europe, de 2010 en Russie et de 2011 aux Etats-Unis ne peuvent pas s'expliquer sans les relier au réchauffement climatique global qui s'accélère depuis 30 ans. L'étude montre notamment qu'au cours des 30 dernières années, il y a eu sensiblement plus d'étés anormalement chauds qu'au cours de la période de référence qui va de 1951 à 1980. Par ailleurs, les régions ayant été touchées par des périodes « très chaudes » sont de plus en plus larges et correspondent à présent à 12 % des terres dans l'hémisphère nord, contre un peu plus de 1 % pour la période de référence.

Cette étude vient d'ailleurs d'être étayée par la NOAA (National Oceanic and Atmospheric Administration), qui montre que l'ensemble de la planète (surfaces terrestres et maritimes) a a connu en 2012 sa quatrième plus chaude température moyenne en juillet (0,62 degré au-dessus de la moyenne du XXème siècle de 15,8) depuis le début de l'enregistrement des températures en 1880. Le record de température sur terre a même été battu dans l'hémisphère nord, avec un mois de juillet, à 1,19 degré au-dessus de la moyenne.

Article rédigé par Mark FURNESS pour RTFlash

PNAS

PNAS

NOAA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Dengue : un vaccin partiellement efficace enfin disponible
Jeudi, 20/09/2012 - 01:30

La dengue touche chaque année plus d’un demi-million de personnes à travers le monde et reste un fléau mondial. Selon une étude publiée dans le "Lancet", les laboratoires Sanofi Pasteur auraient mis au point un « candidat- vaccin » qui serait efficace dans plus de 30 % des cas.

La dengue est causée par un virus endémique et touche les pays tropicaux. Cette maladie, encore appelée « fièvre rouge », se transmet à l’homme par les piqûres de moustiques diurnes du genre Aedes qui ont eux-mêmes été infectés par un virus de la famille des favivirus. Les personnes touchées ont de la fièvre, des douleurs musculaires et des vomissements et, normalement, elles finissent par se rétablir spontanément. Mais  la dengue existe également sous une forme plus dangereuse qui se manifeste par une fièvre hémorragique pouvant entraîner la mort. Selon l'OMS, 100 millions de personnes sont infectées chaque année par le virus de la dengue, 500.000 développent la forme hémorragique et 10 000 décèdent des suites de cette maladie.

Actuellement, faute de traitement curatif efficace de la dengue, la médecine soigne les symptômes de cette affection pour soulager les malades. C'est pourquoi ce vaccin annoncé par Sanofi Pasteur et testé avec succès sur 4 000 enfants thaïlandais constitue une véritable avancée, même si, pour l'instant, il n'offre qu'une protection partielle car il n'immunise que contre trois des quatre souches identifiées à ce jour du virus.

Article rédigé par Mark FURNESS pour RTFlash

The Lancet

Sanofi-Pasteur

Des chercheurs suisses inventent le premier "téléphone cellulaire"
Mercredi, 19/09/2012 - 13:59

Quand deux personnes se téléphonent, elles échangent très facilement des informations en utilisant un protocole strict et préétabli de communication qui comporte un support physique (le réseau téléphonique ou l'Internet) et une partie logicielle.

C'est exactement ce concept de la communication téléphonique qu'est parvenue à reproduire une équipe de recherche du fameux Institut Fédéral de Technologie de Zurich (ETH), dirigée par Martin Fussenegger et Jörg Stelling, deux chercheurs spécialistes en génie des biosystèmes. Les chercheurs sont parvenus, pour la première fois, à programmer des cellules de mammifères de manière à ce qu'elles puissent échanger, sur un mode bidirectionnel, des signaux chimiques entre elles et communiquer exactement comme si elles se "téléphonaient".

Comme le souligne Martin Fussenegger, "Nous avons conçu un système synthétique de communication qui est vraiment cellulaire dans toute l'acception du terme." Il s'agit bien d'une avancée majeure car jusqu'à présent les biologistes avaient conçu des systèmes de communication qui ne fonctionnaient que pour des cellules d'organismes rudimentaires, comme des bactéries ou des levures. Cette fois, les chercheurs ont accompli un véritable saut en complexité en faisant communiquer entre elles des cellules de mammifères.

Le "téléphone cellulaire" suisse fonctionne sur le modèle du téléphone que nous utilisons tous les jours. Il utilise un dispositif d'émission de signaux, un système de réception de ces signaux et un protocole de conversion et d'acheminement de ces signaux. Pour mettre au point leur procédé, les chercheurs suisses ont utilisé des cellules de rein embryonnaire humain, baptisées HEK.

Les chercheurs ont notamment utilisé de l'indol, un composé organique aromatique qui entre dans la composition des parfums et qu'on trouve dans un grand nombre de composés organiques et acides aminés, comme le tryptophane.

Le processus commence précisément par la production, par la cellule émettrice, de cet acide aminé, le L-tryptophane. Celui-ci va alors se fixer sur la cellule réceptrice qui le reconnaît et traite le signal reçu. Cette cellule réceptrice, en réponse au L-tryptophane, produit à son tour de l'acétaldéhyde qui est renvoyée à l'émetteur et traitée comme signal et la boucle est bouclée ! Au terme de la réaction biochimique, lorsqu'un certain niveau d'acétaldéhyde est atteinte ou que l'indol est consommé, la cellule émettrice cesse de produire du L-tryptophane et la "communication téléphonique" cesse d'elle même.

La maîtrise de la communication bidirectionnelle entre les différents types de cellules humaines constitue un enjeu scientifique et médical majeur car de très nombreuses pathologies proviennent d'une perturbation ou d'un dérèglement de ce système de communication biochimique bidirectionnelle intercellulaire.

Ce système est notamment impliqué dans les processus inflammatoires, la régulation du taux de sucre et la croissance du système vasculaire. C'est dans ce dernier domaine que les perspectives thérapeutiques sont sans doute les plus importantes car, pour survivre et croître, les tumeurs ont besoins d'être approvisionnées en énergie et nutriments et cette alimentation passe par la formation de nouveaux vaisseaux sanguins.

En temps normal, lorsqu'un vaisseau sanguin a terminé sa croissance dans notre organisme, il émet un signal spécifique qui va bloquer la perméabilité des cellules endothéliales et stopper son mécanisme de croissance. Les chercheurs suisses sont parvenus à reproduire ce mécanisme de communication à l'aide d'une culture cellulaire. Ils ont conçu un "émetteur" et un "récepteur" dans un ensemble de cellules endothéliales recouvrant les parois des vaisseaux sanguins. Ils ont alors pu montrer qu'il était possible de mettre en oeuvre, en  réponse à l'envoi d'un signal porté par l'acétaldéhyde, un mécanisme de production de Ang1, une molécule qui va venir bloquer la perméabilité des cellules endothéliales et donc stopper la croissance des vaisseaux sanguins et le mécanisme lié au facteur de croissance vasculaire endothélial ou mécanisme VEGF (.Vascular endothelial growth factor).

Or, on sait depuis un vingtaine d'années que ce mécanisme de croissance vasculaire VEGF joue un rôle majeur dans le développement des tumeurs et des métastases et qu'il est possible, à l'aide de certaines molécules qui ont permis la mise au point d'une nouvelle classe de médicament anti-cancéreux, de bloquer dans certains cas cette croissance vasculaire et d'assécher la tumeur qui va alors dépérir.

Si l'on parvient à utiliser toutes les potentialités de ce «téléphone cellulaire», on disposera, selon les chercheurs suisses, d'un moyen très puissant et très efficace de bloquer la formation de nouveaux vaisseaux sanguins et sans doute d'empêcher le développement et la dissémination des cancers dans l'organisme.

Article rédigé par Mark FURNESS pour RTFlash

PHYS ORG

ETH

Stress au travail et infarctus : un lien confirmé
Mercredi, 19/09/2012 - 13:20

Ces dernières années, le rôle d'une série de facteurs psychologiques (la personnalité, la cognition, le stress) a été étudié dans la survenue de maladies cardiovasculaires. Le stress psychologique a été le facteur plus examiné, en particulier le stress au travail, combinaison d'une forte demande de travail avec peu de marges de manœuvre. Des études précédentes ont mis en exergue une association entre le stress au travail et un risque de survenue d'événements coronariens multipliée par deux.

Des chercheurs de l'Inserm, Marcel Goldberg, Archana Singh Manoux et Marie Zins de l'unité Inserm 1018 "Centre de recherche en épidémiologie et santé des populations" et de l'université Versailles Saint Quentin, ont contribué à la plus large analyse jamais conduite sur l'association entre le stress au travail et la survenue d'événements coronariens. La particularité de cette grande analyse est qu'elle regroupe les données individuelles de 197 473 participants inclus dans les cohortes européennes, permettant aux chercheurs de mieux cerner l'association étudiée sur un grand nombre de cas.

Les cohortes étudiées, initiées de 1985 à 2006, sont celles de 7 pays : Belgique, Danemark, Finlande, France, Pays-Bas, Royaume-Uni et Suisse. La moyenne d'âge des participants est de 42,3 ans et la population étudiée présente autant de femmes que d'hommes. Le stress au travail a été évalué par des questionnaires portant sur les aspects psychosociaux liés au travail. Il s'agit par exemple d'analyser la demande, l'excès de travail des individus, les demandes conflictuelles auxquelles ils sont confrontés, le temps restreint pour accomplir les tâches qui leur sont confiées.

La proportion d'individus exposés au stress au travail variait entre 12,5 % et 22,3 % selon les précédentes études. Sur cette grande population, elle représente 15,3 %. En parallèle, sur les 200 000 individus, les chercheurs ont recensé 2358 événements coronariens, sur une période de 7 ans de suivi en moyenne.

En harmonisant les données, "les résultats obtenus à partir des 13 cohortes européennes révèlent que les individus exposés au stress au travail ont un risque de 23 % plus élevé que ceux qui n’y sont pas exposés de faire un infarctus" explique Marcel Goldberg, chercheur à l'Inserm et professeur à l’Université de Versailles Saint Quentin. Quand on prend en compte les modes de vie, l'âge, le sexe, le statut socioéconomique et la répartition géographique des participants, les résultats sont pratiquement inchangés.

Si l'on étudie la population globale (stressée et non stressée), les chercheurs considèrent que le stress au travail est associé à une augmentation du risque relativement modeste de faire un infarctus, mais qui n'est pas négligeable : "Dans notre étude, 3,4 % des infarctus recensés parmi les 200 000 individus sont attribuables au stress au travail. Sur les 100 à 120 000 infarctus survenant en France chaque année, cela correspondrait tout de même à environ 3 400 à 4 000 accidents imputables à ce facteur de risque", souligne Marcel Goldberg.

Inserm

Une vaste étude épidémiologique conclut à l'utilité de la prévention du cancer du sein
Lundi, 17/09/2012 - 01:10

Au cours de ces dernières années, un grand débat scientifique s'est ouvert pour évaluer les bénéfices réels, en terme de mortalité et de survie, d'une prévention et d'une détection généralisées pour certains cancers fréquents, comme les cancers du sein ou de la prostate.

Pour le cancer du sein, certaines études ont notamment montré que la généralisation des mammographies pouvait conduire à repérer des tumeurs qui n'auraient pas évolué et pouvait entraîner des traitements lourds et finalement inutiles. Dans ces situations, les risques pour la patiente seraient donc plus importants que les bénéfices !

Une vaste étude, publiée dans le Journal of Medical Screening, vient alimenter et éclairer ce débat. Elle montre en effet que, globalement, le dépistage généralisé conserve son utilité, même s'il existe un risque de surdiagnostic. Cette étude, la plus importante réalisée à ce jour (12 millions de dossiers examinés dans 18 pays d'Europe), montre que pour 1 000 femmes mammographiées tous les deux ans entre 50 et 69 ans, huit décès sont évités et quatre femmes sont surdiagnostiquées.

Pour illustrer de manière plus parlante leur démonstration statistique un peu aride, les chercheurs ont imaginé une comparaison très concrète que chacun peut comprendre : imaginons deux villes européennes comptant chacune 1000 femmes âgées de 50 ans. Dans la première ville, aucun dépistage n'a été réalisé pendant 30 ans alors que dans la seconde, chaque femme a bénéficié d'une mammographie tous les deux ans.

Dans ce cas, on constate qu'au bout de 30 ans, il y aura autant de cancers (67) dans les deux villes mais dans la ville où les dépistages sont organisés, il n'y aura que 21 à 23 femmes qui mourront d'une telle tumeur, soit 8 décès en moins en moyenne par rapport à l'autre ville (30 décès). Revers de la médaille, dans la ville qui a opté pour le dépistage, quatre femmes sur mille seront traitées à tort pour un cancer qui n'aurait pas évolué et 17 % des femmes soumises au dépistage seront convoquées pour des examens complémentaires qui concluront à l'absence de cancer su sein.

Sans nier l'existence du sudiagnostic, cette étude d'une ampleur considérable montre donc clairement que le dépistage généralisé du cancer du sein par mammographie reste justifié par un rapport bénéfices-risques incontestable.

Article rédigé par Mark FURNESS pour RTFlash

JMS

BBC

Les maladies infectieuses peuvent-elles favoriser l'obésité ?
Lundi, 17/09/2012 - 01:00

On savait déjà que certains agents pathogènes, bactéries ou virus, pouvaient entraîner des prises de poids chez l'animal et qu'au contraire d'autres, comme Helicobacter pylori pouvaient provoquer une perte de poids. Mais une question restait sans réponse : les infections contractées pendant l'enfance ont-elles un impact significatif sur l'évolution du poids à l'âge adulte ? Pour tenter de répondre à cette question, une équipe américaine a décortiqué les données médicales de près de 1 900 habitants des Philippines car, sur cet archipel, un quart de la population est en surpoids et on a constaté une forte augmentation de l’obésité entre 1985 et 2005.

Les chercheurs se sont penchés sur les données médicales très complètes de la Cebu Longitudinal Health and Nutrition Survey, concernant des enfants nés entre 1983 et 1984 et les ont comparées aux données actuelles. Ils ont ainsi pu constater que les grandes épidémies d'infections respiratoires semblaient provoquer une augmentation sensible du poids des sujets, ce qui montre, compte tenu de la rigueur méthodologique de l'enquête, que les infections de l'enfant peuvent avoir un impact important, des décennies plus tard, sur son poids.

Cette étude confirme donc un article publié dans Nature en 2005 et intitulé « La flore intestinale impliquée dans l'obésité ». L'hypothèse des chercheurs pour expliquer ce lien est que les infections respiratoires entraînent de fortes consommations d’antibiotiques et par voie de conséquence des modifications profondes de l'équilibre complexe qui règne dans notre flore intestinale.

Or, on sait depuis 2011, grâce à une étude internationale publiée dans Nature que les humains se répartissent en trois grands groupes distincts (entérotypes) en fonction de la composition de la flore intestinale. Cette remarquable étude a également montré des liens puissants entre la composition de ces entérotypes et des facteurs comme l'âge, l’origine géographique et le poids.

La mise au point de traitements personnalisés contre les infections, tenant compte de la spécificité de notre flore intestinale, pourraient donc, à long terme, être un puissant moyen de prévention contre l'obésité à l'âge adulte ainsi que contre beaucoup d'autre pathologies.

Article rédigé par Mark FURNESS pour RTFlash

CDC

Nature

Cancer de l'estomac : attention au sel !
Dimanche, 16/09/2012 - 14:36

Selon les autorités sanitaires britanniques, le sel pourrait être responsable d’un cancer de l’estomac sur sept et le Gouvernement anglais a décidé de faire un effort particulier, en matière d'information des consommateurs et de prévention, pour réduire la quantité de sel trop importante consommée par les britanniques. Outre le fait que la surconsommation de sel est un puissant facteur de risque en matière d'hypertension et d'ostéoporose, elle favorise également le redoutable cancer de l'estomac qui reste difficile à soigner car souvent détecté trop tard.

Pourquoi l'excès de de sel peut-il provoquer un cancer de l’estomac ? Pour une raison assez simple :  80 % de ce type de tumeur proviennent de la contamination de notre organisme par la bactérie Helicobacter pilori. Or, ce germe pourra coloniser notre estomac plus facilement si celui-ci a subi une inflammation chronique liée à l'excès de sel. On estime ainsi que les sujets qui consomment chaque jour plus de deux fois la dose de sel recommandée (5 grammes par jour selon les recommandations de l'OMS) augmentent de 70 % leurs risques de développer un cancer de l’estomac.

Afin de mieux informer les consommateurs, les pouvoirs publics britanniques envisagent la mise en place d’un code couleur sur les emballages des plats cuisinés permettant de visualiser immédiatement et simplement la teneur en sel du produit.

Rappelons qu'en France, la consommation moyenne en sel est également beaucoup trop élevée : autour de 8 grammes par habitant. Sachant que de nombreux produits alimentaires contiennent déjà du sel, il faudrait diviser au moins par deux notre consommation journalière de sel pour ne pas accroître nos risques d'hypertension ou de cancer.

Article rédigé par Mark FURNESS pour RTFlash

WCRF article

WCRF prévention

MNT

Cancer : la chimiothérapie peut rendre résistantes les cellules malignes !
Samedi, 15/09/2012 - 15:02

En médecine, le mieux est parfois l'ennemi du bien comme vient de le montrer une équipe de recherche américaine contre le cancer. Ces chercheurs ont constaté que la chimiothérapie, par ailleurs de plus en plus efficace contre le cancer, peut également perturber des cellules saines et leur faire produire une protéine qui va ensuite permettre à la tumeur de développer une résistance au traitement. Ce mécanisme nouveau et complètement inconnu a été observé dans des cas de traitements par chimiothérapie contre des cancers du sein, de la prostate, du poumon et du colon.

Dans ce mécanisme, les chercheurs ont montré le rôle central des fibroblastes, des cellules non cancéreuses qui interviennent dans la production de collagène et le processus de cicatrisation. Ce qu'on ne savait pas, c'est que ces fibroplastes, lorsqu'ils sont soumis à une chimiothérapie, subissent des modifications de leur ADN qui vont les conduire à émettre un pic de protéine baptisée WNT16B. Or, cette protéine va agir comme un véritable cheval de Troie en conférant aux cellules cancéreuses voisines une grande résistance à la chimiothérapie employée !

Cette découverte fondamentale montre à quel point l'environnement cellulaire et moléculaire de la tumeur joue un rôle important dans l'efficacité des traitement mis en oeuvre. Elle explique également pourquoi les cellules cancéreuses réagissent de manière différente à la chimiothérapie et finissent trop souvent par devenir résistantes aux médicaments.

Ces recherches ouvrent de grandes perspectives thérapeutiques pour les patients en échec et présentant des cancers devenus résistants aux traitements. On peut en effet espérer, selon les chercheurs, pouvoir bloquer la protéine WNT16B par un anticorps spécifique, ce qui empêcherait les cellules cancéreuses voisines de se mettre à  résister aux chimiothérapies et ce qui permettrait également de diminuer, à efficacité constante, les doses de médicaments anti-cancéreux, réduisant d'autant les effets secondaires souvent importants pour les patients.

Article rédigé par Mark FURNESS pour RTFlash

Nature

La vitamine D joue bien un rôle majeur en matière de protection cardio-vasculaire
Vendredi, 14/09/2012 - 19:31

En septembre 2010, une vaste étude américaine portant sur plus de 40 000 personnes avait montré que les sujets présentant un faible taux de vitamine D dans le sang (moins de 30 ng/ml) voyaient leurs risques d’hypertension, de diabète et de cholestérol augmenter sensiblement par rapport aux sujets qui présentaient un taux normal (40 à 80 ng par litre de sang).

Une nouvelle étude américaine réalisée sur une période de 15 ans et portant sur plus de 13 000 personnes (6 000 hommes ; 7 000 femmes) âgés de plus de 35 ans vient de montrer que les personnes présentant un taux bas de vitamine D dans le sang (moins de 25 ng par litre) avaient un risque sensiblement plus élevé de maladie cardio-vasculaire ainsi qu'un risque plus élevé de décès, toutes causes confondues.

Toutefois, un excès de vitamine D peut s'avérer aussi néfaste qu'une carence. Une autre étude américaine publiée en novembre 2011 a en effet montré, sur plus de 130 000 patients, que les personnes qui avaient un taux de vitamine D dans le sang considéré comme excessif (supérieur à 100 ng par litre), présentaient un risque deux fois et demi plus élevé de trouble du rythme cardiaque.

Ces études montrent donc que l'effet bénéfique de la vitamine D réside dans la mesure et qu'une carence comme un excès de cette vitamine indispensable peuvent avoir des effets néfastes sur la santé.

Article rédigé par Mark FURNESS pour RTFlash

AJC

NCBI

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top