|
|
Edito
Les grandes métropoles se placent à la pointe du combat contre le réchauffement climatique
Le 18 mai dernier, les maires de grandes métropoles du monde entier ont appelé les leaders des grands pays industrialisés du G8 à agir dès maintenant contre le réchauffement climatique, au terme d'un sommet de quatre jours à New York sur le climat. Ce sommet, dit "C40", a regroupé les dirigeants de 46 cités les plus importantes et les plus polluées du monde qui ont désigné la lutte contre le réchauffement climatique comme une priorité. "Nous demandons aux leaders du G8 lors du prochain sommet de Heiligendamm (Allemagne) de s'engager sur un objectif à long terme d'une stabilisation de la concentration des gaz à effet de serre", ont indiqué les maires qui soulignent que les villes consomment plus de 75% de l'énergie mondiale et génèrent aussi plus de 75 % des gaz à effet de serre, a affirmé Bill Clinton. Le maire de Londres, Ken Livingstone, a exprimé l'espoir que le groupe des huit grands pays industrialisés, qui doit se rencontrer début juin en Allemagne, trouve un consensus sur le sujet. Il a aussi critiqué le président américain George W. Bush pour son opposition continue à la plupart des propositions visant à combattre le réchauffement du climat. Parallèlement à ce sommet, 500 maires américains se sont démarqués de la politique de Georges W. Bush en signant une déclaration dans laquelle ils s'engagent à respecter les objectifs du protocole de Kyoto en matières d'émission. "Les maires agissent car le gouvernement reste muet", commente Douglas Palmer, maire de Trenton dans le New-Jersey, président de la conférence des maires. Mais ce sommet de New York a également été l'occasion, pour les principaux maires présents, de présenter un ambitieux programme de 5 milliards de dollars pour réhabiliter des bâtiments dans 16 métropoles du monde afin que leur coût de fonctionnement en énergie soit fortement réduit. Ce programme, défendu par M. Livingstone et Bill Clinton, pourrait permettre de réduire les émissions de gaz à effet de serre d'un dixième sur dix ans. L'initiative devrait apporter des fonds aux municipalités et aux propriétaires de bâtiments privés pour introduire des techniques modernes d'économie d'énergie, allant des ampoules fluorescentes aux mesures d'isolation et de chauffage économiques. A terme, les économies d'énergie devraient excéder en valeur le coût du programme, ont indiqué les maires, sans toutefois donner de date butoir pour atteindre cet objectif. En prélude à ce sommet des maires des grandes villes, le maire de New York Michael Bloomberg a présenté, le 22 avril, un vaste plan pour "un New York plus grand et plus vert" comprenant 127 mesures. Le moins qu'on puisse dire est que ce plan a surpris par son ampleur, sa globalité et son volontarisme politique et qu'il alimente un véritable débat démocratique, à New York mais aussi dans le reste des Etats-Unis, sur le rôle de la puissance publique et de la fiscalité en matière de lutte contre la pollution et contre le réchauffement climatique. L'objectif du plan de Bloomberg est de réduire de 30 % les émissions de gaz à effet de serre d'ici 2030 dans "The Big Apple", d'enrichir les parcs, d'assainir les rivières, de planter un million d'arbres d'ici 2017 (dont un quart le long des routes), de réhabiliter 3 000 ha de terrains industriels abandonnés, de réduire la dépense énergétique, de supprimer les taxes new-yorkaises sur les voitures hybrides, de relever de 2,50 dollars par mois les factures d'électricité pour financer des investissements... Bloomberg veut également que, d'ici 2012, les 13 000 taxis new yorkais se soient convertis à la motorisation hybride. Dans cette mégapole où l'individu est roi, la majorité des New Yorkais considèrent que ce plan est nécessaire mais des automobilistes restent néanmoins très partagés contre la mesure-phare de ce plan : instaurer, comme à Londres ou Stockholm, une taxe sur l'entrée des véhicules. Ce péage urbain serait de huit dollars pour les automobilistes entrant dans Manhattan la semaine entre 06h00 et 18h00 (21 dollars pour les camions). Les taxis seraient exemptés et les résidents auraient droit à un traitement spécial. Pays conçu pour l'automobile, les Etats-Unis ont un réseau routier et autoroutier unique par sa dimension. En outre, ce réseau immense est gratuit. Alors qu'il faut payer plus de 50 euros de péage pour traverser la France du Nord au Sud, on peut traverser les Etats-Unis sans rien payer. En outre, l'essence est trois moins chère qu'en France. Il y a cependant de nombreux exemples de péage en Amérique, mais ils sont pour des passages bien particuliers, comme le Golden Gate à San Francisco, ou le pont du Verrazano à New York. Des ponts qui ont coûté cher, et pour lesquels l'idée de péage est bien acceptée. Mais dans la circulation courante, les américains ne sont pas habitués à payer quoi que ce soit, et le maire de New York, Michael Bloomberg, a pris un risque politique important en lançant l'idée d'un péage urbain à New York. La zone à péage serait le Sud de la presqu'île de Manhattan, à partir de la 86ème rue. Pour tous les travailleurs non résidents et ne bénéficiant pas d'abonnement, le montant annuel de ce péage s'élèverait à 4000 dollars. Le maire précise aussi que les recettes du péage (environ 500 millions de dollars par an) permettront de grands travaux d'amélioration du réseau routier, tandis qu'une petite réduction des émissions de gaz à effet de serre est aussi escomptée. En dépit d'une forte opposition, Michael Bloomberg souhaiterait une mise en place en 2009. La presse, les medias et la population se sont accaparés de ce sujet qui suscite un débat passionné et passionnant. Le journal New York Times met en avant que "cette démarche en faveur d'une taxation du trafic était attendue depuis longtemps. Mais cela va susciter beaucoup d'opposition." Le New York Post souligne, pour sa part, que les huit dollars sont "une grosse charge - en plus des autres taxes et cotisations déjà écrasantes" mais il admet que le plan du Maire est "réfléchi et complet pour s'attaquer à un objectif vital : la viabilité à long terme de New York". Pour la secrétaire américaine aux Transports, Mary Peters, « ce plan est le genre de réflexion courageuse que les dirigeants à travers le pays doivent entreprendre ». "Nous devons commencer à affronter les défis qui se présenteront à nous alors que New York va gagner un million d'habitants en 20 ans, en plus des huit millions actuels" souligne Bloomberg qui ajoute "Ce péage n'affecterait que 5 % des personnes travaillant sur l'île. Il s'appliquerait d'abord sur une période-test de 3 ans. J'étais moi-même sceptique. Mais j'ai regardé les faits, et c'est ce que je demande aux New Yorkais de faire. Dans des villes comme Londres et Singapour, les péages ont réussi à réduire le trafic et améliorer la qualité de l'air. Le tarif de huit dollars pourrait générer plus de 500 millions de dollars par an. C'est la bonne manière de gagner de l'argent. Le changement climatique est un défi national. Nous n'attendrons pas Washington. Il faut agir maintenant." Le Maire de New York poursuit "Si nous ne faisons rien, la facture énergétique de la ville augmentera de 3 milliards de dollars d'ici 2015. Il est notamment prévu d'engager 10 % de la facture annuelle d'énergie de la ville dans des investissements en économie d'énergie, de créer une autorité locale d'efficacité énergétique pour fixer, suivre et atteindre des objectifs de réduction de la demande en énergie de la municipalité ou encore de stimuler le marché des énergies renouvelables en créant une réduction d'impôt foncier pour les installations solaires. La ville souhaite avant tout diversifier ses approvisionnements en testant toutes les technologies possibles, notamment la production d'énergie à partir de déchets solides. Nul ne peut dire aujourd'hui si Bloomberg parviendra à faire adopter son plan très ambitieux et à le mettre en oeuvre mais le simple fait qu'il mette toute son autorité politique en jeu pour présenter un tel plan montre à quel point, face à la menace climatique et environnementale, les esprits sont en train d'évoluer aux Etats-Unis, y compris sur la question de la nécessité de l'intervention publique et sur l'usage d'une fiscalité écologique. Mais, fidèles à leur culture et à leur système de valeur, les grandes collectivités américaines, qu'il s'agisse des villes ou des états, ont décidé de prendre elles-mêmes en charge ce problème capital sans attendre de grandes mesures ou d'aides du gouvernement fédéral. C'est ainsi que la Californie n'a pas hésité à voter une loi, en 2003, qui oblige les constructeurs automobiles à réduire de 30 % d'ici 2012, les émissions de CO2 de leurs voitures. On peut néanmoins penser qu'aux Etats-Unis comme ailleurs, le gouvernement, sous la double pression de son opinion publique et de ses collectivités, va devoir infléchir sérieusement sa position et prendre contre le réchauffement climatique des mesures beaucoup plus énergiques. On voit bien que des idées ou mesures considérées comme utopiques ou insupportables il y a encore quelques années, sont en train de s'imposer pour répondre à la gravité de la situation climatique mondiale. C'est le cas pour le péage urbain, qui se généralise partout dans le monde ou pour la fiscalité écologique que sait utiliser de manière remarquable l'Allemagne. Le gouvernement allemand vient d'annoncer à ce sujet qu'il envisageait de taxer les véhicules non plus en fonction de leur cylindrée mais en fonction de leur rejet en CO2. Il est vrai qu'il y a quelques jours deux nouvelles études internationales très sérieuses (Voir notre article dans la rubrique « Environnement) ont montré que les émissions de CO2 ont augmenté plus vite depuis 2000 que dans le pire scénario envisagé par le Groupe intergouvernemental d'experts sur l'évolution du climat (Giec). Dans un tel contexte, souhaitons que notre pays, sous l'impulsion du nouveau Président, Nicolas Sarkozy, sache s'inspirer de ces exemples étrangers et mette en place au niveau local comme au niveau national, des politiques beaucoup plus ambitieuses, volontaristes et contraignantes pour réduire la pollution, protéger l'environnement et lutter plus efficacement contre le réchauffement climatique. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Big Blue va commercialiser une puce atteignant 4,7 GHz de fréquence d'horloge sur deux coeurs, quand Intel et AMD restent à 3 GHz mais multiplient les coeurs. Une puce qui équipera les serveurs IBM dédiés notamment à la gestion de base de données. IBM a baptisé sa sixième génération de processeurs pour serveur POWER6. Parmi cette nouvelle gamme, le modèle le plus avancé atteint 4,7 GHz de fréquence d'horloge. Un record selon le groupe américain, si l'on exclut les processeurs overclockés, dont la fréquence a été volontairement augmentée et qui sont refroidis par des systèmes spéciaux (water cooling, fréon...). Dans le cas présent, il s'agit d'une puce refroidie par un système classique de ventilateurs. Pour réduire l'émission de chaleur, IBM est passé à une finesse de gravure de 65 nanomètres, au lieu de 90 nm pour la génération POWER5 qui atteignait 2,2 GHz. Une finesse de gravure déjà adoptée depuis 2006 par AMD (Athlon 64 X2 dual-core) et fin 2005 par Intel. Pour autant, les deux fondeurs ont décidé de ne pas dépasser 3 GHz de fréquence, même pour leurs puces haut de gamme pour serveur, préférant multiplier le nombre de coeurs de leurs processeurs. Intel produira dès l'année prochaine des modèles dotés de huit coeurs et prévoit de passer à des processeurs 80 coeurs d'ici à cinq ans. IBM reste, pour sa part, sur le double-coeur, sa nouvelle puce atteignant 4,7 GHz sur les deux coeurs. En outre, le fabricant américain y intègre une mémoire cache distincte pour chaque coeur, d'une quantité de 4 Mo. De quoi accélérer le travail en multitâche, assure-t-il. La bande passante de son nouveau processeur atteint 300 Go/s, soit 100 de plus que les puces POWER5. Avec un tel volume de données géré, il est capable de «télécharger tous le catalogue d'iTunes en 60 secondes», avance IBM. IBM
|
|
|
|
|
|
|
|
Pour accompagner l'équipement désormais massif des ménages en TNT (Télévision numérique terrestre) et le succès commercial croissant des téléviseurs dits HD Ready ou Full HD, le Conseil supérieur de l'audiovisuel (CSA) avait lancé à la fin de l'année 2006 une consultation publique. L'initiative devait permettre de recueillir la position des acteurs concernés sur les conditions d'introduction de la haute définition sur la TNT. Editeurs de services, organisations professionnelles, industriels, diffuseurs, tous ou presque ont répondu à l'appel. Au total dix-huit contributions sont parvenues au CSA. Il en ressort qu'il serait possible, dès 2008, de diffuser trois services de télévision en haute définition sur un même multiplex. Trois places sont disponibles sur le multiplex R5 actuellement inoccupé, précise le CSA. En langage TNT, un multiplex est l'équivalent d'un canal de diffusion pour la télévision analogique, à cette exception près qu'un multiplex TNT permet de diffuser non pas une mais plusieurs chaînes, indique le CSA. Dans la plupart des cas, la réception de ces chaînes en HD devrait cependant impliquer de renouveller son adaptateur TNT. Sur les trois services de TV HD envisagée, le ministère de la Culture et de la Communication a fait savoir qu'une place devait être réservée pour une télévision de service public. En conséquence, le CSA a décidé d'organiser d'ici à un mois un appel à candidatures pour deux services de télévision privés sur le multiplex R5. OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Les squelettes des vertébrés constituent sans doute l'exemple le plus saisissant de l'efficacité des organismes vivants à former des structures robustes mêlant intimement matière organique et minérale, en l'occurrence du phosphate de calcium. Pourtant, dans le monde sous-marin, de nombreux organismes, souvent unicellulaires, réussissent une prouesse similaire en utilisant la silice pour fabriquer des carapaces et des épines afin de se protéger ou encore des spicules, fibres qui captent la lumière vers leurs neurones aussi bien que les meilleures fibres optiques. D'architecture et de forme complexes, ces structures naturelles sont d'autant plus étonnantes qu'elles se fabriquent spontanément dans l'eau dans des conditions douces de température et de pression suivant des mécanismes encore largement inconnus. Ce tour de force fait donc rêver les chimistes qui sont souvent obligés de chauffer, tirer ou comprimer les matériaux dans des conditions agressives pour les mettre en forme. Dans le cadre de leurs études sur la physico-chimie d'un peptide thérapeutique, le lanreotide, des chercheurs du CNRS et de l'Université de Rennes ont découvert que ce peptide pouvait servir d'échafaudage à la formation spontanée de nanotubes de silice par simple mélange avec un précurseur de silice dans l'eau. Ces tubes hybrides sont formés d'un agencement hélicoïdal parfait de molécules du médicament en un tube de 24 nm de diamètre recouvert à l'intérieur et à l'extérieur de deux parois fines et uniformes de 2 nm de silice. Les tubes sont longs de plusieurs micromètres et s'alignent en fibres de quelques millimètres. Leur organisation est ainsi hiérarchiquement maîtrisée sur plus de 6 ordres de grandeur, soit le même rapport de longueur que le diamètre d'un cheveu et la hauteur de la tour Eiffel. Pour réaliser ce travail d'orfèvre, l'équipe de chercheurs composée de physiciens, de biologistes et de chimistes, a mis au point une technique lente permettant d'enrober de silice des nanotubes de molécules biologiques qui se forment dans l'eau. Ils ont eu la surprise d'observer que le dépôt de silice favorise l'extension progressive du nanotube organique dont l'extrémité renouvelée peut alors servir à nouveau d'échafaudage à la suite du dépôt de silice. Ce procédé récurrent assure à la fois la maîtrise de l'organisation à l'échelle moléculaire tout en fabriquant l'échafaudage organique au fur et à mesure que le minéral se dépose. Ce procédé ressemble étonnamment à la construction d'un gratte-ciel au cours de laquelle le montage de l'armature métallique et le dépôt de béton s'alternent avec précision, sauf qu'il n'y a pas d'ouvrier et que les nanotubes de silice sont infiniment plus petits... Ces travaux ouvrent deux perspectives nouvelles. D'une part, ils permettent de mieux comprendre à partir d'un système simplifié quelques mécanismes astucieux, mais encore mystérieux, développés par la nature, pour fabriquer des squelettes, et des spicules. D'autre part, ils ouvrent la voie vers de nouveaux matériaux aux dimensions nanométriques dont l'organisation dans l'espace est maîtrisée jusqu'à des tailles macroscopiques, leur conférant ainsi des propriétés uniques. CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le conseil régional Midi-Pyrénées a décidé d'installer sur les toits de l'Hôtel de Région, à Toulouse (Haute-Garonne), une centrale solaire composée d'environ 300 m² de panneaux solaires photovoltaïques, pour une puissance totale de 39 kiloWatts-crête (kWc), soit une production annuelle attendue de 43 500 kWh. Cette centrale, qui sera opérationnelle en juillet prochain, permettra de produire de l'électricité et d'éviter l'émission dans l'atmosphère d'environ 5 tonnes de CO2 par an. Le marché, évalué à 290 000 ?, a été attribué à la société Electricité Industrielle JP Fauché SA, basée à Lafrançaise dans le Tarn-et-Garonne. Les modules-capteurs, de type verre-tedlar avec cellules en silicium polycristallin, sont des capteurs solaires de marque Tenesol, fabriqués dans l'agglomération toulousaine dans une usine inaugurée en grande pompe en décembre dernier. Installés sur un toit en terrasse, les 198 panneaux solaires seront à peine visibles du domaine public. Avec cet équipement, parmi les plus importantes installations produisant de l'électricité solaire de Midi-Pyrénées, le Conseil Régional, qui a lancé en mars dernier un appel à projets régional « solaire-photovoltaique », souhaite montrer l'exemple en matière de développement des énergies renouvelables. Pour l'instant, la loi interdit aux Régions comme aux Départements de produire de l'électricité, et plus précisément l'article 2224-32 du Code général des collectivités territoriales (article 2224-32). « Il nous a donc fallu travailler pendant plusieurs mois pour trouver un montage juridique » souligne le Conseil régional. Ne pouvant exploiter en direct, la Région a finalement choisi de louer à l'entreprise Fauché à Lafrançaise, l'équipement solaire, qui de son côté pourra produire l'électricité et la revendre normalement à EDF. A saint Etienne, dans la Loire, Ce sont 2 600 m2 de panneaux solaires qui recouvriront bientôt la tribune ouest du célèbre stade Geoffroy-Guichard. Objectif : produire de l'électricité à bon compte. Une fois réalisée, cette installation sera la plus importante de France. L'installation de panneaux photovoltaïques pour produire de l'électricité se développe de façon spectaculaire dans l'hexagone. C'est dans le cadre de ces actions en faveur du développement durable que Saint-Étienne Métropole a donc décidé d'équiper la tribune ouest de Geoffroy-Guichard (la tribune officielle), avec 2 600 m2 de panneaux photovoltaïques. L'installation de ces panneaux se réalisera par le remplacement des bacs aciers traditionnels recouvrant la tribune concernée par des bacs comportant les panneaux photovoltaïques intégrés. Ils seront raccordés au réseau basse tension par l'intermédiaire d'onduleurs. L'énergie produite sera revendue à EDF au tarif légal de 0,55 centimes par KW/h. Les travaux devraient débuter rapidement puisque l'objectif affiché est une mise en service avant le premier match de la Coupe du monde de rugby, le 9 septembre à Geoffroy-Guichard. Mais contrairement à ce que l'on pourrait penser, cette installation ne bénéficiera pas directement au stade et entre autre à l'éclairage du terrain les soirs de match. Mais elle s'accompagnera d'un travail de diagnostic énergétique afin de planifier une série d'actions visant à économiser de l'énergie sur le site de Geoffroy-Guichard. En fait, Saint-Étienne Métropole, qui est propriétaire des installations sportives, va louer la toiture de Geoffroy-Guichard pour l'euro symbolique à une SAS qui prendra en charge l'investissement, la maintenance et la gestion et donc le revenu de la revente de l'électricité. Un bail sera signé pour une durée de vingt ans. Et c'est seulement en 2027 que la communauté d'agglomération retrouvera la jouissance de sa toiture et des installations. Si l'investissement est estimé à plus de 1,7 million d'euros, l'amortissement sur vingt ans est de 1,3 million d'euros. Pour que l'affaire soit rentable, il manque donc 400 000 euros. Les collectivités locales mais également EDF et l'Ademe devraient mettre la main à poche pour boucler ce budget. Pour arriver à une exploitation optimum des panneaux photovoltaïques, Saint-Étienne Métropole compte sur un ensoleillement de 955 heures correspondant à une production de 206 996 kW/h, pour une recette annuelle de 1,14 millions d'euros dont elle peut espérer un retour dans une vingtaine d'années. UN E2b
|
|
|
|
|
|
|
|
Mitsubishi Heavy Industries (MHI - machinisme, aéronautique, énergie, transport etc. ) a annonce le 16 mai que d'ici fin mars 2008 l'ensemble de ses 13 sites de production seraient équipés de centrales électriques photovoltaïques dans le but de réduire les rejets de CO2 de l'entreprise. Les nouvelles installations devraient produire 720 kW, portant la production électrique solaire totale de MHI à 1090 kW. Cela permettra une diminution d'environ 340 tonnes de CO2 rejeté par an, équivalant à la quantité de CO2 absorbée par 230 hectares de forêt. Des cellules photovoltaïques tandem silicium amorphe / silicium microcristallin, produites par la société sur son site de Nagasaki, seront utilisées. Elles ont été développées dans le cadre d'un projet NEDO, l'agence de moyen du METI, et sont considérées comme la nouvelle génération des cellules en couches minces. Leur rendement est 1,5 fois plus élevé que celui des cellules en silicium amorphe seul et, contrairement à ces dernières, elles ne souffrent pas de limitation en approvisionnement de matière première. Cette initiative fait partie du plan global de l'entreprise visant à réduire son impact sur l'environnement (Corporate Social Responsability). BE Japon
|
|
|
|
|
|
|
|
Le potentiel solaire algérien reste le plus important de tout le bassin méditerranéen avec 169 440 TW heure/an, soit 5000 fois la consommation algérienne en électricité et 60 fois la consommation de l'Europe. C'est à ce titre qu'elle ambitionne de développer le secteur de l'énergie solaire à hauteur de 6 % d'ici 2015, rapportait le ministre de l'Energie et des Mines. Mais quelle est la part de l'énergie solaire dans le bilan énergétique national ? En réalité, et bien que le pays bénéficie d'un « gisement » conséquent en matière d'ensoleillement, la part de cette énergie ne représente que 0,02 % de la consommation nationale d'électricité. Et même si le programme national d'électrification rurale 1995-1999 a permis d'octroyer de l'électricité grâce à des systèmes solaires photovoltaïques pour un millier de foyers du Grand-Sud algérien, depuis, peu de structures ont pu bénéficier de cette énergie dite propre. Quelques institutions, notamment la Gendarmerie nationale et récemment le parc des Grands Vents à Alger, qui dispose de 1400 m2 de panneaux photovoltaïques, profite de cette énergie. Mais, fort de l'étude allemande qui apportait la preuve par satellite du potentiel algérien en matière d'énergie solaire, il a été décidé la création d'un technopôle solaire situé à Hassi R'mel d'une capacité de 150 MW/an. El Watan
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Une équipe internationale d'astronomes a annoncé avoir découvert une étoile vieille de 13,2 milliards d'années, presque aussi ancienne que l'univers lui même, qui remonte à 13,7 milliards d'années. Cette étoile, baptisée HE 1523-0901, est un "vrai fossile", a souligné l'Organisation pour la recherche astronomique dans l'hémisphère austral (Eso), dont le télescope VLT est à l'origine de cette découverte. Cette étoile relativement brillante se situe dans notre propre galaxie, la Voie Lactée. "Cette étoile a clairement dû se former très tôt dans l'existence de notre galaxie qui, elle-même, a dû se former très peu de temps après le Big Bang", qui a donné naissance à notre univers, souligne l'Eso. Les chercheurs sont parvenus à calculer l'âge de l'étoile en mesurant très précisément, par analyse spectrographique de la lumière émise par l'étoile, l'abondance de matériaux radioactifs, comme l'uranium et le thorium, un peu à la manière des archéologues qui utilisent la teneur en carbone 14 pour donner un âge à des objets anciens. ESO
|
|
|
|
|
|
|
|
La Nasa a annoncé avoir découvert la présence sur Mars de fortes concentrations de silice, nouvelle preuve selon l'agence spatiale américaine que la planète rouge a recelée dans le passé d'importantes quantités d'eau en surface. "Un échantillon de sol martien analysé par le robot Spirit de la Nasa est si riche en silice qu'il pourrait s'agir de la preuve la plus solide à l'heure actuelle que Mars a dans le passé été bien plus humide qu'à l'heure actuelle", a indiqué le Jet Propulsion Laboratory (JPL), branche de l'agence basée à Pasadena (Californie, ouest), près de Los Angeles. L'échantillon en question était composé à 90 % de silice. "Le processus qui pourrait avoir produit une telle concentration de silice requiert la présence d'eau", a précisé la Nasa. Spirit et Opportunity, deux robots géologues, ont commencé leur mission sur Mars début 2004, et ont continué à fonctionner bien au-delà des capacités initialement prévues par la Nasa. Ils ont déjà découvert plusieurs autres indices de présence d'eau, dont des roches cristallisées. Par ailleurs, en mars, il avait été révélé que de vastes quantités de glace d'eau pure sous le pôle sud de Mars avaient été découvertes par des instruments de la sonde européenne Mars Express. La plupart des scientifiques sont désormais d'accord pour dire que Mars, qui s'est formée comme la Terre il y a quelque 4,6 milliards d'années, a été très humide à un moment donné de son histoire. Récemment, une sonde de la Nasa a transmis des photographies montrant l'apparition, ces dernières années, de deux petites ravines dans un cratère qui laissent penser que l'eau pourrait encore couler aujourd'hui sur la planète mais cette thèse est l'objet d'un débat parmi les scientifiques. Nasa
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude, publiée le 22 mai, de l'Organisation pour la recherche scientifique et industrielle du Commonwealth (CSIRO), le réchauffement climatique se produit plus rapidement que prévu par la plupart des études réalisées dans les années 1990 et au début des années 2000, car la croissance économique a engendré depuis 2000 des émissions de gaz à effet de serre (GES) plus fortes qu'attendues. «Une des principales raisons de l'accélération de la croissance des émissions est que, globalement, nous brûlons davantage de carbone par dollar de richesse créée», a expliqué dans un communiqué Mike Raupach, du CSIRO. La sortie de cette étude australienne intervient un jour après la publication d'une étude américaine de la revue Proceedings of the national academy of sciences (Pnas) sur l'augmentation des rejets de CO2 dans le monde entre 2000 et 2004. Entre 2000 et 2004, cette augmentation a été trois fois supérieure à celle des années 1990 : 3,1 % par an au début des années 2000 contre 1,1 % par an dans les années 1990. «Nous ne constatons pas de signes de progrès dans la gestion de ces émissions, pas plus dans les pays développés que dans les pays en développement. Dans de nombreuses parties du monde, nous reculons», souligne le principal auteur de cette étude, Chris Field, directeur du département sur l'écologie mondiale à la Carnegie Institution. Les émissions de CO2 ont augmenté plus vite depuis 2000 que dans le pire scénario envisagé par le Groupe intergouvernemental d'experts sur l'évolution du climat (Giec). Ces deux résultats vont dans le sens d'une accélération de l'augmentation du CO2 atmosphérique au cours des prochaines décennies. Les émissions du CO2 des combustibles fossiles, cause principale du réchauffement climatique, ont accéléré globalement à un taux bien plus grand que prévu, passant de 1,1 % par an dans les années 90 à 3 % par an pour la période 2000 à 2005. Presque 8 milliards de tonnes de carbone fossile ont été émises globalement dans l'atmosphère en 2005, comparé à seulement 6 milliards de tonnes en 1995. Chaque personne en Australie et aux Etats-Unis émet maintenant plus de 5 tonnes de carbone par an, pour 1,9 tonne en France et une tonne en Chine. CSIRO
|
|
|
|
|
|
|
|
Les quantités de gaz à effet de serre envoyées dans l'atmosphère par l'usage de combustibles fossiles (charbon, pétrole, gaz naturel) augmentent depuis 2000. Et la vraie surprise est que la hausse s'accélère. Entre 2000 et 2005, la croissance était de 3 % par an, contre 1 % dans les années 1990. Premier constat : la courbe actuelle des émissions mondiales se trouve dans la fourchette la plus pessimiste - voire au-delà, selon certains chiffres - des scénarios envisagés par le Giec (Groupe intergouvernemental d'experts sur l'évolution du climat) pour estimer les hausses de température possibles pour le siècle en cours. Les conséquences des gaz à effet de serre sur le climat devraient donc être maximales. On a extrait ces données en analysant les chiffres de la consommation d'énergie dans le monde, centralisés par deux administrations indépendantes du département américain de l'énergie (DOE). En 2005, la production de CO2 due aux énergies fossiles et à l'activité industrielle a contribué à envoyer 7,9 milliards de tonnes de carbone dans l'atmosphère. Deux facteurs de cette augmentation, l'accroissement de la population mondiale et celui du PIB par habitant, étaient prévus. En revanche, personne ne s'attendait à la baisse récente de l'« efficacité carbone » au niveau mondial. Ce terme traduit la capacité de produire plus de richesses ou d'énergie avec des quantités plus faibles de combustibles fossiles. Depuis 1950, les gains d'efficacité énergétique montraient que les émissions de CO2 progressaient moins vite que la richesse créée dans les économies industrialisées. Or, depuis 2000, l'efficacité carbone stagne ou diminue sur toute la planète. Cette mauvaise nouvelle s'expliquerait par une absence d'avancées technologiques depuis quelques années pour les pays industrialisés et par l'utilisation toujours croissante du charbon comme combustible de base par les nations en développement, la Chine en tête. À quantité d'énergie produite égale, le charbon est moins efficace que le gaz ou le pétrole, car il contient plus de carbone que ces derniers. Sans surprise, c'est en Chine et dans les pays ayant la plus forte croissance économique que la hausse des émissions de gaz à effet de serre était la plus forte. Mais les pays industrialisés sont tout de même responsables de plus des trois quarts du CO2 émis depuis plus de deux siècles. UEA
|
|
|
|
|
|
|
|
Des maisons écologiques qui résistent aux incendies, aux tremblements de terre et ne coûtent presque rien : sorties du désert en Californie, les habitations universelles de l'architecte Nader Khalili pourraient même un jour pousser sur la Lune. Installé à Hesperia, ville aux portes du désert au nord-est de Los Angeles, le village expérimental de M. Khalili a au premier abord des allures de champignonnière. Mais en s'approchant, on distingue portes et fenêtres dans ces petits bâtiments ronds, hauts de moins de trois mètres. Ces édifices se confondent avec le paysage du désert grâce à leur couleur sable. Et pour cause : les matériaux qui ont servi à les élaborer sont sortis du sol à quelques mètres de là. "Le retour à la terre m'a semblé évident. Je n'ai rien inventé, toutes les civilisations méditerranéennes ont utilisé la terre sur laquelle elles vivaient pour bâtir", dit cet architecte d'origine iranienne, installé aux USA depuis 1971. Ancien architecte de gratte-ciel, il a fait aboutir son concept dans le "CalEarth Institute" (Institut pour l'architecture et l'art de la terre de Californie) qu'il anime à Hesperia. "On creuse le sol. La terre est rassemblée dans des sacs, fermés. Empilés, on les fixe avec des fils barbelés", détaille ce petit homme à la barbe poivre et sel et aux yeux malicieux. "Tout est dans la forme arrondie, pour les petits dômes comme pour la grande maison : tout repose sur l'arc. La forme traditionnelle d'une maison carrée avec des murs verticaux, c'est l'idéal pour qu'elle s'écroule un jour. Avec l'arc, rien ne peut tomber", affirme-t-il. Une fois montée, la maison est brûlée de l'intérieur et une coquille de terre cuite vient ainsi sceller l'édifice. Au total, une grande maison ne coûte que 90.000 dollars et la sueur de trois personnes pendant une semaine. Baptisée "superadobe", allusion aux premières maisons en terre construites par les colons espagnols de Californie, elle est en outre alimentée en énergie propre et bénéficie d'une climatisation naturelle, grâce à des ouvertures judicieusement placées. Ces prototypes ont attiré l'attention de la Nasa. Dès 1985, l'architecte et les responsables du programme lunaire de l'administration spatiale américaine se sont rencontrés, avec dans l'idée la construction des premières bases sur le satellite de la Terre. "Avouez que ma technique est l'idéal", affirme M. Khalili. Acheminer des matériaux de constructions lourds sur la lune étant impensable, la poussière lunaire ou martienne suffira. Les autorités locales en Californie, l'un des territoires les plus touchés par les séismes, ont récemment donné leur feu vert à la construction de maisons individuelles sur les plans de M. Khalili. Mais la technique intéresse aussi les Nations Unies. Le Haut Comité pour les réfugiés (HCR) et le Programme au développement (PNUD) sont venus étudier de près les prototypes d'Hesperia au début des années 2000. Des mini-dômes ont été construits sur les sites des tremblements de terre en Iran en 2002 et au Pakistan en 2005. AFP
|
|
|
|
|
|
|
|
Selon l'Ademe, près de la moitié des véhicules vendus en France en 2006 émettent peu de CO2. Cependant, l'étiquetage énergétique des voitures, obligatoire depuis mai 2006, ne sert pas encore d'outil incitatif à la vente : si 55 % des consommateurs le connaissent, il représente un critère pour seulement 10 % des acheteurs. Selon le palmarès 2006 établi par l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) et rendu public mardi 15 mai, les voitures émettant moins de 140 grammes de CO2 au kilomètre (g CO2/km) ont représenté près de la moitié des ventes en France en 2006. 47 % des véhicules vendus l'an passé appartiennent en effet aux classes dites «vertes», étiquettes A, B, C, émettant moins de 140 g CO2/km : c'est 5 points de mieux par rapport à 2005 et 18 par rapport à 2002. A l'inverse, les voitures des classes «rouges» E, F et G (161 à plus de 250 g CO2/km) ne représentent plus qu'un quart du marché, en baisse de 7 points depuis 5 ans. La vente des 4x4, connus pour leur consommation énergétique importante, représente 5,5 % du marché et stagne pour la première fois depuis 1995. La France, où la part du diesel atteint 71 %, figure parmi les bons élèves en Europe, au quatrième rang pour les émissions de CO2/km derrière le Portugal, l'Espagne et l'Italie, pays du sud «traditionnellement portés» sur les petits véhicules et le diesel, selon Alain Morcheoine, directeur de l'efficacité énergétique de l'Ademe. A l'inverse, les pays du nord continuent de privilégier les grosses cylindrées et l'essence, telle la Suède, la moins vertueuse de l'Union. Mais malgré les progrès technologiques, les transports représentent 27 % du total des émissions de gaz à effet de serre en France et leurs rejets ont augmenté de 23 % depuis 1990 car ces progrès sont malheureusement annulés par l'augmentation constante du trafic automobile. Face à cete évolution, certains états européens souhaitent taxer directement les voitures qui émettent le plus de CO2. C'est notamment le cas de l'Allemagne qui veut réformer le mode de calcul de la taxe annuelle sur les véhicules, de manière à prendre en compte le niveau de pollution de la voiture plutôt que la cylindrée du moteur : c'est ce qu'a annoncé lundi 19 février le ministre allemand en charge de l'environnement Sigmar Gabriel. Selon le ministre, le gouvernement d'Angela Merkel espère parvenir à imposer «d'ici la fin de l'année» cette réforme, qui nécessitera l'accord des Länder (Etats régionaux), compétents en la matière. Le système actuel, qui taxe les voitures en fonction de la puissance de leur moteur, permet déjà, d'une certaine façon, de faire payer davantage les propriétaires de véhicules plus polluants, a reconnu le ministre social-démocrate. Mais en prenant en compte les émissions de dioxyde de carbone (CO2) plutôt que la cylindrée, le futur mode d'imposition encouragera les constructeurs à concevoir, à puissance égale, des véhicules moins polluants. JDE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon une récente étude canadienne publiée par le PLoS du 23-05-2007, faire de l'exercice régulièrement ne permet pas seulement de conserver une bonne forme physique et intellectuelle mais pourrait également en partie renverser le mécanisme de relâchement et de vieillissement des tissus, particulièrement au niveau musculaire. Les scientifiques canadiens ont donc étudié un groupe de 25 septuagénaires. Les personnes participant à cette expérience ont suivi un entraînement physique traditionnel pendant une période de six mois. Ensuite, les chercheurs ont mesuré la force musculaire des volontaires et l'ont comparée à celle d'un échantillon de personnes de 20/35 ans. Non seulement, ces seniors étaient plus forts qu'avant, mais la machine moléculaire intervenant sur les muscles était devenue aussi active que celles des plus jeunes. « Nous avons été très surpris des résultats » indique le docteur Simon Melov en charge de cette étude auprès de cette université. « Cela confirme l'importance de faire de l'exercice, non seulement pour améliorer la santé, mais également afin d'inverser le processus du vieillissement » a-t-il ajouté. La mesure de la force musculaire a montré qu'avant l'entraînement les retraités étaient en moyenne 59 % plus faibles que les jeunes adultes. Mais après la pratique d'exercices physiques, ils n'étaient plus que 38 % plus faibles. Une amélioration de presque 50 % ! Le changement le plus remarquable s'est effectué au niveau des mitochondries, de petits organites qui sont les centrales énergétiques de nos cellules. Des études avaient déjà démontré qu'un dysfonctionnement mitochondrial était responsable de la perte musculaire chez les personnes âgées. Mais, dans ces recherches, les chercheurs canadiens ont découvert que l'exercice physique permettait d'inverser le processus et faisait revenir les aînés à des niveaux similaires à ceux rencontrés chez les plus jeunes. Quatre mois après la fin de l'étude, la plupart des retraités n'allaient plus aux séances de gymnastique. En revanche, ils ont continué à pratiquer des exercices physiques à domicile, conservant ainsi leur masse musculaire. A cet égard, Le docteur Mark Tarnopolsky, un autre membre de l'équipe de chercheurs souligne : « cela montre qu'il n'est jamais trop tard pour faire des exercices physiques et qu'il n'est pas non plus nécessaire de passer sa vie dans les salles de fitness à faire des pompes pour tirer les bénéfices d'une activité sportive ». Maintenant, les scientifiques veulent tester les effets de l'endurance, comme la course à pied ou le cyclisme, sur la fonction mitochondriale et ses relations avec le processus de vieillissement. « La grande majorité des études sont menées sur des vers, des mouches ou des souris, mais cette enquête a été réalisée sur des êtres humains » précise le docteur Melov qui ajoute : « c'est particulièrement valorisant d'être capable de valider scientifiquement quelque chose de pratique, que les gens peuvent faire, et qui améliore leur santé et leur qualité de leur vie tout en sachant qu'ils combattent en même temps le vieillissement ». Une autre étude récente, réalisée d'avril 2001 à juin 2005 sur 464 femmes sédentaires ménopausées qui souffraient d'excès de poids ou d'obésité a montré, pour sa part, qu'une activité physique même modeste de 72 minutes par semaine peut nettement améliorer l'état de santé de femmes ménopausées sédentaires et souffrant d'un poids excessif. Cette étude qui a été publiée dans le JAMA du 15-05-2007, montre que la pratique régulière d'exercices physiques améliore les capacités cardiorespiratoires et réduit les risques de maladies cardiovasculaires et de diabète. PLoS JAMA
|
|
|
|
|
|
|
|
Selon une étude publiée par le NEJM du 25-05-2007, le lien entre la consommation d'aspirine et la diminution du risque de cancer colorectal, révélé par un grand nombre d'études, s'expliquerait par la capacité de cet analgésique à neutraliser l'enzyme COX-2 qui est aussi associée à l'inflammation et la douleur. "Nous savions que l'aspirine peut bloquer la COX-2 et que cette enzyme est présente dans la vaste majorité des tumeurs colorectales mais pas dans les tissus normaux du colon", explique le Docteur Andrew Chan, professeur à l'Université de Harvard (Massachusetts), principal auteur de cette recherche. "Nous avons fait l'hypothèse que si la capacité de l'aspirine à neutraliser la COX-2 était le mécanisme lié à la réduction des risques de cancer, l'aspirine devrait aussi réduire l'incidence des tumeurs dépendantes du COX-2 pour leur croissance", ajoute ce chercheur. Pour démontrer cette hypothèse, ces chercheurs ont analysé les données provenant de deux vastes études pluriannuelles encore en cours aux Etats-Unis. La première porte sur plus de 120.000 infirmières et la seconde compte quelque 50.000 hommes employés dans des services de santé aux Etats-Unis. Ces études analysent notamment les relations entre différents facteurs comme le lien entre le régime alimentaire et l'incidence de plusieurs maladies. Ces deux études d'envergure avaient déjà établi une nette corrélation entre la prise régulière d'aspirine et la diminution du risque de cancer colorectal mais sans en expliquer le mécanisme. Les personnes ayant pris au moins deux comprimés d'aspirine de 325 milligrammes chacun deux fois par semaine ont 25 % moins de risque que celles du groupe qui n'en ont pas pris. Les auteurs de cette étude soulignent aussi que les analyses des prélèvements de différentes tumeurs montre que la réduction du risque de cancer avec l'aspirine ne s'applique qu'aux tumeurs dans lesquelles l'enzyme COX-2 est présente. NEJM Article @RTFlash
|
|
|
|
|
|
|
|
Certaines femmes atteintes du cancer du sein pourraient éviter de se soumettre aux difficiles traitements de chimiothérapie et conserver leur fertilité grâce à un médicament hormonal. Un médicament actuellement offert aux femmes à la préménopause pour soulager la sensibilité aux seins permettrait aux jeunes femmes atteintes d'un cancer du sein hormono-dépendant d'éviter les risques de récidive. Contrairement à la chimiothérapie, ce médicament qui bloque la production d'oestrogène n'endommage pas les ovaires et ne nuit pas à la fertilité. Après avoir subi une chirurgie pour retirer la tumeur maligne logée dans leur sein, les patientes atteintes de cancer reçoivent généralement par la suite un médicament pour minimiser les risques de récidive. Ces soins consistent en une série de traitements de chimiothérapie ou la prescription de médicaments comme le Tamoxifen pris conjointement avec une hormone lutéinisante (LH). Cette hormone LH supprime la production d'oestrogène par les ovaires. C'est le but recherché parce que l'oestrogène accélère la croissance des cancers d'origine hormonale. Mais ce traitement à base d'hormone était peu prescrit jusqu'à présent par les médecins. Les scientifiques estimaient qu'il n'était pas aussi efficace que la chimiothérapie. Jack Cusick et ses collègues de l'Université London, en Angleterre, ont analysé les résultats de 16 études réalisées auprès de 12.000 femmes préménopausées atteinte d'un cancer de sein à un stade précoce. Les femmes furent suivies durant sept années après leur chirurgie. Certaines de ces femmes subirent des traitements de chimiothérapie, d'autres reçurent un médicament bloqueur d'oestrogène, en l'occurrence, le Zoladex. Les chercheurs ont découvert que les femmes qui recevaient du Zoladex après leur chirurgie s'en tiraient aussi bien que celles qui avaient subi des traitements de chimiothérapie. Les patientes des deux groupes avaient un risque de 30 % de récidive et un risque de 10 % de décès, cinq ans après leur chirurgie. «Nous avons mis 20 ans à démontrer que nous pouvions obtenir des résultats aussi bons avec le Zoladex qu'avec la chimiothérapie», indique Michael Baum, professeur émérite de chirurgie au Collège Universitaire de Londres, en Angleterre. «Nous pourrons maintenant améliorer la qualité de vie de plusieurs jeunes femmes aux prises avec le cancer du sein.» Le Zoladex est administré par injections durant une période de deux ans après la chirurgie. Il n'est pas sans effet secondaire. En supprimant la production d'oestrogène par les ovaires, le médicament provoque temporairement un état semblable à la ménopause. Les femmes peuvent être incommodées par des bouffées de chaleur créées par le brusque déséquilibre hormonal. ASP
|
|
|
|
|
|
|
|
Les travaux de deux équipes de recherche, l'une américaine, l'autre suédoise, pourraient conduire à un diagnostic bien plus précoce pour les patients, d'ici à 2010-2012. Ces équipes ont en effet mis au point un examen permettant de visualiser par Pet-Scan l'existence et l'étendue de la plaque amyloïde, agrégat de cellules mortes dans le cerveau, caractéristique de la maladie d'Alzheimer et dont le développement engendre une perte progressive de mémoire. Cette solution permettrait de prendre au plus tôt des mesures pour retarder ces effets, même à partir de 50 ans, en attendant une véritable thérapie. Des chercheurs de l'Université de Pittsburg, ont utilisé une molécule baptisée PIB (Pittsburg Compound-B). Cette dernière a démontré, lors d'autopsies de malades d'Alzheimer, une très forte attraction pour la plaque amyloïde. Il restait à rendre visibles ces molécules par imagerie médicale. Bengt Langstrom, chercheur à l'université d'Uppsala, en Suède, s'est chargé d'intégrer à la PIB un atome radioactif afin de la rendre détectable par un appareil d'imagerie TEP (tomographie à émission de positons). Des tests sur plus de 2 000 patients, observés à des intervalles de temps de six mois à un an, ont permis de valider la méthode, tandis que GE Healthcare, fabricant d'appareils de TEP, a obtenu les droits de distribution et de commercialisation des produits dérivés de la molécule PIB associée à un atome radioactif de fluor 18. "L'examen devrait durer environ une heure et demie tout compris", explique Jean-Luc Vanderheyden, responsable de l'imagerie moléculaire chez GE Healthcare. Il suffit d'injecter les molécules PIB dans le réseau sanguin, d'attendre qu'une petite partie d'entre elles pénètrent dans le cerveau et se fixent sur la plaque amyloïde et de procéder à l'examen avec l'appareil de TEP. Principalement utilisé en cancérologie, le Pet-Scan pourrait ainsi devenir un outil déterminant pour le diagnostic de la maladie d'Alzheimer. D'autant que la France semble désormais bénéficier d'un niveau d'équipement convenable. Le parc est ainsi passé de 7 appareils en 2000, à 61 aujourd'hui. Soit pratiquement un par million d'habitants. Neurology
|
|
|
|
|
|
|
|
Lorsque le traitement médical échoue, le traitement chirurgical de l'épilepsie montre son efficacité même chez les plus petits, selon une nouvelle étude américaine publiée dans le dernier numéro du journal mensuel "Pediatrics". L'étude réalisée par la clinique Cleveland est la première à s'intéresser à la chirurgie de l'épilepsie des enfants de moins de trois ans. Il en ressort que lorsque l'opération est pratiquée tôt, elle permet un développement cérébral normal. "La chirurgie a longtemps été indiquée comme dernier recours. Mais maintenant, nous ne le pensons plus", souligne le Docteur Deborah Holder, neurologue à l'hôpital pédiatrique de Pittsburgh (Pennsylvanie). Alex Seman, un enfant de deux ans et demi souffrant de sclérose tubéreuse, une maladie neurologique qui déclenche des crises d'épilepsie, n'avait pas été soulagé par un traitement médicamenteux. Ses bras et ses jambes étaient secoués de convulsions plusieurs fois par jour. L'électro-encéphalogramme enregistrait par ailleurs plusieurs douzaines de mini-crises quotidiennes. Le plus dur a été la préparation à l'opération, se souvient son père, Mike Seman. Les médecins ont pour cela réalisé une sorte de pré-chirurgie, implantant des électrodes à même la surface du cerveau d'Alex. Pendant une semaine, une surveillance vidéo a permis de tracer la carte de l'origine de ses crises. Quelques semaines plus tard, les médecins retiraient un gros morceau de son cerveau. Depuis, Alex ne fait plus de crises et, selon ses parents, sa gaîté est revenue. Toutefois, la chirurgie n'est pas indiquée dans tous les cas. Les crises épileptiques peuvent en effet partir d'une région cérébrale trop dangereuse à retirer. Dans ce cas-là, une voie de recherche semble prometteuse : l'implantation en profondeur dans le cerveau d'une électrode qui émet un faible courant électrique. Les chercheurs étudient si cette technique permet de court-circuiter le tissu cérébral malade et d'empêcher le déclenchement d'une crise. On l'utilise déjà dans le traitement de la maladie de Parkinson. Les médecins peuvent aussi implanter un "stimulateur de nerf vague", chargé de délivrer de légères décharges à un nerf du cou qui, à son tour, avertit le cerveau. Même si cette technique ne permet pas de soigner une épilepsie comme la chirurgie, elle contribue à réduire le nombre de crises. La technique du "Gamma knife", qui irradie la zone épileptique, est en cours d'essai. Près de trois millions d'Américains souffrent d'épilepsie, maladie qui se caractérise par des décharges électriques paroxystiques dans le cerveau. Quand les circuits ne vont pas assez vite, la crise survient. Si beaucoup d'enfants naissent épileptiques, cette maladie neurologique peut apparaître à n'importe quel âge. Près de 30 % des patients présentent des épilepsies incurables. Soit les médicaments ne réussissent pas à prévenir toutes les crises, soit ils entraînent des effets secondaires insupportables. Dans un grand nombre de cas, la chirurgie est une indication. AP
|
|
|
|
|
|
|
|
Une équipe internationale de chercheurs a créé une souris qui imite avec précision la réponse immunitaire de l'homme à l'infection par le paludisme. Ce nouveau modèle animal facilitera les essais de vaccins potentiels contre cette maladie mortelle. Les travaux, qui ont été financés par l'UE dans le cadre de l'initiative Marie Curie pour la mobilité des chercheurs et par le conseil britannique de la recherche médicale, sont publiés dans la revue Public Library of Science Pathogens. Jusqu'à ce jour, les chercheurs manquaient d'un modèle animal fiable pour le paludisme humain. Quand une souris est infectée par le parasite qui provoque le paludisme chez l'homme, elle ne devient pas malade et son système immunitaire réagit différemment face au parasite. Cela signifie que les scientifiques qui travaillaient au développement de vaccins à base d'anticorps qui prouvaient leur efficacité lors des essais in vitro ne disposaient pas de moyen fiable de les tester sur un animal vivant. Dans cette dernière étude, des scientifiques britanniques, néerlandais et australiens ont sélectionné un parasite de la souris étroitement lié au paludisme humain et l'ont modifié génétiquement pour produire un antigène que le système immunitaire humain reconnaît. Ensuite, ils ont modifié génétiquement des souris de sorte que leurs globules blancs possèdent une molécule humaine à leur surface reconnaissant le parasite et le détruisent. L'équipe a testé ce modèle en utilisant un vaccin à base d'anticorps qu'ils avaient créé à partir du sang de certains sujets de Gambie naturellement immunisés contre le paludisme. Les essais ont montré que les souris qui reçoivent ces anticorps sont protégées contre le parasite. «Nos résultats sont extrêmement significatifs, a déclaré le Dr Richard Pleass, de l'institut de génétique de l'université de Nottingham. Nous avons créé le meilleur modèle animal que l'on puisse obtenir en l'absence de travaux sur l'homme ou des primates supérieurs, et nous avons développé une entité thérapeutique novatrice.» L'équipe espère à présent améliorer encore la souris modèle et progresser vers des essais cliniques sur l'homme. Le paludisme est provoqué par des parasites transmis par les moustiques. Environ 400 millions de personnes sont infectées chaque année et un million environ en meurent, la plupart des enfants vivant en Afrique subsaharienne. Le parasite du paludisme devenant de plus en plus résistant aux médicaments antipaludéens, les recherches en vue de trouver un vaccin sûr et efficace revêtent d'autant plus d'importance. Cordis
|
|
|
|
|
|
|
|
Plus d'un américain sur deux boit du café régulièrement, en moyenne, 2 tasses par jour. Cette boisson largement consommée a fait l'objet de nombreuses études visant à mesurer ses effets sur la santé, notamment en matière de cancer, de maladies cardio-vasculaires et de diabète. Parmi ses effets complexes sur l'organisme, le café peut abaisser le niveau d'insuline et d'acide urique. Mais selon une étude américano-canadienne, la consommation régulière de café pourrait également avoir un effet protecteur puissant contre l'arthrite inflammatoire (la « goutte »), maladie très répandue chez les personnes âgées et très douloureuse. Pour parvenir à cette conclusion, les chercheurs ont étudié et suivi sur 12 ans 45.869 hommes de plus de 40 ans exempts d'arthrite à l'origine de l'étude. Ils ont ensuite évalué la corrélation entre la consommation de café et l'incidence de la goutte dans cette population. Les résultats sont sans appel : même après avoir pris en compte tous les autres facteurs médicaux et alimentaires - poids, hypertension, consommation d'alcool et de graisses notamment- les hommes buvant 4 tasses ou plus de café par jour réduisent nettement leurs risques de goutte. Ce risque est en effet diminué de 40 % pour les hommes qui boivent 4 à 5 tasses par jour et de 59 % pour ceux qui boivent 6 tasses ou plus par jour. Les chercheurs on également montré que ce n'était pas la caféine qui était responsable de ce puissant effet protecteur. Le Professeur Choi, qui a dirigé cette étude, pense que cette action est due à l'acide chlorogénique, un antioxydant puissant contenu dans le café. Mais Choi souligne que le café est une boisson complexe qui contient des centaines de composants différents qui interagissent entre eux. En dépit de cet effet bénéfique, les chercheurs recommandent aux américains de ne pas dépasser les quatre tasses de café par jour car la consommation excessive de café peut comporte de sérieux inconvénients pour la santé chez certaines personnes. Article @RTFlash BBC SD
|
|
|
|
|
|
|
|
Selon une étude américaine parue dans la revue américaine Science, les nourrissons peuvent faire la différence entre leur langue natale et une langue étrangère rien qu'en observant le visage de la personne qui s'adresse à eux. L'équipe internationale de chercheurs menée par Whitney M. Weikum, étudiant en thèse de doctorat de l'université de British Columbia à Vancouver au Canada, se demandait dans quelle mesure les bébés utilisaient des informations visuelles pour identifier la langue parlée par leur interlocuteur. Les chercheurs ont donc mené une expérience sur ce thème sur un échantillon de 96 enfants en bonne santé nés à terme. Cinq groupes de bébés de parents anglophones, âgés de quatre, six et huit mois, et bilingues franco-anglais âgés de six et huit mois, ont été constitués. Chacun d'entre eux a visionné, assis sur les genoux de ses parents (portant des lunettes noires pour ne pas influencer leurs enfants), une série de clips vidéo silencieux dans laquelle trois personnes bilingues lisaient des extraits du Petit Prince. Les textes étaient lus d'abord dans la langue maternelle de l'enfant. Lorsque son intérêt diminue de 60 % par rapport au début du visionnage, on considère qu'il s'est habitué à l'information visuelle. C'est alors que l'orateur changeait de langue. Derrière une vitre teintée, un scientifique observait le comportement des participants. Or les chercheurs ont constaté que les bébés de moins de six mois avaient la même réaction : ils regardent une vidéo plus longtemps dès lors qu'ils assistent à un changement de langue. Ce qui signifie que les nourrissons âgés de six mois distinguent visuellement leur langue natale d'une langue étrangère. « Nous savions déjà que les bébés étaient en mesure d'identifier une langue à partir de signaux auditifs, explique Whitney Weikum. Mais c'est la première étude qui montre que de jeunes enfants ont la capacité à distinguer les langues en recourant aux seules informations visuelles. » Ces travaux confirment l'importance de cette période de la vie, qui s'étend de quatre à six mois, dans l'apprentissage d'un idiome. Le cerveau des bébés de cet âge est déjà en marche pour jeter toutes les bases du langage. « Ce phénomène participe de l'apprentissage du langage, au même titre que la capacité à distinguer certains phonèmes qui existent dans d'autres langues que leur langue maternelle, déjà observée chez les enfants de moins de six mois », explique Salvador Soto-Faraco, du Groupe de recherche en neurosciences cognitives (GNRC) du parc scientifique de Barcelone et coauteur de l'étude. Mais comment s'opère une telle différenciation ? Nuria Sebastian-Galles, professeur de psychologie au GNRC, émet une hypothèse : « Peut-être observent-ils le mouvement des lèvres. Par exemple, en français, il existe beaucoup de voyelles qui obligent à placer les lèvres en rond, ce qui est très peu le cas en espagnol. » Science
|
|
|
|
|
|
|
|
Le groupe d'électronique japonais Hitachi a présenté à Tokyo un prototype de dispositif d'imagerie médicale portable, qui permet désormais de mesurer l'activité du cerveau lors de situations quotidiennes. "Grâce aux technologies mises en oeuvre dans ce prototype, les chercheurs et médecins pourront un jour étudier le fonctionnement cérébral des personnes dans le métro, en voiture, au bureau, dans la rue ou chez elles", selon Hitachi. Ce système se présente sous la forme d'un bandeau-casque de 400 grammes relié à un boîtier de contrôle de 600 grammes. Il transmet directement les données recueillies par réseau sans fil à un ordinateur (portable ou fixe) distant. Pour miniaturiser l'objet et rendre son usage possible hors des laboratoires, Hitachi a expliqué avoir développé des procédés basés sur la tomographie optique, laquelle permet, grâce à l'émission de lumière par un laser, de dresser une image de l'activité neuronale en mesurant les flux sanguins. Les astuces techniques mises en oeuvre par Hitachi ont ainsi permis de loger le système de mesure de l'activité du cerveau dans un bandeau et de supprimer les nombreuses fibres optiques et sortes d'électrodes précédemment requises. L'extériorisation du traitement des données vers un PC a également permis de réduire notablement la taille du système, a précisé le groupe. Hitachi
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|