RTFlash

RTFLASH Recherche & Technologie
NUMERO 589
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Mars 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un Gigabit/seconde sur CPL !
Les tablettes commencent à faire de l'ombre aux PC
Le billet virtuel sur mobile se généralise
Avenir
Une prothèse de main robotique !
Ascenseur intelligent pour personnes âgées et handicapées
Matière
Le stockage d'énergie progresse
Un plan national dans l'éolien offshore aux USA
Terre
Emissions de CO2 : les petites villes ne sont pas les plus sobres !
Le séisme du Japon a déplacé un glacier de l'Antarctique
Menace nucléaire : la catastrophe était prévisible
La Commission européenne présente sa feuille de route vers une économie compétitive et sobre en carbone en 2050
Vivant
Un urètre est reconstruit en laboratoire
Le diabète serait bien un facteur de risque de cancer
Les femmes qui boivent du café ont moins de risques d'AVC
Une étude découvre 13 nouveaux gènes prédisposant aux maladies coronariennes
Retrouver la mémoire grâce à la stimulation magnétique transcrânienne
Les venins des serpents n'ont pas livré tous leurs secrets
Vaccin : l'aluminium est sans risque
Première mondiale dans la chirurgie du cancer du poumon
Edito
Spécial JAPON : Energie, notre pays peut-il se passer du nucléaire ?



Depuis le terrible tremblement de terre qui a frappé le Japon le 11 mars et l'accident nucléaire d'une gravité sans précédent depuis Tchernobyl qui a eu lieu dans la centrale de Fukushima et n'est toujours pas cisconscrit au moment où j'écris ces lignes, la question de l'avenir de l'énergie nucléaire s'est brusquement imposée au niveau planétaire dans le débat politique et social.

Au niveau européen, la Commission a réagi très rapidement et a décidé que les 153 réacteurs que compte l'Union européenne seront bientôt soumis à des tests de résistance. Sur la base d'une participation "volontaire, pas obligatoire", les risques "d'inondations, de tsunamis, d'attaques terroristes, de tremblements de terre, de coupures d'électricité" seront évalués sur la base de critères communs. Ces tests seront réalisés "par des experts indépendants dans le courant de l'année". Si les Etats l'acceptent, ces tests de résistance non contraignants pourraient être suivis de vérifications des "normes de sûreté en vigueur, afin de 'voir si nous avons tous les mêmes normes dans l'Union européenne'", a précisé la Commission qui souhaite clairement aller vers des normes européennes de sécurité beaucoup plus strictes dans le domaine du nucléaire.

En Allemagne, Angela Merkel, dans une ambiance préélectorale, il faut bien le reconnaitre, a annoncé le 15 mars que les sept centrales atomiques entrées en service en Allemagne avant 1980 seront fermées, peut-être définitivement. La chancelière a précisé que l'ensemble des réacteurs allemands subiraient des vérifications et que toutes les questions soulevées par la sécurité des centrales devraient avoir été examinées au plus tard le 15 juin. Berlin a également décidé un moratoire de trois mois qui suspend l'accord conclu l'an dernier prolongeant la durée de vie des centrales atomiques allemandes.

En Suisse, la situation japonaise a ravivé le vieux débat entre pro et anti-nucléaires et il n'est pas exclu que la Confédération renonce au nucléaire.

Nos voisins italiens, après avoir décidé en 1987 par referendum de renoncer à la construction de centrales nucléaires, vont être appelés le 12 juin 2011 à se prononcer, par référendum, sur un programme nucléaire visant à la construction de quatre réacteurs de type ERP et il est très probable qu'en dépit de sa forte dépendance énergétique, l'Italie confirme son rejet du nucléaire.

En France, le gouvernement a déclaré que notre pays ne renoncera pas à l'énergie nucléaire mais le Premier Ministre a accepté la  demande d'audit du parc nucléaire français et a annoncé un contrôle des mesures de sécurité de toutes ses centrales.

Il ne fait nul doute que l’extrême gravité de cette catastrophe nucléaire  qui survient dans un des pays, le Japon, les plus technologiquement avancés, a profondément et durablement fait basculer les opinions publiques contre l'utilisation de l'énergie nucléaire.

Même l'argument, pourtant puissant, mettant en avant le très faible bilan carbone du nucléaire et la nécessité de recourir au nucléaire pour réduire nos émissions de gaz à effet de serre tout en répondant à la soif énergétique mondiale grandissante ne suffit plus à justifier l'utilisation de cette énergie dont les risques intrinsèques d'utilisation (stockage des déchets radioactifs à très longue vie, possibilité de détournement à des fins militaires et pertes de contrôle liées à des catastrophes naturelles ou des erreurs humaines) sont à présent perçues comme inacceptables.

Au niveau mondial, il est toujours bon de le rappeler, l’énergie nucléaire (457 réacteurs représentant 370 000  MW de puissance installée)  en 2011 ne représente que 7% de l’énergie primaire et 17 % de l’électricité produite. En proportion,  cette production d'électricité nucléaire mondiale est d'ailleurs en légère baisse depuis 4 ans. (Voir De moins en moins d'électricité nucleaire dans le monde). Ce n'est pas négligeable mais le gel du nucléaire mondial puis son démantèlement progressif ne représente pas un défi insurmontable pour la planète.

En France, la situation est toute différente. Avec 62 600 MW de puissance nucléaire installée, la France représente à elle seule 17 % de la puissance nucléaire mondiale. Le parc nucléaire français, le deuxième au monde, compte 58 réacteurs répartis sur 19 sites. Avec 408 TWh, la production d'électricité nucléaire représente 74% de la production totale d'électricité française et 80 % de notre consommation brute d'électricité.

En 2010, la consommation totale s'est établie à 488,1 térawattheures (TWh) l'an dernier en données corrigées des aléas climatiques, contre 478,1 TWh publié en 2009 a indiqué RTE, la filiale d'EDF chargée du réseau de transport d'électricité à haute et très haute tension. En données corrigées, la consommation des ménages a augmenté d'environ 1,5% en 2010 contre 2% en 2009 et celle des grands industriels, directement raccordés au réseau, a augmenté de 3,7%. En valeur brute, la consommation totale d'électricité a totalisé 513,3 TWh en 2010, ce qui représente une hausse de 5,5% par rapport à 2009, a encore précisé RTE.

La production française d'électricité a de son côté augmenté de 6% en 2010 par rapport à l'année précédente à 550,3 TWh. Le parc de production électrique est en hausse de 3.100 MW, avec notamment le raccordement au réseau de centrales au gaz. La production nucléaire a augmenté de 4,6% en 2010 à 407,9 TWh. En 2009, la production nucléaire avait atteint son plus bas niveau depuis 1999, en raison de grèves et d'opérations de maintenance non planifiées.

La production des centrales hydroélectriques a pour sa part augmenté de 9,9% pour s'établir à 68 TWh, ce qui représente 12,4% de la production française. L'éolien voit sa production croître de 22,2% mais sa part dans le mix énergétique représente cependant moins de 2%. Les centrales thermiques, qui permettent d'assurer l'équilibre entre l'offre et la demande, ont augmenté leur production de 8,3% à 59,4 TWh.

En supposant, par souci de simplification des calculs, que notre consommation électrique reste identique et que la part de l'électricité thermique et hydraulique reste constante, pourrions-nous remplacer notre production électrique nucléaire actuelle par des sources d'énergies renouvelables ?

Imaginons que, d'ici 2030, on veuille remplacer notre électricité nucléaire pour moitié par de l'énergie solaire et pour moitié par de l'éolien (un quart avec de l'éolien terrestre et trois quart avec de l'éolien marin).

Un rapide calcul nous montre qu'il faudrait, en se basant sur les rendements moyens actuels de production de ces énergies, installer au moins 2000 km2 de panneaux solaires (100 km2 par an pendant 20 ans), plus de 3 400 éoliennes terrestres géantes (170 par an) et 8 400 éoliennes marines (420 par an).

En matière d'énergie solaire : pour produire 204 TWH il faudrait environ 2000 km2 de panneaux photovoltaïques (1 km2 de panneaux photovoltaïques pour produire en moyenne 1 TWh par an). Au coût actuel, pour les grandes installations, il faut compter environ 1,5 milliards d'euros pour 1 km2 de panneaux solaires photovoltaïques, une telle surface photovoltaïque représenterait à elle seule environ 3000 milliards d'euros d'investissement. Mais on peut imaginer le recours massif à des centrales solaires thermodynamiques moins coûteuses que les centrales photovoltaïques. Selon les technologies utilisées l'investissement irait, dans ce cas, de 33 à 66 milliards d'euros pour une production électrique comparable.

En matière d'éolien terrestre, pour produire 51  TWh et en tenant compte du parc installé qui produit déjà 10 TWh, il faudrait installer  3 417 éoliennes terrestres de 5 MW (12 millions de kWh par an et par machine) soit une puissance installée de 17 000 MW (investissement: 8,5 milliards d'euros), un objectif comparable à celui du Grenelle pour 2020 (19 000 MW).

Enfin, en matière d'éolien marin, pour produire 153 TWH, il faudrait 8 492 éoliennes marines de 5 MW (18 millions de kWh par an et par machine), soit une puissance installée de 42 500 MW (investissement 21,5 milliards d'euros), un objectif 7 fois supérieur à celui du Grenelle pour 2020 (6000 MW).

A ces sommes, il faudrait encore ajouter la construction probable d'une quinzaine de centrales thermiques supplémentaire de 400 MW (soit un investissement d'environ 3,8 milliards d'euros), pour pallier dans tous les cas de figure aux inévitables fluctuations de la production d'électricité solaire et éolienne (ces énergies étant par nature diffuses, intermittentes et irrégulières), l'adaptation complète de notre réseau ( environ 3 milliards d'euros) et sa transformation "en grille" avec des compteurs intelligents et des moyens massifs de stockage de l'électricité (air comprimé, hydrogène, gaz, sels fondus). Il faut enfin ajouter le coût, sans doute plus important que prévu, du démantèlement de nos centrales nucléaires, de l'ordre de 26 milliards d'euros (450 millions d'euros par réacteur selon les dernières estimations).

Même dans l'hypothèse où nous parviendrions à stabiliser notre consommation globale d'énergie au niveau actuel, ce qui serait déjà très difficile, une telle transition énergétique serait donc longue, très coûteuse et très complexe à mettre en œuvre : un ordre de grandeur d'au moins 100 milliards d'euros semble réaliste, ce qui représente plus de deux fois notre facture énergétique pour 2010 (46 milliards d'euros). Cet effort considérable, étalé dans le temps, n'est toutefois pas hors de portée d'un pays développé comme la France qui possède en outre une configuration géoclimatique favorable à la fois au développement massif de l'éolien marin et du solaire.

S'agissant du nombre de victimes imputables au nucléaire et sans entrer dans des calculs et polémiques macabres, il faut tout de même rappeler quelques ordres de grandeur dérangeants pour resituer le débat. Au niveau mondial, même si l'on retient les hypothèses "hautes" sur les décès liés à la catastrophe de Tchernobyl (60 000 morts),  l'énergie nucléaire civile est responsable depuis 60 ans de moins de 100 000 morts.

A titre de comparaison, les accidents de la route tuent 1,2 million de personnes dans le monde chaque année; le tabac est responsable de plus de cinq millions de morts par dans le monde selon l'OMS et la pollution de l'air très largement provoquée par l'utilisation des énergies fossiles dans l'industrie et les transports tue au moins treize millions de morts chaque année selon une étude de l'OMS rendue publique fin juin 2007.

Faut-il rappeler qu'en Chine, la pollution de l'air provoqué par l'utilisation massive du charbon tue au moins 750 000 personnes par an selon l'OMS (chiffres non démentis par le gouvernement chinois), soit plus de 10 fois chaque année que le nombre de décès à Tchernobyl!

L'arbre du nucléaire existe mais malheureusement, il cache l'immense forêt de la catastrophe sanitaire et environnementale permanente liée à l'utilisation massive des énergies fossiles dans le monde.

Il faut donc bien comprendre que faire le choix de société de renoncer au nucléaire, même sur 20 ou 30 ans, aura  des conséquences majeures sur le plan économique et social et suppose dans notre pays une mutation complète de nos modes de production et de consommation et plus largement de nos modes de vie. Notre pays est-il prêt, pour se passer du nucléaire, à un tel choix de société et à un tel effort dans la durée ? C'est là,  toute la question.

C'est pourquoi, sur une question aussi essentielle mais aussi complexe, il me semble nécessaire, avant toute décision politique définitive, de prendre le temps de la réflexion et d'engager un vrai et large débat démocratique afin que nos concitoyens prennent bien conscience de tous les enjeux et des conséquences de leur choix pour les générations futures, tant sur le plan individuel que collectif.

René   TREGOUET

Sénateur  Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un Gigabit/seconde sur CPL !
Jeudi, 17/03/2011 - 08:15

La technologie des courants porteurs en ligne (CPL) n’en finit pas de surprendre. Un an après avoir culminé à la vitesse de 500 Mbit/s, elle est prête à rebondir pour  atteindre le débit incroyable de 1 Gbit/s. De quoi mettre la transmission des données sur lignes électriques existantes à l’heure du très haut débit, au niveau de la fibre optique. Cette évolution vient d’être présentée par la société française Spidcom qui développe des puces de communication CPL.  Elle est le résultat du projet européen de recherche Omega.

Aujourd’hui, les modules de communication CPL utilisés à la maison et au bureau pour raccorder des appareils électroniques (par exemple le décodeur de télévision au modem ADSL) via les lignes électriques offrent en général un débit brut de 200 Mbit/s en utilisant une bande de fréquences de 30 MHz. Spidcom atteint 1 Gbit/s en étendant la transmission à une bande de fréquences de 100 GHz. Ce développement est conforme au standard HomePlug AV2 en cours de finalisation. Le démonstrateur de Spidcom s’appuie sur deux circuits logiques programmables jouant l’un le rôle d’émetteur l’autre de récepteur.

Industrie&Technologies

Les tablettes commencent à faire de l'ombre aux PC
Mercredi, 16/03/2011 - 19:28

La vente de tablettes devrait doubler d’ici fin 2011, révèle une étude. En effet, 10 % des personnes interrogées possèdent déjà une tablette numérique, et 17 % prévoient de s’en procurer une cette année. Trois principaux facteurs ressortent de l’étude quant à l’influence des décisions d’achats de tablettes. D’abord le prix, qui semble déterminant pour plus de la moitié des utilisateurs. Viennent ensuite  la facilité de connexion - via la 3G, la 4G et le Wi-Fi puis le système d’exploitation. "Si les prédictions sont justes pour l’année prochaine, le taux de pénétration des tablettes a toutes les chances de dépasser les 25 % du marché informatique", explique Alex Terry, directeur général de Zoomerang.

21 % des sondés soulignent ainsi qu’ils utilisent de moins en moins leur ordinateur. Pour eux, les tablettes apportent en effet des facilités d’utilisation que l’on ne retrouve pas sur le PC. Ils s’en servent  partout, notamment pour naviguer sur Internet, consulter leur messagerie, accéder à des jeux et pour écouter de la musique ou télécharger des vidéos. Un changement provoqué par l'entrée sur le marché l'an passé de la tablette d'Apple, l'iPad.

"Cette année, une grande partie des acheteurs est toujours aussi fidèle à Apple et à son système d’exploitation",ajoute Alex Terry. En effet, 35 % de ceux qui souhaitent acheter une tablette opteront pour l’iPad alors que moins de 10 % feront l’acquisition d’une tablette sous Androïd comme la Motorola Xoom, la Samsung Galaxy ou la LG Slate. Ceci étant, près de la moitié des utilisateurs potentiels de tablettes hésitent  encore à choisir l’outil vers lequel ils se tourneront. Dernier constat, une écrasante majorité (90 %) des sondés recommande l’acquisition d’une tablette à leurs amis, collègues ou familles.

Atelier

Le billet virtuel sur mobile se généralise
Lundi, 14/03/2011 - 08:00

Le développement du paiement sur mobile bénéficiera aussi aux systèmes de billetterie : selon Juniper Research, un utilisateur de téléphone sur huit dans le monde aura ou acheté un ticket depuis son combiné, ou reçu une contremarque virtuelle d'ici à 2015. Ce qui équivaut à 750 millions de personnes, note le cabinet. Pour le moment, il faut compter une personne sur vingt qui recourt à ce type de services. La période de transition se jouera dans les deux prochaines années, estime l'étude, avec une évolution d'un usage plébiscité par une minorité d'early adopter à une utilisation massive.

Cela, au fur et à mesure que le ticketing sur mobile sera adopté par de plus en plus de secteurs : transport, sport, divertissement, événementiel… "S'il est vrai que la carte d'embarquement sur son téléphone est un facteur d'adoption important, d'autres secteurs seront aussi à l'origine de cet engouement, notamment celui du cinéma et du sport", note l'auteur du rapport, Howard Wilcox. Ce décollage de l'usage sera aussi dû au fait que la NFC (Near Field Communication) devrait commencer à s'imposer dans plusieurs pays autres que le Japon.

En effet, la remise se fera principalement par NFC, mais aussi par SMS, code-barre, application, ou web mobile. Et d'expliquer que les entreprises sont en effet de plus en plus nombreuses à expérimenter des applications et services en ce sens. Elles sont suivies par des fournisseurs qui lancent en parallèle des services de revente. Pour le moment, c'est au Japon, en Europe centrale et de l'est, et en Scandinavie que la billetterie mobile se développe le plus rapidement. L’étude souligne également que le mobile ticketing est plus utilisé par ceux qui achètent leur billet au dernier moment.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Une prothèse de main robotique !
Mercredi, 16/03/2011 - 18:43

Les Italiens comptent parmi les leaders mondiaux en matière de robotique médicale. C’est ainsi qu’en novembre 2008, la Scuola Superiore Sant’Anna de Pise et l’Université Campus Biomedico de Rome (UCBM) avaient réalisé une première mondiale en implantant la première main artificielle contrôlée par les nerfs du receveur. Grâce à ce dispositif, le patient, un jeune homme de 27 ans, parvenait, après une première période d’entraînement, à contrôler avec un taux de réussite de 85 % trois types différents de prise.

La prothèse de main robotique présentée la semaine dernière par la même Sucola Superiore Sant’Anna est plus révolutionnaire encore. Dans le cadre du projet SmartHand, financé par l’Union européenne et qui regroupe cinq autres pays, une nouvelle main robotique aux fonctionnalités incomparables a été présentée. Dotée de quatre moteurs et d’une quarantaine de microcapteurs, cette main permet en effet aux patients amputés chez lesquels elle a été testée d’écrire, de mélanger et même de verser de l’eau. Le fonctionnement de la main repose sur son implantation sur le moignon du patient, tandis que des électrodes sont reliées à ses muscles résiduels. C’est grâce à ces derniers que circulent les signaux électriques interprétés par le dispositif pour déclencher des mouvements. Cinq ans de travaux réalisés par les chercheurs de Pise ont même contribué à mettre au point des doigts artificiels capables de reconnaître différents types de tissus.

Alors que le projet est pratiquement finalisé, sa commercialisation devrait débuter dans les deux années à venir avec à la clé un autre pari fou : celui de vendre cette main artificielle pour moins de 100 dollars, alors que les prothèses actuelles ne sont aujourd’hui pas disponibles à moins de 20 000 dollars.

JIM

Ascenseur intelligent pour personnes âgées et handicapées
Lundi, 14/03/2011 - 08:10

Le Japon est le pays le « plus vieux du monde ». Dans ce contexte, responsables politiques et entreprises ont bien compris qu’il fallait dès aujourd’hui imaginer les solutions et produits de demain pour faciliter la vie des personnes âgées et/ou handicapées. D’autant qu’avec l’éclatement des familles nippones, de nombreux ainés risquent de finir leur vie relativement isolés…

La compagnie japonaise Mitsubishi Electric (dont la production va du petit électroménager aux grosses machines-outils) vient d’annoncer la création d’un nouvel ascenseur « intelligent » particulièrement adapté aux populations d’un pays qui vieillit. En effet, cet ascenseur est doté d’un système de reconnaissance vocale capable de comprendre n’importe qui (en japonais) sans avoir besoin d’un apprentissage préalable. Ainsi, toute personne qui entre dans l’ascenseur (âgée, handicapée ou pas) peut lui indiquer oralement l’étage auquel elle souhaite se rendre sans appuyer sur aucun bouton…

Autre fonction intéressante : l’appareil est équipé d’un système de détection de présence. Exemple : si vous vous trouvez au 36ème étage et que vous souhaitez retourner au rez-de-chaussée, il vous suffit de vous placer devant l’ascenseur qui détectera automatiquement votre présence sans que vous ayez à l’appeler et qui viendra directement vous chercher. Vous n’aurez plus alors, qu’à lui indiquer oralement l’étage où vous souhaitez aller…

Ce nouvel appareil intègre parfaitement le concept d’accessibilité universelle qui vise à imaginer des produits particulièrement adaptés aux personnes âgées et/ou handicapées mais qui, in fine, s’avèrent pratiques pour tous et toutes sans stigmatisation.

Senior Actu

^ Haut
Matière
Matière et Energie
Le stockage d'énergie progresse
Mercredi, 16/03/2011 - 17:50

Le stockage d'énergie stationnaire est une solution qui apporte de nombreuses possibilités dans le système électrique (production, transport, distribution). Il peut par exemple permettre une meilleure insertion des énergies renouvelables, venir en support des moyens de production pour le réglage de la fréquence et de la tension, ou encore décongestionner les réseaux aux heures de pointe en déchargeant de l'électricité préalablement stockée.

Aujourd'hui, l'essentiel des services de stockage est assuré par des stations hydrauliques de pompage-turbinage : d'après l'institut Fraunhofer et l'EPRI, il représente 127 GWe soit 99 % des capacités de stockage. En effet, cette technologie bien maîtrisée bénéficie des coûts les plus compétitifs tout en offrant de larges capacités de stockage. Néanmoins, comme le souligne le professeur Donald Sadoway du Masschusset Institute of Technology (MIT), il est aujourd'hui très difficile d'obtenir des permis de construire et d'implanter de nouveaux sites de pompage-turbinage. De plus, certains emplacements n'ont pas la configuration géographique nécessaire pour le développement de l'hydraulique.

Enfin, de nouvelles tendances apparaissent dans le stockage énergétique, pour qu'il s'intègre au système électrique partiellement décentralisé qui se met en place actuellement. De taille plus réduite, il sera dimensionné pour une maison ou un groupe de maisons et constituera une brique élémentaire des "smart grids". La gestion de l'énergie dans les éco-quartiers est repérée comme une réelle opportunité pour certains acteurs comme Bouygues et Alstom, qui ont récemment créé EMBIX, une entité commune offrant des services sur ce créneau. Les technologies de stockage qui émergent pour ces utilisations sont principalement les batteries, mais les supercondensateurs et les systèmes de volants d'inertie sont également envisagés.

BE USA

Un plan national dans l'éolien offshore aux USA
Samedi, 12/03/2011 - 17:13

Les Etats-Unis ont lancé officiellement la création d'une filière industrielle dans l'éolien offshore, avec l'installation d'ici à 2020, d'une capacité de 10.000 MW, avant d'atteindre 54.000 MW, à l'horizon 2030.

Le secrétaire à l'intérieur, Ken Salazar, et le représentant du département américain de l'énergie (DoE), Steven Chu, ont estimé qu'il était temps d'accélérer le développement des éoliennes offshores, et ont annoncé en conséquence un important plan national pour la promotion des parcs éoliens offshores.

L'annonce du rôle clé accordé à l'énergie éolienne offshore dans l'océan Atlantique a été réalisée à l'occasion de la présentation du plan stratégique pour la création d'une industrie nationale dans l'éolien offshore. Cette technologie considérée comme cruciale par les États-Unis devrait les aider à atteindre l'objectif fixé par l'administration Obama, qui vise à répondre - d'ici à 2035 - à la fourniture d'électricité (80 %) en provenance de sources d'énergie à faible émission de carbone.

L'étape préalable à cette politique de soutien passera par un développement prioritaire des infrastructures de transport d'électricité dans la région mid-Atlantique. Un premier financement de 50 millions de dollars sera ainsi débloqué à cet effet.

Enerzine

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Emissions de CO2 : les petites villes ne sont pas les plus sobres !
Mercredi, 16/03/2011 - 19:40

La revue "Environnement&Urbanisme" publie une étude menée à travers 33 pays qui montre que 71 % des émissions de dioxyde de carbone sont produites par des agglomérations urbaines. Cette étude confirme que la moyenne d'émissions urbaines de GES par personne varie considérablement en fonction de la taille des villes, des pays considérés et des modes de vie : ce niveau passe de plus de 15 tonnes d'équivalent carbone dans des villes comme Sydney, Calgary, Stuttgart et plusieurs villes américaines à moins d'une demi-tonne dans certaines villes asiatiques au Népal, en Inde ou au Bangladesh.

Cette étude très instructive met aussi en évidence le fait que les transports en commun permettent de réduire le nombre de voitures en circulation. Cette diminution est en rapport direct avec la baisse du taux d'émission de gaz à effet de serre. La ville de Denver, située dans l'Etat du Colorado, aux Etats-Unis, produit ainsi deux fois plus de CO2 (21,5 tonnes par personne et par an) que New York alors que la population de cette dernière est 16 fois plus importante ! De même, la ville canadienne de Toronto qui dispose de très nombreux transports en commun totalise 1,3 tonne de CO2 émise par habitant chaque année contre dix fois plus dans les zones éloignées. Il en va de même dans les grandes villes européennes où les transports publics sont très développés comme à Paris. Ces métropoles produisent deux fois moins de CO2 que nombre de villes américaines. A titre d'exemple, les Parisiens émettent 5,2 tonnes de dioxyde de carbone par personne et par an et les Athéniens 10,4 tonnes. Toutefois, comme l'indiquent les auteurs de l'étude, "le style de vie et les habitudes de consommation sont déterminants pour les émissions de gaz à effet de serre comme l'illustre le cas de la demande des consommateurs occidentaux pour les biens produits en Chine".

La plus grave récession économique depuis les années 30 n'a pas empêché les émissions carboniques (CO2) de continuer de grimper, la rapide expansion de la Chine compensant la chute de la production industrielle occidentale, selon les dernières estimations américaines. Les émissions de dioxyde de carbone (CO2) provenant de la combustion des hydrocarbures et du charbon ont diminué de 8,18 % à 5.424 millions de tonnes en 2009 aux Etats-Unis par rapport à 2006, selon les statistiques de l'Administration américaine d'information sur l'énergie (EIA). 2006 marque la dernière année avant le début de la récession en décembre 2007, qui a officiellement pris fin en juin 2009.

Pour l'ensemble de la planète, les émissions de CO2, principal gaz à effet de serre, se sont accrues de 5,2 %, soit 1.512 millions de tonnes à 30.451 millions de tonnes en 2009 par rapport à 2006, indiquent les chiffres de l'EIA (Energy information Administration). Ces statistiques couvrent seulement les émissions de CO2 provenant de la combustion d'hydrocarbure, de gaz naturel et de charbon pour la production d'énergie, y compris le carburant utilisé par les automobiles et l'aviation. Elles excluent les émissions de CO2 résultant de la déforestation ou de méthane produit par le bétail, précise l'EIA.

SAGE

Le séisme du Japon a déplacé un glacier de l'Antarctique
Mardi, 15/03/2011 - 21:33

Des chercheurs américains se sont aperçus que les violentes secousses du séisme survenu vendredi au large du Japon, avaient accéléré le déplacement d'un courant glaciaire de l'Antarctique.

Les ondes sismiques auraient déplacé un glacier. C'est ce que viennent tout juste de révéler des géophysiciens de l'Université de Santa Cruz en Californie, quelques jours après le désastreux séisme qui a frappé le Japon. Depuis 2007, ces chercheurs utilisent des stations GPS pour surveiller le mouvement du courant glaciaire des Whillans, un glacier "mouvant" de l'Antarctique.

Normalement, celui-ci se déplace d'environ 1 mètre par jour. Mais lundi, alors que Jacob Walter et ses collègues analysaient les dernières données GPS, ceux-ci se sont aperçus que le déplacement était plus important que prévu. D'après leurs analyses, l'événement se serait produit au moment exact où les ondes sismiques provenant du Japon ont frappé l'Antarctique. Sous l'effet du séisme, le courant glaciaire aurait alors accéléré, augmentant le déplacement d'un demi mètre.

"Le tremblement de terre du Chili de l'an dernier avait eu un effet similaire. C'est un aperçu intéressant de la manière dont les violents séismes peuvent affecter le mouvement des glaciers", a expliqué au New Scientist le géophysicien Jacob Walter. Pour autant, les chercheurs ont estimé que l'événement ne déstabiliserait pas la couche de glace de cette zone de l'Antarctique. Mais ils souhaitent désormais poursuivre leurs recherches en analysant les données d'autres séismes afin de voir si l'un d'entre eux était associé au même phénomène dans le courant glaciaire des Whillans.

Maxisciences

Menace nucléaire : la catastrophe était prévisible
Mardi, 15/03/2011 - 21:23

Alors que les catastrophes sismiques et nucléaires déferlent sur le Japon depuis le 11 Mars,  plusieurs éléments révélés aujourd'hui tendent à démontrer que la crise nucléaire était prévisible.

Le scénario catastrophe qui se déroule depuis vendredi était prévisible. C'est du moins ce que laisse penser l'article du professeur Katsuhiko repris par Mediapart aujourd'hui. Paru auparavant le 11 août 2007 dans le quotidien International Herald Tribune/Asahi Shimbun l'article dénonçait la vulnérabilité des centrales japonaises.

A cette époque, le professeur Katsuhiko tenait à avertir les autorités du Japon quant à l'impact catastrophique que pourraient avoir des secousses sismiques sur les réacteurs des centrales : "A moins que des mesures radicales ne soient prises pour réduire la vulnérabilité des centrales aux tremblements de terre, le Japon pourrait vivre une vraie catastrophe nucléaire dans un futur proche".

Toutefois, ses avertissements s'étaient avérés vains face au gouvernement et à Tepco (Tokyo Electric Power Company), producteur mondial d'électricité et exploitant d'un tiers des centrales nucléaires japonaises, dont celle de Fukushima.

En 2001, Greenpeace avait prévenu des risques liés à l'utilisation de MOX : Pour sa part, Owni évoque la mise en garde faite par Greenpeace en mai 2001, qui appelait les autorités à renoncer à l'utilisation de MOX, un combustible nucléaire, dans les réacteurs de Fukushima. L’ONG dénonçait l’accroissement du “risque d’un accident de fusion du cœur de réacteur” dû à l'usage de MOX. Selon Owni, les données certifiant la fiabilité du combustible avaient été falsifiées.

D'autres accidents nucléaires déclenchés sur des centrales japonaises auraient aussi pu alerter le gouvernement japonais des risques qu'encourait le pays. En effet, Le 16 juillet 2007, un séisme de magnitude 6,8 avait endommagé sérieusement la centrale de Kashiwazaki-Kariwa.

Actuellement, la centrale nucléaire de Fukushima subit depuis vendredi des explosions qui pourraient amener à une catastrophe dont la gravité a été estimée à 6 sur l'échelle internationale.

Maxisciences

La Commission européenne présente sa feuille de route vers une économie compétitive et sobre en carbone en 2050
Lundi, 14/03/2011 - 07:50

La Commission européenne a présenté le 8 mars sa feuille de route visant à transformer l'Union européenne en une économie compétitive et sobre en carbone à l'horizon 2050. Cette feuille de route explique comment atteindre de manière rentable l'objectif que s'est fixé l'Union européenne de réduire de 80 à 95 % ses émissions de gaz à effet de serre d'ici à 2050, par rapport à leur niveau de 1990.

La feuille de route présentée par Connie Hedeggard, commissaire européenne en charge des questions climatiques, s'appuie sur une analyse coût-efficacité et oriente les politiques sectorielles, les stratégies de réduction d'émissions à long terme aux niveaux national et régional ainsi que les investissements à long terme. L'Union doit maintenant commencer à élaborer des stratégies à long terme ; la feuille de route fournit des orientations sur la manière d'effectuer cette transition de la façon la plus rentable qui soit. La Commission européenne a également pris l'initiative car elle considère qu'être chef de file de la transition globale vers une économie sobre en carbone et économe en ressources aura des effets bénéfiques multiples pour l'UE.

Pour Connie Hedegaard, "nous devons amorcer la transition vers une économie sobre en carbone maintenant. Plus nous attendrons, plus les coûts seront élevés. Du fait de l'augmentation constante du prix du pétrole, l'Europe voit sa facture énergétique augmenter chaque année et devient de plus en plus vulnérable face aux chocs des prix. Amorcer la transition maintenant se révèlera efficace. Et la bonne nouvelle est que nous n'avons pas besoin d'attendre des percées technologiques. Tous les secteurs économiques, y compris l'agriculture, le bâtiment et les transports, devront contribuer à cette transition. En décrivant la marche à suivre vers une Europe sobre en carbone, la feuille de route fournit un cadre prévisible et clair aux entreprises et aux gouvernements pour préparer leurs propres stratégies de réduction des émissions et d'investissements à long terme".

Le modèle économique global sur lequel s'appuie la feuille de route montre que pour atteindre un objectif de 80 % de réduction en interne d'ici 2050, des réductions de l'ordre de 40 % et 60 % par rapport aux niveaux de 1990 devront être atteintes d'ici 2030 et 2040, respectivement. Tous les secteurs devront contribuer. Les politiques actuellement en place devraient permettre de réduire les émissions internes de 30 % en 2030 et de 40 % en 2050.

La mise en place dans l'UE d'une économie sobre en carbone nécessitera un niveau d'investissement annuel supplémentaire sur les quarante prochaines années équivalent à 1,5 % du PIB de l'UE, soit 270 milliards d'euros, au-delà du niveau d'investissement actuel de 19 % du PIB. Cette augmentation est simplement équivalente à un retour au niveau d'investissement d'avant la crise économique en Europe. Ces investissements supplémentaires seront compensés, en totalité ou en partie, par une réduction des factures pétrolière et gazière. Selon les estimations, ces économies d'énergie devraient être comprises entre 175 et 320 milliards d'euros par an. Cet investissement dans des technologies propres, sobres en carbone, dans des infrastructures telles que des réseaux électriques intelligents ou dans la protection environnementale, apportera en outre des bénéfices multiples. Notre facture énergétique actuelle profite en effet largement aux pays tiers, alors que l'investissement dans des technologies pauvres en carbone crée de la valeur ajoutée sur le territoire de l'Union. Investir dans ces technologies permet donc de réduire notre dépendance énergétique et notre vulnérabilité aux chocs pétroliers potentiels, tout en permettant de stimuler de nouvelles sources de croissance, de préserver les emplois existants et d'en créer de nouveaux. La pollution atmosphérique et les coûts de santé qui y sont associés seraient également réduits : on estime en effet à 88 milliards d'euros par an d'ici 2050 les bénéfices découlant d'une meilleure qualité de l'air dans l'Union.

La feuille de route fournit également des indications sur les moyens les plus rentables pour atteindre les objectifs de 85 à 90 % de réduction des émissions de gaz à effet de serre d’ici 2050. Le document propose un « investissement majeur et durable » dans les énergies renouvelables, les réseaux intelligents, le captage et stockage de carbone (CSC), les procédés industriels avancés et le développement des transports électriques sur une période de 40 ans.

L'analyse conclut également qu'atteindre l'objectif de réduction des émissions fixé pour 2050 de la manière la plus rentable possible implique une réduction des émissions de 25 % en 2020. Cette réduction devrait être obtenue grâce à des mesures internes uniquement, à la différence de l'objectif actuel de réduction des émissions de 20 %. La feuille de route montre que cette réduction de 25 % des émissions intra-européennes peut être obtenue en 2020 si, d'une part, l'UE atteint l'objectif d'amélioration de 20 % de son efficacité énergétique, réaffirmé par les chefs d'États et de gouvernements lors du Sommet sur l'énergie du 4 février dernier, et si, d'autre part, l'UE met pleinement œuvre les mesures du paquet «Énergie et climat» pour 2020, adopté en 2009.

Pour atteindre ces 20 % d'économies d'énergie, il pourrait être nécessaire de mettre de côté certains des quotas d'émissions devant être mis aux enchères par les États membres à partir de 2013 dans le cadre du SEQE de l'UE. Cette mise de côté serait mise en œuvre de façon progressive et ne concernerait pas les quotas déjà détenus par les entreprises. Sans cette mise de côté, les économies d'énergie réalisées par une entreprise pourraient susciter, par une réduction correspondante de la demande pour les quotas, une diminution du prix des quotas.

European Commission

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un urètre est reconstruit en laboratoire
Jeudi, 17/03/2011 - 08:06

Des chercheurs américains et mexicains ont réussi à reconstituer l'urètre de cinq enfants à partir de leurs propres cellules cultivées en laboratoire. Ces urètres bioartificiels, aprés 5 ans de recul, fonctionnent toujours de façon satisfaisante, permettant aux jeunes garçons d'uriner avec un débit normal. Il s'agit d'une étape importante vers la médecine régénérative.

Il y a quelques années, le Professeur Atala, urologue, avait été le premier à implanter chez des humains un organe fabriqué par bio-ingénierie, en l'occurrence une vessie. Celle-ci avait été obtenue en faisant pousser différents types de cellules de vessie sur un moule en polymère biodégradable. L'expérience a été menée chez sept patients, avec en moyenne quatre ans de recul. Sur le même principe, cette équipe travaille aujourd'hui à la reconstruction d'une trentaine d'organes et de tissus : muscles, vaisseaux, rein, cartilage…

Pour leurs travaux sur l'urètre, les chercheurs ont repris exactement la même technique que pour la vessie. Ils ont sélectionné cinq petits mexicains âgés d'une dizaine d'années dont la partie postérieure de l'urètre (attenante à la vessie) avait été détruite lors d'un traumatisme du bassin. Dans ce type de lésions étendues, les chirurgiens tentent de refabriquer un urètre à partir d'autres tissus, muqueuse vésicale ou buccale par exemple. Mais ces urétroplasties échouent dans environ 50 % des cas, selon les auteurs. La portion greffée a tendance à se fibroser, entraînant un rétrécissement du canal. Chez ces cinq enfants (dont certains avaient eu une urétroplastie classique, sans succès), le Professeur Atala a prélevé un carré de vessie de la taille d'un timbre-poste, puis l'a mis en culture. Deux types cellulaires ont été obtenus, des cellules de paroi vésicale et des cellules musculaires lisses. Et ces précieuses cellules ont été placées sur un tube biodégradable de taille adaptée à chaque enfant (soit 4 à 6 cm de long). Après plusieurs semaines, les bio-urètres ainsi fabriqués ont été réimplantés chirurgicalement. En quelques mois, la «greffe» a pris, et avec trois à six ans de recul, les enfants urinent toujours normalement.

À terme, cette technique pourrait être proposée aux patients qui nécessitent une reconstruction urétrale complexe, estiment les chercheurs. Un avis partagé par le Professeur Yves Aigrain, urologue pédiatrique à l'hôpital Necker (Paris) qui confirme que ces résultats étaient très attendus par les spécialistes. Selon lui, les urètres bioartificiels seront effectivement un réel progrès dans certains cas de traumatismes graves ou de malformations complexes. «Mais il s'agit de cas rares, et les indications de reconstruction urétrale par cette technique seront beaucoup plus exceptionnelles que celles de la vessie», précise-t-il.

The Lancet

Le diabète serait bien un facteur de risque de cancer
Mercredi, 16/03/2011 - 20:06

Un groupe international d’épidémiologistes, dont les initiateurs sont basés à Cambridge, l’Emerging Risk Factors Collaboration (ERFC), s’attache depuis quelques années à mieux préciser les relations entre divers facteurs de risque et certaines pathologies, vasculaires ou non. En 2010, ce groupe a pu ainsi montrer que, de façon globale, le diabète multipliait environ par 2 le risque de décès de causes vasculaires. Aujourd’hui, l’ERFC s’attaque à une question plus difficile, les relations entre le diabète et les autres causes de décès et en particulier la mortalité par cancer. Si plusieurs études ont en effet déjà permis d’évoquer une association positive entre le diabète et certains cancers (comme ceux du foie), on manquait jusqu’ici de données pour distinguer ce qui reviendrait dans cette association à l’hyperglycémie elle-même, à l’hyperinsulinisme ou à l’insulino-résistance ou à des facteurs de risque commun comme l’obésité.

Pour mieux répondre à ces questions que les travaux précédents, l’ERFC s’est basé sur les données individuelles de 820 900 sujets inclus dans 97 études prospectives. Ces participants, âgés en moyenne de 55 ans, étaient indemnes en apparence de toute affection chronique (vasculaire ou non) et ont été suivis pendant 12,3 millions de personne-années. Pendant la durée de la surveillance, 123 205 décès sont survenus et il a donc été possible de comparer les taux de décès de différentes causes chez les diabétiques et les non diabétiques.

Les résultats montrent que, sur la période de suivi et pour des patients de cette tranche d’âge, chez les diabétiques, les risques de décès (Hazard ratio) ajustés pour l’âge, le sexe, les habitudes tabagiques et l’indice de masse corporelle (IMC) sont multipliés par :

- 2,32 pour les causes vasculaires (intervalle de confiance à 95 % [IC95] entre 2,11 et 2,56) ;

- 1,8 pour les décès de toutes causes (1,71 à 1,90) ;

- 1,25 pour les morts par cancer (1,19 à 1,31).

Dans le détail, le diabète est associé à une majoration significative de la fréquence des cancers du foie (HR : 2,16 [1,62 à 2,88], du pancréas (1,51), de l’ovaire (1,45), du côlon et du rectum (1,40), de la vessie (1,40), du poumon (1,27) et du sein (1,25).

Au total, un diabétique de 50 ans apparaît avoir une espérance de vie diminué de 6 ans par rapport à un sujet non diabétique, ce qui est équivalent à ce que l’on observe chez les fumeurs au long cours (7 ans de vie perdus). Cette surmortalité des diabétiques est pour 40 % due à des causes non vasculaires de décès.

JIM

Les femmes qui boivent du café ont moins de risques d'AVC
Mercredi, 16/03/2011 - 19:50

Les femmes qui aiment prendre un café tous les jours vont se réjouir : selon une nouvelle étude suédoise, celles qui boivent au moins une tasse de café quotidiennement voient le risque de faire un accident vasculaire cérébral diminuer de 22 à 25 %, comparé à celles qui en ont bu moins ou pas du tout. Les résultats des travaux de l'Institut Karolinska sont publiés sur le site de "Stroke", une revue de l'Association américaine de cardiologie (AHA).

Le café a souvent la réputation d'être potentiellement mauvais pour la santé, rappelle le Dr Sharonne Hayes, cardiologue à la clinique Mayo de Rochester (Minnesota). Or, il n'existe réellement aucune étude qui en apporte la preuve. "Si vous êtes en train de boire du café, vous pouvez vous faire du bien et probablement pas de mal", selon elle. Toutefois, le Dr Hayes et d'autres médecins jugent que cette étude suédoise ne doit pas inciter les non-buveurs à se précipiter dans un café. Car il n'est pas démontré que le café diminue le risque d'AVC, mais que les buveuses de café ont un risque moindre.

"Les enquêtes épidémiologiques de ce type sont convaincantes, mais elles ne donnent pas la raison", fait valoir le Dr David Seres, directeur du centre de nutrition au Collège des médecins et des chirurgiens de l'université new-yorkaise de Columbia. Les scientifiques étudient les effets du café depuis des années, à la recherche de ses risques et de ses bénéfices. L'équipe suédoise menée par Susanna Larsson souligne que de précédentes études sur la consommation de café et les accidents vasculaires cérébraux donnaient des résultats contradictoires. "Il n'y a pas eu de message cohérent" dans les études portant sur le café, reconnaît le Dr Cathy Sila, neurologue et spécialiste de l'AVC à l'hôpital universitaire de Cleveland.

Dans cette dernière étude en date, les chercheurs ont suivi 34.670 Suédoises âgées de 49 à 83 ans pendant environ dix ans. Elles étaient interrogées sur la quantité de café consommé quotidiennement en début d'étude. Les scientifiques ont ensuite analysé les dossiers hospitaliers pour déterminer le nombre d'AVC survenus après. Au total, 1.680 accidents vasculaires cérébraux ont été recensés, dont 205 chez les femmes qui buvaient moins d'une tasse par jour, ou aucune. Les chercheurs ont pris en compte les facteurs de risque d'AVC, notamment le tabac, le poids, l'hypertension artérielle et le diabète, et ont encore trouvé un risque plus faible chez les buveuses de café, à risque égal par ailleurs.

Selon Susanna Larsson, le bénéfice est donc avéré, que les femmes boivent une ou plusieurs tasses de café quotidiennement. La chercheuse suédoise, dont une étude précédente avait mis en évidence le lien entre la consommation de café chez les fumeurs finlandais et la diminution du risque d'AVC, a observé qu'il fallait plus de recherches pour comprendre les mécanismes de cet effet. Le café pourrait réduire l'inflammation et améliorer la sensibilité à l'insuline, dit-elle, ou bien il pourrait avoir un effet antioxydant.

Stroke

Une étude découvre 13 nouveaux gènes prédisposant aux maladies coronariennes
Mercredi, 16/03/2011 - 18:32

Une équipe internationale de chercheurs a établi une liste de 13 gènes qui augmentent le risque d'accidents coronariens. La plupart de ces nouveaux gènes n'avaient jusqu'ici jamais été associés au développement de maladies cardiaques et cette découverte pourrait permettre de mettre au point de nouvelles méthodes de diagnostic et de traitement des maladies coronariennes. Cette étude, partiellement financée par l'UE, a été publiée dans la revue Nature Genetics.

Les maladies cardiaques sont la première cause de décès dans le monde. Si les facteurs liés au mode de vie, tels que le tabagisme ou un mauvais régime alimentaire, influencent naturellement le risque de développer des problèmes cardiaques, les chercheurs estiment que 30 à 60 % du risque de maladie cardiaque est en réalité imputable à des facteurs génétiques. En découvrant 13 nouveaux gènes associés au risque de maladies coronariennes, cette étude double le nombre de gènes connus favorisant ce type de maladies. Par ailleurs, les chercheurs ont confirmé l'implication de 10 gènes précédemment associés aux maladies coronariennes.

Sur les 13 nouveaux gènes découverts, trois seulement sont liés à des facteurs de risque classiques : deux sont associés à des niveaux élevés de cholestérol et un à l'hypertension artérielle. Les autres n'avaient jamais été associés au développement de maladies cardiaques. Néanmoins, certains de ces gènes avaient déjà été reliés à d'autres problèmes de santé tels que l'anévrisme cérébral et abdominal, la maladie cœliaque ou encore le diabète de type 1.

«Le plus fascinant dans notre étude est que nous avons découvert plusieurs nouveaux gènes qui n'avaient jusqu'ici jamais été reconnus comme étant impliqués dans le développement de maladies coronariennes, principale cause des attaques cardiaques», explique le professeur Nilesh Samani, chercheur à l'université de Leicester, au Royaume-Uni, et codirecteur de l'étude. «Il nous faut comprendre maintenant comment ces gènes fonctionnent, ce qui améliorera considérablement notre compréhension de la maladie et pourrait aider à mettre au point de nouveaux traitements.»

Les chercheurs ont obtenu ces résultats en comparant le profil génétique de plus de 22 000 personnes d'origine européenne souffrant de maladies cardiaques ou ayant des antécédents avec le profil de quelque 60 000 personnes saines. Ils ont étudié différentes lettres du génome des participants afin d'y détecter d'éventuelles mutations ; celles-ci, appelées polymorphismes de nucléotide simple (SNP), peuvent modifier le fonctionnement d'un gène et ainsi accroître le risque de maladie cardiaque. Ce premier examen a permis de dresser une liste de 23 sites génétiques semblant prédisposer au risque de maladie coronarienne. Ces gènes ont ensuite été examinés dans un nouvel échantillon de 50 000 génomes, provenant à 50 % de personnes atteintes de maladies cardiaques et à 50 % de personnes saines. Cette deuxième analyse a permis de confirmer que 13 de ces 23 gènes étaient effectivement associés à un risque élevé de maladie coronarienne.

«Le consortium a examiné un nombre d'échantillons plus de 10 fois supérieur au nombre d'échantillons utilisés pour la plus vaste étude publiée auparavant, de sorte que nous avons considérablement augmenté notre capacité à détecter de petites variations génétiques», rapporte le Dr Robert Roberts, de l'Institut de cardiologie de l'université d'Ottawa, au Canada. «Maintenant, notre travail consiste à comprendre comment ces gènes fonctionnent, à développer un nouveau groupe de médicaments pour les cibler et à identifier les personnes les plus susceptibles d'en profiter pour réduire leur risque de crise cardiaque et d'autres événements cardiaques.»

Cordis

Retrouver la mémoire grâce à la stimulation magnétique transcrânienne
Mercredi, 16/03/2011 - 17:27

D'après une étude qui vient de paraître dans Neuroscience Letters, l'application de stimulations magnétiques sur certaines zones du cerveau pourrait aider les personnes qui ont des problèmes de mémoire. La stimulation magnétique transcrânienne consiste à appliquer un courant électrique de faible intensité sur certaines régions du cerveau pour modifier l'excitabilité neuronale. Cette méthode, indolore et sécuritaire, est utilisée en neuropsychologie à des fins de recherches.

L'imagerie médicale a montré que lorsque le cerveau enregistre de nouvelles informations (encodage), le cortex préfrontal gauche est particulièrement actif ; lorsque cette information est récupérée (rappel), c'est le cortex préfrontal droit qui s'active. Les chercheurs de l'Ecole de psychologie de l'université Laval ont donc mené l'expérience suivante avec 11 jeunes adultes, sans troubles de mémoire : pendant la phase d'encodage, les participants visionnaient des séries de mots et d'images abstraites sur un écran d'ordinateur dans trois conditions : avec stimulation sur le cortex préfrontal gauche, avec stimulation sur le cortex préfrontal droit ou avec des stimulations placebo. Ces trois traitements étaient ensuite répétés lors de la phase de rappel quand les sujets devaient indiquer le plus rapidement possible s'ils avaient déjà vu les éléments qui défilaient à l'écran.

Les résultats ont montré que lorsque la stimulation est appliquée du côté gauche pendant l'encodage et droit pendant le rappel, le temps de réaction des sujets est plus rapide d'environ 50 millisecondes. Cette différence n'est pas énorme mais significative. " C'est la première fois qu'une étude démontre l'effet de l'application directe de la stimulation magnétique transcrânienne sur les processus liés à la mémoire chez les jeunes en bonne santé " souligne Sophie Blanchet, professeur à l'Université Laval. " Ceci nous porte à croire que la stimulation magnétique pourrait aider les gens qui ont de sérieux problèmes de mémoire. "

Sophie Blanchet souligne que les effets observés lors des tests sont spécifiques à la mémoire épisodique, celle qui permet de nous souvenir d'événements dans leur contexte spatial et temporel. "La mémoire épisodique est l'une des fonctions cognitives les plus vulnérables aux effets d'une atteinte cérébrale comme un traumatisme cranio-cérébral ou un accident vasculaire cérébral", précise-t-elle. La chercheuse entend maintenant tester l'efficacité de la SMT chez des sujets qui doivent composer avec des problèmes de mémoire.

Bulletins Electroniques

Les venins des serpents n'ont pas livré tous leurs secrets
Mardi, 15/03/2011 - 20:03

Depuis plusieurs décennies, les venins de serpents sont utilisés en pharmacologie pour créer de nouveaux médicaments. Mais une équipe de pharmacologistes, cliniciens, systématiciens et biologistes de la conservation, dirigée par Nicolas Vidal du laboratoire « Systématique, adaptation, évolution » (UMR 7138 Muséum national d'Histoire naturelle/Université Pierre et Marie Curie/CNRS /IRD), vient de montrer que ces venins étaient largement sous-exploités. Ils ont décidé d'unir leurs efforts pour utiliser au plus haut niveau ces ressources en composés pharmaceutiques et sauvegarder ces espèces particulièrement menacées. Les résultats de cette étude sont publiés en couverture de la revue Bioessays.

Aujourd'hui, plus de 3000 espèces de serpents vivent sur Terre où elles occupent des niches écologiques variées. La majorité d'entre elles (environ 2700) ont émergé et se sont diversifiées il y a 65 millions d'années au moment de la crise Crétacé-Tertiaire et de l'extinction des dinosaures. Ce grand groupe, appelé Caenophidia, réunit les serpents les plus évolués, ils sont caractérisés par leur fonction venimeuse. Parmi eux, les serpents possédant des crochets venimeux représentent environ 600 espèces. Ce sont les cobras, les vipères ou bien encore les serpents à sonnette. Les espèces restantes, plus de 2000, sont appelées « colubridés » ou « couleuvres ». N'ayant pas de crochets venimeux à l'avant de la bouche, elles ne présentent en général pas de danger pour l'Homme. Celui-ci a longtemps pensé qu'elles n'avaient pas de venins et les a ainsi largement négligées. De récentes découvertes  dans la systématique des serpents démontrent que ce biais taxonomique a conduit à sous-exploiter ces centaines d'espèces potentiellement utiles médicalement.

C'est seulement au cours de ces dernières années que les scientifiques ont commencé à s'intéresser à ces venins de serpents le plus souvent inoffensifs pour l'Homme. Dans cette étude, les scientifiques ont passé en revue l'état des avancées récentes. Ils ont ainsi mis en évidence de nouvelles technologies, telles que les méthodes de criblage à haut débit, qui permettraient aujourd'hui d'identifier et d'extraire rapidement et efficacement les molécules utiles d'un point de vue thérapeutique. Les venins présenteraient également un degré de variabilité inattendu car leur composition peut différer entre individus d'une même portée.

Au même moment, une crise majeure de la biodiversité menace fortement les populations de serpents sur lesquelles reposent ces espoirs biomédicaux. C'est pourquoi les systématiciens et biologistes de la conservation, pharmacologistes, cliniciens doivent unir leurs efforts afin de préserver la biodiversité de ces « couleuvres » tant pour la place qu'elles occupent dans le maintien des écosystèmes que pour leur chimiodiversité et le potentiel médical qu'elles représentent.

CNRS

Vaccin : l'aluminium est sans risque
Lundi, 14/03/2011 - 07:33

Les sels d'aluminium utilisés dans les vaccins sont-ils dangereux ? Selon les auteurs du bulletin spécialisé InfoVac, voilà encore une rumeur aussi infondée que... persistante. Ils rappellent une fois encore, l'innocuité « des adjuvants à base de sels d'aluminium,  utilisés depuis plus de 80 ans. Leur profil de sécurité est tellement bon qu'ils ont longtemps été les seuls adjuvants autorisés ».

L'Académie nationale de Médecine n'est pas d'un autre avis. « De façon récurrente, l'aluminium dans les vaccins est incriminé », explique la Docte assemblée. Et les critiques il faut bien le dire, viennent parfois... des médecins eux-mêmes. L'Académie signale ainsi qu' « en 1988, une équipe de chercheurs français a imputé des cas de myofasciite à macrophages à l'aluminium présent dans le vaccin ». L'accusation pourtant, a fait chou blanc.

Comme le rappelle les auteurs du bulletin InfoVac en effet, « aucune autorité de santé dans le monde n'a reconnu ce lien. La très grande majorité des vaccins recommandés dans le calendrier vaccinal contiennent des adjuvants à base d'aluminium ». Voilà qui est clair. « La peur injustifiée des vaccins, parfois abusivement relayée par les médias, retentit rapidement sur la couverture vaccinale d'une population et la gestion de la vaccination par les praticiens », poursuit l'Académie nationale de Médecine. Or les conséquences peuvent en être gravement préjudiciables pour la santé publique. « C'est hautement dommageable pour la prévention des maladies infectieuses, que la vaccination généralisée a réussi à contrôler ».

A quoi servent en réalité les sels d'aluminium ? « Leur présence au site de l'injection permet la maturation des cellules immunitaires ? Ce sont ces dernières qui prennent en charge les antigènes vaccinaux », explique l'Académie. Autrement dit, l'aluminium est un adjuvant essentiel dans la préparation des vaccins et sans lui, il serait nécessaire d'utiliser des quantités d'antigènes beaucoup plus importantes.

Académie nationale de Médecine

Première mondiale dans la chirurgie du cancer du poumon
Samedi, 12/03/2011 - 17:01

L’équipe du Pr. Emmanuel Martinod (Pôle Hémato-Onco-Thorax, Chirurgie Thoracique et Vasculaire) de l’Hôpital Avicenne (AP-HP), Université Paris 13, a réalisé une première mondiale en greffant, il y a plus d’un an, une bronche artificielle chez un patient atteint de cancer du poumon. Cette innovation chirurgicale a permis non seulement d’enlever la lésion cancéreuse avec des marges de sécurité plus importantes mais également d’éviter l’ablation complète du poumon qui était prévue avec un très haut risque de mortalité postopératoire. Le Pr. Martinod nous explique les conditions de cet exploit qui ouvre des perspectives thérapeutiques inédites.

Comment en êtes-vous venu à tenter cette greffe pour reconstituer une portion de bronche ?  Dans ce type de cancer, si la tumeur est centrale, la meilleure thérapie est l’ablation totale du poumon malade, ou pneumonectomie. Mais c’est une chirurgie qui comporte de gros risques postopératoires et peut poser également d’importants problèmes à long terme. C’est pourquoi nous utilisions depuis plusieurs années des techniques qui consistent à tenter de conserver au moins un lobe pulmonaire en y raccordant la portion saine de la bronche. La difficulté était, dans certains cas, d’avoir une longueur suffisante pour effectuer ce raccordement. Notre équipe a proposé depuis plus de dix ans d’utiliser un substitut des voies aériennes qui est une « matrice » d’allogreffe aortique préservée par le froid. Cette matrice conserve seulement une architecture à partir de laquelle l’organisme du patient va reconstituer naturellement le tissu bronchique, cellules épithéliales et cartilage inclus.

Vous avez réalisé cette intervention chez un patient après avoir validé un modèle expérimental. Dans quelles circonstances ? Les premières tentatives en laboratoire consistaient à utiliser des prothèses mais il est apparu un problème de compatibilité avec les tissus de l’organisme. Les chercheurs ont ensuite utilisé des prothèses plus biologiques mais le problème a persisté. D’autres ont tenté des greffes totales de trachée mais il y a eu des rejets catastrophiques car ce tissu est très immunogène. C’est ainsi que nous en sommes venus à essayer de greffer du tissu aortique, d’abord provenant du même organisme que l’organisme greffé, puis finalement en utilisant du tissu aortique provenant de banques de tissus, car il se trouve qu’il n’y a aucun phénomène de rejet dans ce cas. Dans le Laboratoire de Recherche Biochirurgicale, Fondation Alain Carpentier, Université Paris Descartes, notre équipe (E. Martinod, A. Seguin, D. Radu, G. Boddaert) a procédé au même type d’intervention chez plus de 100 brebis qui ont été suivies pendant trois ans.

Quel est le processus biologique qui se produit dans le cadre de cette greffe ? La bronche est constituée d’une partie interne, le tissu épithélial, qui est une couche de cellules ciliées en contact avec le milieu extérieur. Elle protège contre les agressions et permet d’évacuer les particules inhalées. En greffant notre « matrice » de tissu aortique, nous observons une réparation complète de l’épithélium, à partir des deux berges de bronche conservée. Il y a une recolonisation de la partie greffée par ces cellules ciliées sur toute la surface. En second lieu, nous avons observé une reconstitution du cartilage qui confère la rigidité à la bronche. Le processus n’est pas complètement élucidé mais cela provient des cellules souches de l’individu lui-même qui sont attirées sur le site de la greffe par des phénomènes inflammatoires et reforment des îlots de cellules qui vont redonner du cartilage. Nous pensons ainsi avoir trouvé la matrice idéale mais il faut rester prudent. La technique fonctionne pour la bronche mais il reste des améliorations à apporter pour la trachée, en particulier pour des remplacements d’une longueur supérieure à 5 cm.

Quelles vont être les suites de cette première mondiale ? Nous publions un article sur cette technique dans une revue spécialisée (Annals of Thoracic Surgery), et nous lançons une étude clinique pour en confirmer la validité. Notre premier patient a été opéré le 28 octobre 2009 et va bien à ce jour. Même s’il faut rester très prudent, cette technique utilisée pour la première fois dans le cadre de la chirurgie du cancer pulmonaire ouvre de nouvelles perspectives qui vont être évaluées dans un protocole clinique piloté par la Direction de la Recherche Clinique et du Développement de l’AP-HP, ayant reçu l’avis favorable du Comité de Protection des Personnes et de l’Afssaps ainsi que le soutien de l’Agence de la Biomédecine. Nous allons inclure 20 à 30 patients qui présentent des caractéristiques qui les rendent éligibles. L’étude analysera la morbi-mortalité à 90 jours. Elle nous permettra également de répondre à deux questions essentielles : le greffon va-t-il comme chez l’animal se transformer en « néo-bronche » ? Et pourra-t-on à terme retirer le stent (structure rigide) que l’on a placé à l’intérieur du greffon pour en assurer la rigidité ? Il est important de préciser que d’autres techniques sont étudiées mais que celle-ci présente l’intérêt majeur d’éviter le recours à des médicaments immunosuppresseurs qui sont contre-indiqués en cas de cancer car ils aggravent la maladie en affaiblissant l’organisme.

Cette innovation chirurgicale a été réalisée après plus de 10 années de recherche dans le Laboratoire de Recherche Biochirurgicale, Fondation Alain Carpentier, Université Paris Descartes (Pr. A. Carpentier, Pr. P. Menasché) par l’équipe du Pr. E. Martinod (Dr. A. Seguin, Dr. DM. Radu, Dr. MD Destable, Dr. G. Boddaert) du Pôle Hémato-Onco-Thorax (Pr. D. Valeyre), Hôpital Avicenne, Hôpitaux Universitaires Paris Seine-Saint-Denis, Université Paris 13 en collaboration avec les services d’oncologie (Dr K. Chouahnia), d’Anesthésie-Réanimation (Pr. C. Baillard, Pr. S. Beloucif), de Gériatrie (Dr G Sebbane), de Radiologie (Pr. PY Brillet, Pr. M. Brauner) et de la banque des tissus, EFS Ile de France (Dr. A. Fialaire-Legendre).

Propos recueillis par Jocelyn Morisson

AP-HP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top