RTFlash

RTFLASH Recherche & Technologie
NUMERO 476
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Mai 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
A Nice, les étudiants en médecine entrent dans l'ère de la simulation électronique
Fibre optique : entre 70 et 400 ? pour raccorder un abonné
Avenir
Des robots radar dans le cerveau
Matière
Des supraconducteurs à haute température pour les moteurs et générateurs de demain
Espace
La sonde Phoenix s'est posée sur Mars
Terre
G8 Environnement: réduire de 50 % les émissions des gaz à effet de serre d'ici 2050
Les émissions de CO2 ont diminué en 2006 dans sept pays du G8
Feu vert pour la recherche allemande sur l'éolien en mer - parc de démonstration "Alpha Ventus"
Découverte d'une nouvelle voie biologique de piégeage du CO2
Vivant
Premier décryptage du génome d'une femme par des généticiens néerlandais
La protection cardiovasculaire conférée par les antihypertenseurs ne varie pas avec l'âge
Régime et exercice peuvent repousser de 14 ans la survenue du diabète
Les particules de l'air ont un effet sur le risque de thrombose veineuse profonde
Un pacemaker à l'essai dans la dépression et certaines maladies psychiatriques
Les vêtements du futur nous soigneront !
L'exercice protège du cancer du sein dès la puberté
La consommation de frites et chips augmenterait le risque de cancer
Edito
Pétrole : la fin d'un monde



Avec un baril de pétrole dont le prix a quintuplé en 5 ans et qui se rapproche inexorablement du seuil symbolique des un dollar le litre (159 dollars le baril), nous entrons bien plus rapidement que prévu dans une nouvelle ère économique dont le grand défi est devenu la substitution de l'énergie par l'information à tous les niveaux de production et d'organisation de nos sociétés.

On estime qu'il reste environ 160 milliards de tonnes de pétrole conventionnel à extraire. En supposant que la consommation mondiale reste à son niveau actuel - 4 milliards de tonnes par an- il nous reste donc à peine plus de 40 ans de consommation. Or, selon l'AIE, la consommation mondiale de pétrole pourrait passer de 4 à 6 milliards de tonnes d'ici 2030 à cause notamment du développement économique accéléré de l'Asie.

Certes, ces estimations ne tiennent pas compte des réserves sous forme de pétrole non conventionnel, schismes bitumineux, pétrole profond, ni des progrès qui peuvent intervenir dans le taux de récupération des gisements mais ces variables ne changent pas fondamentalement la donne et ne pourront que nous faire gagner une ou deux décennies supplémentaires. L'exploitation de ce pétrole non conventionnel a en outre un coût énergétique et environnemental considérable.

Globalement la consommation énergétique de l'humanité s'élève à un peu plus de 10 gigatonnes d'équivalent pétrole par an et le pétrole représente donc, à lui seul, près de 40 % de cette consommation mondiale.

Nous pouvons bien sûr parier, comme le font les Etats-Unis, sur l'innovation technologique, pour accélérer le basculement vers "l'aprés pétrole" mais s'en remettre exclusivement à la technologie (qu'il s'agisse du charbon "propre, de la séquestration de carbone, de l'hydrogène ou des énergies renouvelables), sans remettre en cause fondamentalement nos modes de vie, relève à mon sens de l'illusion dangereuse. Nous devons en effet changer radicalement de perspective d'approche et admettre que le vrai défi consiste d'abord à réorganiser nos économies et nos sociétés de manière à réduire à la source nos besoins en énergie et à instaurer en principe généralisé la recherche de la sobriété énergétique et d'une croissance économique écocompatible.

Sachant qu'un humain sur deux vit à présent dans les villes, cela suppose notamment une réorientation profonde de nos conceptions et politiques d'urbanisme, d'aménagement du territoire et de transports afin de contenir l'étalement urbain et de repenser nos villes de façon à optimiser leur efficacité énergétique et leur empreinte écologique en concevant des unités urbaines qui intégreront, au lieu de les dissocier, les pôles de travail, de logement et de loisirs.

Cette question de l'urbanisme et des transports est capitale en matière énergétique et environnementale. Une étude du MIT a par exemple montré que la consommation énergétique moyenne d'un habitant d'Atlanta, ville américaine à l'urbanisme dispersé, était 7 fois plus grande que celle d'un habitant de Barcelone, ville méditerranéenne à l'urbanisme dense. Même si cela n'est pas facile dans un pays où beaucoup de familles rêvent de vivre dans une maison individuelle, nos responsables politiques doivent avoir le courage d'ouvrir ce débat sur la densification urbaine. En trente ans, la distance moyenne parcourue en voiture pour se rendre de son domicile à son travail a été multipliée par trois et nous devons absolument inverser cette tendance qui n'est plus tenable, ni économiquement ni écologiquement.

Nous devons également avoir le courage d'ouvrir un vrai débat démocratique sur la question de la restriction de l'usage de l'automobile dans les centres ville et de l'instauration de péages urbains modulables en fonction du nombre de passagers, de l'heure ou du type de véhicule. On peut imaginer aller plus loin en accordant des réductions d'impôts ou de taxes aux entreprises ou particuliers particulièrement sobres en matière énergétique. Il faut également, grâce à un cadre législatif et fiscal adapté, favoriser l'essor du télétravail afin qu'il représente d'ici 10 ans 20 % du temps consacré aux activités de services publics et privés.

De récentes études scientifiques montrent que, compte tenu des délais liés à l'inertie thermique des océans, si nous voulons stabiliser le climat, il nous faut non seulement réduire de moitié au niveau mondial nos émissions de gaz à effet de serre mais tendre à une production énergétique totalement décarbonnée d'ici la fin de ce siècle.

Pour atteindre de tels objectifs, le développement massif, même de plusieurs ordres de grandeur, de la production d'énergie renouvelable (y compris le nucléaire), bien qu'absolument nécessaire, n'est qu'une réponse partielle et insuffisante et nous devons d'abord réorganiser en profondeur nos économies et nos sociétés autour du concept de sobriété énergétique et de productivité informationnelle et cognitive en réduisant à la source nos besoins globaux en énergie et en améliorant de manière considérable l'efficacité et le rendement énergétique dans l'ensemble des activités humaines.

Notre civilisation va devoir apprendre à produire et à transformer le maximum d'information en connaissance et en richesses en utilisant le minimum d'énergie et en recherchant systématiquement la valeur ajoutée écologique qui devra simultanément préserver la biodiversité gravement menacée, valoriser et utiliser les matériaux et produits naturels et intégrer le recyclage et l'ecocompatibilité de l'ensemble des productions industrielles et humaines dès leur conception.

Mais, à ce stade de réflexion, il faut éviter tout malentendu idéologique ou philosophique : un tel objectif ne signifie nullement la soumission au mythe dangereux du retour à une nature idéalisée, toute puissante et vierge qui n'a jamais existé. Depuis le néolithique, l'homme n'a cessé de transformer profondément la nature et son environnement pour survivre puis améliorer ses conditions de vie et ceux qui, s'enfermant dans de nouvelles formes d'intégrisme et de conservatisme, et remettent en cause la nécessité de l'innovation et du progrès scientifique, notamment dans les sciences du vivant, se trompent de combat et veulent répondre de manière simpliste et dogmatique à des défis planétaires complexes et globaux.

Pour réussir cette mutation de civilisation, l'espèce humaine doit plus que jamais mobiliser toutes ses capacités d'innovation, non seulement dans les domaines scientifiques et techniques mais aussi dans les domaines sociaux, économiques et démocratiques, pour concevoir de nouveaux modes et outils de gouvernance, de régulation et de contrôle socio-politiques. Il nous appartient, sans nous enfermer dans des cadres de pensée réducteurs, de faire preuve d'audace créatrice et d'être à la hauteur morale et intellectuelle des immenses défis que notre planète doit relever.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
A Nice, les étudiants en médecine entrent dans l'ère de la simulation électronique
Vendredi, 30/05/2008 - 00:00

Allongé sur un lit, un patient secoué d'une toux déchirante. Autour de lui, des étudiants en médecine un peu perdus mais pas affolés : la scène est un exercice de simulation sur un mannequin bourré d'électronique. Les étudiants en médecine de l'université de Nice ont découvert cette semaine le nouveau centre de simulation médicale de leur établissement, un dispositif d'apprentissage unique en France, selon le doyen de la faculté Daniel Benchimol.

Chacune des trois salles du centre reproduit l'univers hospitalier, avec ses instruments médicaux, ses écrans de contrôle sur lesquels s'affichent la tension, l'état de saturation respiratoire, l'électrocardiogramme du malade.

Seul le patient est faux. Encore que ... De ce mannequin à la technologie avancée, les étudiants peuvent prendre le pouls, écouter la respiration, voir le torse se soulever en fonction de l'évolution de son état.

Dans la même salle, derrière une glace sans tain, un professeur de médecine imagine les scénarios cliniques - crise d'asthme, infarctus, hémorragie - qu'il veut proposer aux apprentis-médecins et en transmet les paramètres aux appareils de la salle reliés à son ordinateur. C'est également sa voix qu'entendent les étudiants dans la bouche du patient qui peut ainsi répondre aux questions, signaler un point douloureux, etc ...

"Nous avons défini un certain nombre de situations-clés qui balaient tous les cas auxquels les étudiants peuvent être confrontés à l'hôpital. La simulation nous offre ainsi un apprentissage beaucoup plus complet que les stages durant lesquels ils peuvent ne jamais rencontrer telle ou telle pathologie", explique le professeur Benchimol.

"En stage, les médecins n'ont pas toujours le temps, comme ici, de nous présenter la totalité du cas d'un patient, avec tous les examens, tous les bilans. En simulation, on a le temps de se poser les bonnes questions", confirme Romain Rozier, en troisième année de médecine.

Laura Gagliardi, 20 ans, observe ses camarades tortiller leurs stéthoscopes, intimidés par la respiration fuyante du mannequin. "Je ne pensais pas que ce serait si réaliste", avoue-t-elle. "Des études ont prouvé que des étudiants ayant bénéficié de la simulation gagnent un an sur ceux passés par l'apprentissage traditionnel. Aux Etats-Unis, les taux de maladies nosocomiales et d'infections ont chuté depuis l'introduction de cette méthode", assure le professeur Benchimol.

L'université de Nice s'est en effet inspirée du modèle américain de Harvard Medical International, l'une de ses universités partenaires, pour mettre en place le projet."Outre-Atlantique, la règle c'est +Jamais la première fois sur un patient+", explique le doyen. Le simulateur y est devenu la norme au point que pour être pris en charge par un assureur, certains spécialistes doivent s'être entraînés selon cette méthode durant un quota d'heures défini. Cette pratique est largement méconnue en France, regrette Daniel Benchimol. "On a longtemps considéré que notre enseignement de la médecine basée sur une culture du compagnonnage suffisait". Mais un aréopage de chirurgiens français venus découvrir le centre de simulation le week-end dernier en est ressorti impressionné, assure-t-il. L'université de Nancy serait intéressée par le projet niçois d'un coût de 400.000 euros, dont la moitié pris en charge par le conseil général.

AFP

Fibre optique : entre 70 et 400 ? pour raccorder un abonné
Vendredi, 30/05/2008 - 00:00

Si la fibre optique (FTTH) fait couler beaucoup d'encre, son nombre d'abonnés reste pour l'instant bien faible dans l'Hexagone, tant les fournisseurs d'accès à internet semblent plus s'atteler à déployer leur réseau dans les principales villes qu'à raccorder et attirer les abonnés. Si la fibre optique prendra assurément son envol lors des quatre prochaines années, les récentes interventions de l'ARCEP devraient voir des conséquences positives sur la mise en place du très haut débit (au-delà de 50 Mbps). L'Autorité résume d'ailleurs parfaitement la situation dans un récent communiqué : « La poursuite des déploiements et leur intensité concurrentielle dépendront fortement des conditions préalables qui auront été mises en place. Le principal enjeu réside dans le changement de contexte de ces déploiements, qui s'opèrent dans un marché ouvert à la concurrence, alors que la boucle locale en cuivre avait été déployée par un monopole public.

La réglementation et la régulation constituent un premier levier pour abaisser les barrières à l'entrée au bénéfice de tous les acteurs. Les textes législatifs et réglementaires en préparation et les travaux en cours de l'ARCEP prévoient ainsi de permettre l'accès de tous les opérateurs aux infrastructures de génie civil de France Télécom, d'assurer la mutualisation d'une partie des réseaux en fibre optique entre opérateurs, notamment dans la propriété privée, et d'imposer progressivement le prééquipement des bâtiments neufs. »

Du côté des FAI, Free, par l'intermédiaire d'Olivier de Baillenx, directeur des relations institutionnelles d'Iliad, n'a pas souhaité donner le nombre réel de clients en fibre optique. Présent aux Deuxièmes Assises du Très Haut Débit organisées au Sénat dans le cadre des "Assises du Numérique", notre confrère Silicon a cependant pu obtenir quelques détails de la part de Baillenx sur le déploiement de Free en France : « À Paris, nous estimons qu'il faut 60 NRO (noeuds de raccordement optique) pour assurer une bonne couverture. A ce jour, 40 sont déjà ouverts et équipés. D'ici 12 à 15 mois, 70 % de la capitale sera couverte. En province, nous revendiquons 400.000 prises raccordables. »

Chez Neuf Cegetel-SFR le nombre de prises raccordables a d'ores et déjà atteint la barre du million, d'après Arnaud Lucaussy, directeur de la réglementation et des études économiques pour SFR. Là encore, aucun chiffre n'a été communiqué sur le nombre effectif d'abonnés. Si les grandes villes, et notamment les quartiers disposant d'immeubles imposants, sont privilégiés, c'est en toute logique pour une raison de coût. La Caisse des dépôts aurait ainsi chiffré à 70 ? les frais imputés aux FAI afin de fibrer un simple abonné. Des frais multipliés par six (plus de 400 ?) si l'abonné est situé dans un pavillon.

PCI

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots radar dans le cerveau
Vendredi, 30/05/2008 - 00:00

Contrôler un bras robotisé par la pensée : le projet n'est pas nouveau. Le Fraunhofer, par exemple, développe un prototype qui capte les ondes cérébrales. Mais le Caltech(California Institute of Technology) va plus loin : il travaille sur un appareil robotisé miniature qui s'implante directement sur les électrodes placées dans le cerveau. Celui-ci, qui agit comme une interface cerveau-machine, permet de capter de manière plus efficace les signaux émis par les neurones pour activer un système robotisé ou un ordinateur. Intérêt : si les signaux sont de meilleurs qualités, les messages transmis le seront aussi et permettront de faire évoluer avec plus de souplesse et de précision un bras robotisé ou tout autre système relié.

Le dispositif fonctionne via un algorithme qui lui permet de positionner les électrodes de manière à mieux percevoir et isoler les signaux émis par les neurones. Et à les retransmettre au logiciel. Concrètement, le système est programmé pour détecter les différents flux électriques qui passent dans les électrodes. Quand il en capte un, il tâche d'en percevoir la qualité. Une fois ceci effectué, il est capable de faire se mouvoir l'orientation de l'électrode jusqu'à enregistrer un signal de qualité optimale. Pour développer ce dispositif robotisé aux allures de radar, les scientifiques du Caltech se sont inspirés d'un logiciel utilisé par l'armée américaine pour repérer la position des avions ennemis. Selon les fondateurs du projet, ces dispositifs miniatures devraient permettre de dépasser certaines des difficultés qui empêchent de mettre au point des interfaces neuronales de grande ampleur. Ce, dans le but de développer des prothèses dites neuronales, ou neuroprothèses.

Atelier

^ Haut
Matière
Matière et Energie
Des supraconducteurs à haute température pour les moteurs et générateurs de demain
Vendredi, 30/05/2008 - 00:00

Le producteur d'alliages de nickel ThyssenKrupp VDM a développé un supraconducteur de 2ème génération en partenariat avec l'Institut Leibniz de recherche sur les corps solides et matériaux de Dresde (IFW) et le fabricant Trithor. Les supraconducteurs à haute température pourraient en effet permettre d'économiser de grandes quantités d'électricité car ils ne fournissent aucune résistance électrique à certaines températures. "L'avancée dans la supraconduction à haute température est un grand pas en avant", commente Dr. Jutta Klöwer, selon qui un succès commercial pour cette technologie est possible pour l'an 2010.

Ces matériaux ont des applications aussi bien dans la production d'énergie, que dans son transit et sa distribution jusqu'au consommateur. En plus des économies d'énergie, ils permettraient de réduire la taille des composants conventionnels actuels, en cuivre ou en aluminium. De plus, l'utilisation de ces matériaux permettrait de produire des champs magnétiques beaucoup plus puissants. Concrètement, le générateur d'une éolienne, aujourd'hui fabriquée à base de cuivre ou d'aluminium, peut produire jusqu'à 6 MW d'électricité. Une éolienne utilisant la technologie de supraconductivité pourrait produire 8 MW. Autres avantages, la masse et le coût du générateur également réduits (120 tonnes contre 450 tonnes, 1 million d'euros contre 4 millions d'euros).

Les travaux de ThyssenKrupp ont permis la fabrication d'un premier substrat, élément de support du matériau supraconducteur, dont le rôle essentiel est de permettre à ce dernier de disposer d'une stabilité mécanique et d'avoir une longue durée de vie. Tous les problèmes ne sont cependant pas encore résolus, souligne Dr. Klöwer : "la procédure technique industrielle reste encore un défi car le substrat doit être très propre du point de vue métallurgique

[BE">..] Le laminage à chaud de la fonte a déjà donné de bons résultats. Cela montre que nous sommes sur la bonne voie."

[BE

^ Haut
Espace
Espace et Cosmologie
La sonde Phoenix s'est posée sur Mars
Vendredi, 30/05/2008 - 00:00

Phoenix est arrivée sur Mars sous les applaudissements et les cris de joie du Jet Propulsion Laboratory (JPL) de la Nasa de Pasadena, en Californie. Le passage de la sonde américaine sur la planète rouge devrait permettre aux scientifiques de déterminer si la vie est possible sur la planète rouge. Le principal responsable de la mission, Peter Smith, a déclaré que l'obtention d' « un bon échantillon de ce sol gelé est l'objectif dans notre quête pour une zone habitable sur Mars".

Après avoir parcouru 679 millions de km depuis son lancement en août 2007, Phoenix est entrée dans la haute atmosphère martienne à 21.000 kilomètres/heure. Après sept minutes de descente périlleuse, elle s'est déposée en douceur sur le sol martien. Quinze minutes plus tard, temps nécessaire pour que le signal parcoure à la vitesse de la lumière les 276 millions de kilomètres séparant Mars de la Terre, la réussite était confirmée.

La caméra multispectrale de Phoenix a transmis ses premières et superbes photographies couleurs 24 heures après l'atterrissage. « Nous sommes sur le sol et nous avons une minute de données transmises par la sonde après qu'elle se soit posée et nous pouvons confirmer que Phoenix se trouve presque exactement dans l'axe est-ouest prévu » a commenté Peter Smith. « Nous attendons maintenant de commencer 90 jours d'expériences scientifiques fabuleuses" a-t-il ajouté.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
G8 Environnement: réduire de 50 % les émissions des gaz à effet de serre d'ici 2050
Vendredi, 30/05/2008 - 00:00

Les ministres de l'Environnement des pays du G8 se sont mis d'accord lundi pour que les pays riches donnent l'exemple dans la lutte contre le réchauffement climatique, avec un objectif de réduction d'au moins 50 % des émissions de gaz à effet de serre d'ici 2050. Les ministres bouclaient trois jours de débat à Kobé (centre-ouest du Japon) destinés à préparer le sommet du G8 de juillet, organisé par le Japon à Toyako (nord) et dont la lutte contre le réchauffement climatique sera l'une des priorités.

L'an passé, les pays du G8 s'étaient accordés pour "étudier sérieusement" la réduction d'au moins 50 % d'ici 2050 des émissions de gaz à effet de serre, responsables du réchauffement de la planète. "Une volonté politique forte a été exprimée pour aller au-delà de cet accord et s'entendre sur une vision commune pour un objectif de long terme au sommet du G8 de Toyako", a fait état le communiqué final de la réunion de Kobé.

Le G8 rassemble les Etats-Unis, le Japon, l'Allemagne, le Royaume-Uni, la France, l' Italie, le Canada et la Russie. Les ministres de l'Environnement du G8 ont aussi souligné dans leur communiqué final "l'importance de conclure les négociations sur un accord post-2012 dans la lignée du plan d'action de Bali et au plus tard en décembre 2009" lors d'une conférence climat de l' ONU à Copenhague.

L'année 2012 verra arriver à échéance le protocole de Kyoto qui stipulait une réduction des émissions de gaz à effet de serre des pays industrialisés de 5% en moyenne entre 1990 et 2012. Seuls les Etats-Unis ne l'avaient pas ratifié parmi les nations industrielles.

Le secrétaire d'Etat allemand à l'Environnement, Matthias Machnig, a martelé à propos de ces négociations post-Kyoto que "sans un objectif de moyen terme" de réduction d'émissions pour les pays développés, "il sera très compliqué de trouver un accord à Copenhague".

Les pays du G8 ont par ailleurs affirmé que "les pays développés doivent s'engager sur des objectifs nationaux quantifiés d'émissions et adopter des mesures pour réduire les émissions de gaz à effet de serre".Ils ont ajouté que des "actions de réduction" de ces émissions étaient "aussi nécessaires de la part des pays en voie de développement", sans y fixer toutefois d'objectifs chiffrés.

Des représentants des pays émergents ont participé aux discussions depuis samedi, ainsi que des représentants d'ONG, des milieux patronaux et des syndicats. Les ministres de l'Environnement du G8 ont par ailleurs "clarifié le fait que les approches sectorielles seraient utilisées pour atteindre les objectifs nationaux" de réduction d'émissions et "non pour s'y substituer", ont-ils précisé dans le communiqué final.

AFP

Les émissions de CO2 ont diminué en 2006 dans sept pays du G8
Vendredi, 30/05/2008 - 00:00

Les émissions de gaz à effet de serre ont diminué en 2006 dans l'ensemble des grands pays industriels du G8, à l'exception de la Russie, marquant ainsi la baisse la plus notable depuis 1990, montre une étude. Cette baisse, qui s'élève à 0,6 % entre 2005 et 2006 dans l'ensemble du G8, est principalement liée à la hausse des prix du pétrole, aux premiers effets des mesures de lutte contre le réchauffement climatique et à un hiver doux aux Etats-Unis, ou la demande d'énergie pour le chauffage a baissé.

"La baisse des émissions dans certaines grandes économies en 2006 est un signe encourageant", a salué Michael Raupach, qui dirige à Canberra, en Australie, le Centre d'observation de la Terre.

"Ce n'est toutefois que le début", a-t-il tempéré. Des actions bien plus ambitieuses seront nécessaires pour éviter les effets les plus destructeurs des changements climatiques, essentiellement liés aux émissions de gaz à effet de serre. Parmi les sept pays du G8 dont les émissions ont diminué, la France ouvre la marche avec une baisse de 2,5 %, jusqu'à l'Allemagne, avec 0,02 % d'émissions en moins entre 2005 et 2006.

L'Allemagne est toutefois le pays du G8, hors Russie, dont les émissions ont le plus fortement chuté depuis 1990. En Russie, ou les émissions de gaz à effet de serre s'étaient effondrées peu après la disparition de l'Union soviétique, la hausse de 2005 à 2006 est de 3,1 % et coïncide avec une croissance économique soutenue.

C'est la première fois qu'autant de pays du G8 connaissent une baisse de leurs émissions depuis 1990, année de référence pour les Nations unies dans la lutte contre le réchauffement.

Les ministres de l'Environnement du G8 se réunissent à Kobé, au Japon, de samedi à lundi afin de préparer un sommet sur le climat prévu en juillet.

Globalement, le G8 a dégagé dans l'atmosphère 14,04 milliards de tonnes d'équivalent CO2 en 2006, contre 14,12 milliards en 2005, selon les calculs effectués par Reuters à partir de données fournies au secrétariat de l'Onu chargé du climat.

Toutefois, de l'avis de plusieurs experts, cette baisse des émissions ne prouve nullement que les pays du G8 se soient réellement attelés à la lutte contre le réchauffement.

"Il paraît logique qu'un prix plus élevé du pétrole fasse baisser la demande (...) et qu'un hiver relativement doux fasse diminuer la consommation d'énergie, et donc les émissions des centrales électriques", a souligné Knut Alfsen, directeur des recherches au sein du Centre de recherche internationale sur le climat et l'environnement, basé à Oslo.

"Malheureusement, on peine à distinguer dans l'ensemble de ces pays des actes politiques qui permettraient d'expliquer la baisse des émissions", a-t-il estimé. "Si on me demande si les pays commencent vraiment à 'se saisir' du problème du changement climatique, je reste plutôt pessimiste."

En revanche, cette diminution apparaît alors même que, dans les pays concernés, la croissance économique s'est élevée à 3 % en moyenne en 2006, selon les estimations du Fonds monétaire international. Il pourrait s'agir là du signe que la croissance commence à se dissocier des émissions.La production de gaz à effet de serre des pays du G8 a diminué de 2,6 % depuis 1990, mais l'essentiel de cette baisse est liée à l'effondrement de l'industrie soviétique. Les émissions des sept autres pays sont en hausse depuis cette date, notamment au Canada, aux Etats-Unis et en Italie.

Express

Feu vert pour la recherche allemande sur l'éolien en mer - parc de démonstration "Alpha Ventus"
Vendredi, 30/05/2008 - 00:00

Le Ministère fédéral de l'Environnement (BMU) a donne son feu vert le 8 mai 2008 pour le lancement de l'initiative "RAVE" de recherche sur l'énergie éolienne en mer. Cette initiative prévoit la construction du premier parc éolien "offshore" allemand. Surnomme "Alpha Ventus", le parc de démonstration est destine a tester en conditions réelles les plus récentes technologies et a les optimiser : 12 machines géantes, de 5MW chacune, doivent prochainement voir le jour en mer du Nord, au large de l'ile de Borkum, par 30m de fond.

L'initiative vise a offrir un cadre structure pour la coordination de divers projets de recherche, coordination menée par l'institut des techniques solaires de production d'énergie (ISET) de l'Universite de Kassel. Un concept a été développe pour la mise en réseau efficace des diffèrents projets. Le BMU soutient l'initiative a hauteur de 50 millions d'euros sur 5 ans.

Cette inauguration a été l'occasion pour le physicien Prof. Joachim Peinke de l'Université de Oldenburg, également porte-parole du centre de recherche sur l'énergie éolienne ForWind, d'exprimer son point de vue sur les coûts de production de l'électricité d'origine éolienne et d'origine fossile. Selon lui, l'électricité éolienne est, déjà aujourd'hui, meilleur marche que l'électricité fossile : en prenant un coût du baril de pétrole brut de 73 euros et un rendement de conversion d'énergie de 50 %, le professeur abouti a un coût du kWh fossile de 9,12 ct contre 8 ct/kWh éolien.

BE

Découverte d'une nouvelle voie biologique de piégeage du CO2
Vendredi, 30/05/2008 - 00:00

Des chercheurs de l'Université technique de Munich (TUM), en collaboration avec les Universités de Fribourg et Ratisbonne, ont découvert un nouveau moyen biologique de piégeage du dioxyde de carbone. L'organisme unicellulaire marin Ignicoccus hospitalis forme, à partir de CO2, des molécules organiques complexes, grâce à des enzymes très résistantes aux fortes températures qui lui permettent ainsi de survivre dans l'obscurité totale et dans des eaux à plus de 90°C. Les recherches de l'équipe portent sur la mise au point de nouvelles stratégies pour produire, à partir de CO2, des produits intermédiaires pour l'industrie chimique et pharmaceutique. Leur découverte pourrait constituer un pas vers de nouvelles méthodes pour piéger le CO2.

Par la photosynthèse, les végétaux chlorophylliens produisent, à partir de dioxyde de carbone et d'eau, des molécules énergétiques comme des acides aminés ou des sucres. L'énergie nécessaire à ces réactions leur est fournie par la lumière du soleil. Les conditions dans les fonds sous-marins où vivent des archées comme Ignicoccus hospitalis sont tout autres : forte pression, absence de lumière et d'oxygène, eau à plus de 90 degrés. Pourtant, Ignicoccus hospitalis parvient à synthétiser des molécules organiques à partir de CO2, en utilisant de l'hydrogène comme source d'énergie. Ses enzymes et sa membrane cellulaire sont adaptées aux conditions extrêmes.

Lorsque l'homme remue un muscle, une chaîne d'enzymes décompose des molécules riches en énergie (sucres, acides gras) : c'est le cycle de Krebs. Sont alors produits, d'une part, de l'acétyl-coenzyme A (Acétyl-CoA), molécule à haut potentiel énergétique utilisée par les cellules, et du CO2 d'autre part, qui est expiré. Ignicoccus hospitalis réalise la réaction exactement inverse : il utilise un cycle de Krebs modifié, dans lequel l'AcétylCoA reste le principal intermédiaire. Dans une première étape, le CO2 est directement lié à l'AcétylCoA et entre ainsi dans le cycle. Dans un second temps, un deuxième atome de carbone s'ajoute, lui aussi apporté par une molécule de CO2. A la fin du cycle de réactions, Ignicoccus a ainsi construit, à partir du radical acétyl à deux atomes de carbone, une molécule à quatre atomes de carbone, qui est coupée en deux unités d'AcétylCoA. L'une d'entre elles retourne dans le cycle, la seconde constitue un élément riche en énergie à disposition de la cellule pour former des molécules organiques.

Les premières informations concernant les réactions du métabolisme d'Ignicoccus hospitalis ont été acquises par les chercheurs de l'Institut de microbiologie de l'Université de Fribourg. Afin de déterminer à quelle modification les enzymes procèdent au sein de la molécule initiale, les chercheurs de Ratisbonne ont nourri des cultures d'archées avec des éléments dont un atome de carbone était marqué. L'atome de carbone comporte normalement dans son noyau 6 protons et 6 neutrons, sa masse atomique est donc 12. Les scientifiques de la TUM ont, eux, utilisé des atomes de carbone de masse atomique 13, qu'Ignicoccus a incorporés dans les molécules qu'il a synthétisées. Ils ont ainsi pu suivre la manière dont les atomes de carbone se déplacent d'un produit intermédiaire à un autre dans le cadre du métabolisme de l'organisme unicellulaire. Ce suivi leur a notamment été permis par le spectroscope à résonance magnétique de la TUM et a abouti à la mise en lumière de toutes les étapes du cycle de réactions.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Premier décryptage du génome d'une femme par des généticiens néerlandais
Vendredi, 30/05/2008 - 00:00

Des chercheurs en génétique du Centre médical universitaire de Leyde, aux Pays-Bas, ont annoncé dans un communiqué avoir réalisé les premiers le séquençage complet du génome d'une femme. "C'est la première femme au monde et le premier Européen dont le séquençage de l'ADN sera rendu public", indique le Centre médical universitaire de Leyde (LUMC). "Le séquençage de l'ADN et les analyses afférentes seront, à part quelques données relevant du privé, rendus publics bientôt", précise le centre, ajoutant que les résultats n'ont pas encore été soumis à la communauté scientifique.

Le séquençage a eu lieu sur un appareil fonctionnant au Illumina 1G, projet du Centre de technologie génomique de Leyde."Le séquençage d'une femme permet une meilleure compréhension du chromosome X" notamment, parce qu'une femme en possède deux exemplaires, a argumenté Gert-Jan van Ommen, directeur de l'équipe scientifique.Selon le LUMC, les quatre génomes décryptés jusqu'à aujourd'hui appartenaient à des hommes: deux Américains et deux Africains de l'ethnie Yoruba.

La carte du génome humain - environ trois milliards de lettres représentant le code ADN -, avait été intégralement établie en 2003 par le Consortium international pour le séquençage du génome humain.Cette carte atteignait un degré de précision estimé à 99,99%.

Le génome regroupe l'ensemble des gènes qui caractérisent l'espèce, détermine les spécificités de chaque individu comme la couleur des cheveux, des yeux ou ses prédispositions à certaines maladies (diabète, cancer, asthme, maladies cardiaques...).Ainsi, plus de 1.400 gènes humains ont en effet déjà été liés directement à une maladie, comme la mucoviscidose ou la chorée de Hungtington. Des tests existent pour détecter les mutations prédisposant au cancer du sein sur les gènes BRCA 1 et BRCA 2.

AFP

La protection cardiovasculaire conférée par les antihypertenseurs ne varie pas avec l'âge
Vendredi, 30/05/2008 - 00:00

Les études observationnelles ont montré depuis longtemps que la pression artérielle (PA) était fortement et directement liée au risque d'accidents vasculaires cérébraux (AVC) et de cardiopathies et que la force de cette relation diminuait avec l'âge. Une récente revue de la littérature laisse paraître que pour chaque baisse de 20 mmHg de la PA systolique, le risque d'AVC diminue de 33 % entre 80 et 89 ans versus 62 % entre 50 et 59 ans. Cependant, dans de nombreux essais ayant évalué les effets de la baisse de la PA sur les évènements cardiovasculaires (ECV) majeurs et dont les critères d'inclusion pour l'âge étaient assez larges, il n'a pas été observé de plus forte baisse des risques d'ECV chez les plus jeunes par rapport aux plus âgés. Cela peut refléter, in fine, un effet comparable de la réduction de la PA chez les sujets les plus jeunes et les plus âgés ou être lié à un manque de puissance des essais pour détecter une éventuelle différence lorsqu'ils sont analysés individuellement.

Afin de quantifier la réduction du risque relatif (RR) d'ECV, par le biais de différents traitements antihypertenseurs chez les adultes jeunes et âgés (< 65 ans versus ≥ 65 ans), un groupe multicentrique australien (Blood Pressure Lowering Treatment Trialists' Collaboration) a réalisé une méta-analyse pour comparer les effets obtenus dans ces deux groupes d'âge.

Au total, 31 essais comprenant 190 606 participants ont été retenus dans l'analyse. Les données n'ont pas montré de différence significative de la baisse de la PA sur la réduction des ECV selon l'âge ni la classe thérapeutique utilisée (pour tous les événements, p < 0,24). Il n'y avait pas non plus d'effet significatif de l'interaction entre l'âge et le traitement lorsque l'âge a été considéré comme une variable continue (pour tous les évènements, p > 0,09). De la même façon, l'analyse par régression logistique n'a pas montré de différence significative pour la survenue d'ECV majeurs entre les deux groupes d'âge (< 65 ans versus ≥ 65 ans ; p = 0,38).

La réduction de la PA apparaît donc bénéfique aussi bien pour les jeunes (< 65 ans) que les plus âgés (≥ 65 ans) et il n'y a pas de preuve formelle que la protection contre les évènements cardiovasculaires majeurs, obtenue par différentes classes d'antihypertenseurs, varie avec l'âge !

JIM

Régime et exercice peuvent repousser de 14 ans la survenue du diabète
Vendredi, 30/05/2008 - 00:00

L'adoption durant six années d'un régime adapté associé à de l'exercice peut contribuer à repousser de plusieurs années - jusqu'à 14 ans - la survenue d'un diabète, selon une étude chinoise publiée dans la revue médicale britannique The Lancet, datée de samedi.

L'étude du Pr Guangwei Li (Pékin) et de ses collègues a porté sur 577 adultes âgés de 25 à 70 ans et présentant une "intolérance au glucose", un signe avant-coureur de la forme la plus répandue du diabète dans le monde, le diabète de type 2. Les patients, recrutés en 1986 dans 33 cliniques chinoises ont été répartis en groupes selon qu'ils étaient soumis à un régime, à de l'exercice ou à un régime plus de l'exercice et ce sur 6 ans, jusqu'en 1996. Ceux qui étaient en surpoids ont été invités à maigrir. Le changement d'hygiène de vie combiné (régime + exercice) a réduit de moitié la fréquence de survenue de diabète durant la période d'intervention et de 43 % sur la totalité des vingt ans de suivi.

La proportion annuelle de nouveaux cas diagnostiqués était de 7 % en moyenne parmi les patients durant la période d'intervention visant à leur faire adopter une meilleure hygiène de vie contre 11 % dans un groupe témoin. Au terme de vingt années, 80 % des patients soumis à l'intervention avaient un diabète contre 95% dans le groupe servant à la comparaison.

L'intervention sanitaire pour modifier l'hygiène de vie de patients en état pré-diabétique peut prévenir ou repousser l'apparition du diabète d'un nombre d'années pouvant aller jusqu'à 14 ans, notent les auteurs.En revanche, l'étude n'a pas pu démontrer une diminution des infarctus ou des attaques cérébrales ni de la mortalité par maladies cardio-vasculaires, sans doute faute d'un nombre insuffisant de patients, soulignent les auteurs.

Le risque de diabète est "extrêmement élevé" dans la population de l'étude, relèvent des spécialistes finlandais dans un commentaire dans Lancet. Ils préconisent d'intervenir beaucoup plus tôt, avant tout signe de pré-diabète et de lutter contre l'hypertension cause d'attaques cérébrales beaucoup plus répandues chez les Chinois que chez les Européens.

Le diabète, qui progresse paralèllement à l'épidémie d'obésité, touche 246 millions d'adultes dans le monde, chiffre qui pourrait atteindre 380 millions d'ici 2025, selon un éditorial de Lancet. La moitié des décès des diabétiques sont liés aux maladies cardio-vasculaires."Le diabète représente environ 6% de la mortalité totale de la planète", ajoute Lancet.

AFP

Les particules de l'air ont un effet sur le risque de thrombose veineuse profonde
Vendredi, 30/05/2008 - 00:00

De précédents travaux ont montré que la pollution de l'air peut augmenter le risque d'accident vasculaire cérébral et cardiovasculaire. Une nouvelle étude parue dans les Archives of Internal Medicine indique qu'il existe aussi une relation entre le niveau des particules de l'air et le risque de thrombose veineuse profonde.

Cette association a été étudiée à partir des données de 1210 sujets témoins et de 870 patients italiens qui avaient été examinés pour thrombose veineuse profonde (TVP). La pollution de l'air était évaluée d'après la mesure des particules PM(10) sur 53 sites différents.

Les auteurs expliquent avoir observé une diminution du temps de Quick chez les patients TVP lorsque les concentrations en PM(10) étaient plus élevées l'année précédente. Plus précisément, chaque augmentation de 10 µg/m3 des concentrations de ces particules était associée à une augmentation de 70% du risque de TVP. L'association était plus forte chez les hommes que chez les femmes et n'était plus significative chez les femmes sous contraception par voie orale ou traitement hormonal.

« Etant donné l'ampleur des effets observés et la diffusion étendue des particules polluantes, nos résultats présentent un nouveau facteur de risque commun pour la thrombose veineuse profonde et ils donnent d'autre part un argument supplémentaire pour des standards plus contraignants et la poursuite des efforts pour réduire l'impact de la pollution aérienne urbaine sur la santé », écrivent les auteurs.

Caducee

Un pacemaker à l'essai dans la dépression et certaines maladies psychiatriques
Vendredi, 30/05/2008 - 00:00

Un pacemaker pour le cerveau ? Des patients atteints de dépression sévère, résistante à toute thérapeutique existante, ont été soulagés par la stimulation électrique profonde d'une région de leur cerveau, selon une étude américano-belge. "Tous les patients ne vont pas mieux, mais quand le traitement marche, il marche vraiment", a résumé le Dr Helen Mayberg, de l'Université Emory, qui a pratiqué cette technique sur 50 patients déprimés.

Les scientifiques connaissaient l'efficacité de l'électrostimulation sur les tremblements de la maladie de Parkinson et des maladies apparentées. Plus de 40.000 personnes en ont déjà bénéficié dans le monde. Mais une maladie psychiatrique est beaucoup plus compliquée et cette nouvelle technique n'en est encore qu'à ses débuts. Jusque-là, quelques dizaines de patients seulement, atteints de dépression sévère ou de troubles obsessionnels compulsifs, en ont bénéficié.

Les premiers résultats sont toutefois encourageants. Une vidéo spectaculaire montre une patiente s'éclairer quand les médecins branchent son pacemaker cérébral, et qui déclare étonnée : " je commence à sourire". Et de nouvelles études soulignent ce mois-ci que certains des patients les plus graves, ceux dont la dépression n'avait pu être soulagée ni par les médicaments, ni par la psychothérapie, ni même par les électrochocs, trouvent enfin le soulagement.

Selon l'étude américano-belge(Clinique Cleveland, Université Brown, et Université belge de Louvain), six des 17 patients sévèrement déprimés étaient en rémission un an après avoir reçu cette stimulation, quatre d'entre eux allaient nettement mieux, et plus de la moitié des personnes souffrant de troubles obsessionnels compulsifs montraient une nette amélioration trois ans après.

En psychiatrie, on a besoin de thérapeutiques innovantes. Près de 20 % des patients déprimés et 10 % de ceux qui souffrent de troubles obsessionnels compulsifs sont résistants au traitement, plusieurs millions rien qu'aux Etats-Unis.

Pour le Dr Wayne Goodman, de l'Institut national de santé mentale, la chirurgie aide parfois les cas les plus graves en détruisant des morceaux de tissu cérébral. Les électrodes sont placées au même endroit sans détruire le tissu, les signaux électriques pouvant être adaptés voire éteints. Mais la technique n'est pas au point pour une utilisation généralisée, prévient Wayne Goodman: Il s'inquiète du fait que des centres non formés se mettent à proposer ces implants chirurgicaux aux patients psychiatriques pour 25.000 euros (40.000 dollars), avant le feu vert scientifique. "C'est une technique expérimentale et invasive", met-il en garde, avec des risques hémorragiques et infectieux. Cette technique ne doit, selon lui, être qu'un dernier recours.

AP

Les vêtements du futur nous soigneront !
Vendredi, 30/05/2008 - 00:00

Un tee-shirt qui délivre en continu un anti-inflammatoire, pourquoi pas ? A en croire les participants au 1er Congrès de Cosmétotextile qui s'est tenu à Tours, certains vêtements demain seront... thérapeutiques. Les industriels sont particulièrement excités à l'idée de développer ce qu'ils appellent des « texticaments ». Les professionnels de la santé eux, sont plus circonspects. Risques d'effets indésirables obligent...« L'avenir de notre marché, c'est le texticament », souligne Yann Balguerie, Président de RBC Blondel, un poids lourd de la cosmétotextile en France. Il cite l'exemple « d'une coudière qui renfermerait à l'avenir un anti-inflammatoire pour le tennisman qui souffre d'un tennis-elbow. Nous allons y arriver progressivement ».

Les industriels sont en effet formels : les obstacles techniques devraient rapidement être levés, permettant de produire ces « textiles qui soigneront ». Restera ensuite à mettre en place des études cliniques dignes de ce nom pour convaincre les autorités sanitaires de l'innocuité de tel ou tel produit. Une toute autre histoire.

Dermatologue au CHU Trousseau de Tours, le Pr Loïc Vaillant observe ces développements industriels d'un oeil attentif. « Faute de réglementation (un premier label devrait toutefois voir le jour au cours des prochaines semaines, n.d.l.r.), un cosmétotextile peut actuellement être mis sur le marché sans que l'on en mesure vraiment les conséquences sanitaires », explique-t-il. « Les professionnels savent aujourd'hui déterminer si tel ou tel produit est efficace ou non. Mais l'enjeu est désormais de garantir son innocuité, sur la peau notamment ».

Dans ce contexte, la perspective du « texticament » peut susciter quelques inquiétudes. « Pour faire approuver ces produits, il faudra une réglementation très efficace » enchaîne le médecin. Et surtout la mise en place de protocoles cliniques qui sauront établir les risques, à long terme notamment.

DS

L'exercice protège du cancer du sein dès la puberté
Vendredi, 30/05/2008 - 00:00

Le risque peut même diminuer de plus de 50 % chez celles qui sont physiquement très actives (trois à quatre heures d'exercices vigoureux par semaine). Par contre, on était moins certain de l'effet protecteur de l'exercice dans le cas du cancer du sein qui survient avant la ménopause, un type de cancer souvent plus agressif et donc plus difficile à traiter.

Or, voilà qu'une étude d'envergure publiée dans The Journal of the National Cancer Institute nous apprend que l'exercice diminue aussi le risque de développer un cancer du sein avant la ménopause chez les femmes qui ont pris cette bonne habitude très tôt.

Menée auprès de 65 000 infirmières âgées de 24 à 42 ans, l'étude a démontré que celles qui ont été physiquement actives entre 12 et 25 ans diminuaient de 23% leur risque de développer ce type de cancer comparativement aux femmes qui ont été sédentaires pendant la même période.

Les auteurs de l'étude croient que l'exercice protège les jeunes femmes contre le cancer du sein parce qu'il agit comme un anti-oestrogène naturel. Précisons que les oestrogènes ne causent pas le cancer du sein, mais ces hormones stimulent la division des cellules ou mitoses dans le sein, notamment. En présence d'un îlot de cellules précancéreuses, plus il y a de mitoses, plus il y a un risque qu'un dérèglement malin survienne.

L'effet anti-oestrogène de l'exercice s'explique de deux façons. Premièrement, celui-ci aide à maintenir un poids santé en augmentant la dépense calorique hebdomadaire. Ce qui fait que les femmes physiquement actives ont des réserves de graisse moins importantes que les femmes sédentaires.

Or, ces réserves sont une source importante de production d'oestrogènes. Les cellules grasses peuvent en effet, sous l'action d'une enzyme, fabriquer de l'estradiol, la forme d'oestrogène la plus active dans la division cellulaire. Bref, si les réserves de graisse sont petites, il y a moins d'oestrogènes dans le sein.

Deuxièmement, l'exercice diminue la quantité d'oestrogènes produite par les ovaires, ce qui réduit le nombre de cycles menstruels que la femme aura dans sa vie. Ainsi, à l'âge de la puberté, l'exercice retarde d'environ deux ans le déclenchement des règles chez les jeunes filles physiquement très actives.

Les cas, assez fréquents, d'arrêt des menstruations ou de menstruations irrégulières chez les athlètes confirment d'une façon spectaculaire que l'exercice ralentit la production d'oestrogènes dans les ovaires. Par exemple, 42% des marathoniennes de haut niveau vivent un arrêt temporaire des menstruations contre seulement 2 % chez les joggeuses occasionnelles.En somme, il y a des facteurs de risque qu'on ne peut pas contrôler, par exemple une histoire familiale de cancer du sein. Mais il y en a d'autres qui dépendent de nous. Faire de l'exercice et conserver un poids santé compte parmi ceux-là.

CP

La consommation de frites et chips augmenterait le risque de cancer
Vendredi, 30/05/2008 - 00:00

Consommer trop de frites augmenterait le risque de souffrir un jour d'un cancer du rein, d'après une étude néerlandaise publiée dans la revue American Journal of Clinical Nutrition. Ces travaux confirment l'effet cancérigène de l'acrylamide, très présente dans les chips et les frites. Consommer trop de ces aliments pourrait entraîner une hausse de 60% du risque de cancer du rein.

L'acrylamide est une substance chimique qui se forme dans les aliments riches en hydrates de carbone et faibles en protéines, lors du traitement ou de la cuisson à température élevée. Son existence a été démontrée en 2002 par l'autorité nationale suédoise de l'alimentation, qui a également pointé du doigt son action cancérigène.Les travaux, menés auprès de 120.000 hommes et femmes de 50 à 69 ans, suivis durant 13 ans, démontrent le danger de l'acrylamide pour l'homme. Un peu plus de 40 microgrammes d'acrylamide par jour augmenterait de 59% le risque de cancer du rein.

CCM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top