RTFlash

RTFLASH Recherche & Technologie
NUMERO 461
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Janvier 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La vidéoconférence assiste les seniors
La RFID prend place dans les bibliothèques parisiennes
ActivAge souhaite favoriser l'utilisation de services interactifs par le biais d'un téléviseur
Vers la télépathie artificielle ?
L'oeil bionique est à portée de main
Avenir
Les assistants robotisés reconnaissent l'homme
Matière
Vers des piles à combustible sans platine ?
L'Illinois abritera le projet de Centrale propre Futuregen
Espace
Une fabrique d'antimatière au sein de la Voie lactée
Terre
Le réchauffement climatique se poursuit
Mobiles et capteurs géolocalisent la pollution atmosphérique
Vivant
Clonage d'embryons humains aux États-Unis
Transplantation : des chercheurs ont créé un coeur de rat en laboratoire
L'empreinte électrostaique de l'ADN permet de facilite son séquençage
Un maïs enrichi en vitamine A est mis au point sans recours à la transgenèse
Le soleil, nouvel allié contre le cancer
Les IEC amélioreraient le pronostic des AVC
Edito
L'idée du péage urbain s'impose peu à peu dans les métropoles européennes



Après Londres et Stockholm, le péage urbain pour les automobiles gagne irrésistiblement du terrain et vient de conquérir de grandes métropoles en Allemagne et en Italie. Chez nos voisins d'Outre-Rhin, les véhicules trop polluants sont interdits de circulation depuis le 1er janvier dans le centre-ville de trois grandes agglomérations allemandes, dont Berlin, une mesure qui doit être étendue courant 2008 à une vingtaine de villes du pays, dont Stuttgart et Munich. Le but de cette réforme, inédite en Allemagne, est de bannir des grandes villes, en commençant par Berlin, Cologne et Hanovre, les voitures émettant trop de particules fines. 1,7 million de véhicules, principalement des diesels anciens, seraient concernés.

Les autorités espèrent ainsi convaincre les propriétaires de véhicules anciens de les équiper de filtres à particules lorsque c'est possible. Concrètement, toutes les voitures ou camions voulant accéder aux zones concernées doivent arborer sur leur pare-brise une nouvelle vignette, de couleur verte, jaune ou rouge, suivant leur degré de "propreté". Les voitures considérées comme vraiment trop polluantes ne peuvent obtenir aucune de ces vignettes et sont donc de facto interdites d'accès. Les automobilistes qui circulent ou stationnent sans vignette dans les zones concernées s'exposent à une amende de 40 euros et à un retrait d'un point sur leur permis. A Berlin, les autorités ont toutefois annoncé qu'elles feraient preuve de clémence au moins jusqu'à fin janvier.

Cette réforme est "la tentative la plus sérieuse jusqu'à présent pour lutter contre la plus grave des sources de pollution de l'air, qui provoque 75.000 décès prématurés par an", s'est félicitée dans un communiqué l'ONG écologiste "Deutsche Umwelthilfe", en annonçant qu'elle déploierait ses propres équipes de contrôleurs pour sensibiliser la population.

En Italie, depuis le début de l'année, Milan a lancé une expérimentation de péage urbain pour un an. Dans cette ville, seuls les véhicules les moins polluants ont encore accès gratuitement au centre de Milan. Les autres doivent s'acquitter d'une redevance.

Cette mesure s'appuie sur les dernières normes européennes en matière de pollution : ceux qui les respectent continueront d'entrer librement, les autres devront s'acquitter - du lundi au vendredi de 7 h 30 à 19 h 30 - d'un ticket basé sur la pollution dégagée par leur véhicule.

Les véhicules ont été divisés en cinq catégories. Les deux premières, basées sur les normes Euro 3 et Euro 4 pour l'essence (correspondant aux véhicules mis en service après 2000 et après 2005), sont exonérées de péage. C'est le cas également des deux-roues, des transports en commun, des services publics, des transports de personnes handicapées ainsi que des véhicules électriques ou fonctionnant au GPL. Les trois autres classes, c'est-à-dire les automobiles immatriculées avant l'instauration de la norme Euro 3, ainsi que les poids lourds, devront payer.

Le tarif journalier varie de 2 à 10 euros, l'abonnement annuel de 50 à 250 euros. Le but déclaré du projet, cher à l'actuel maire de centre droit, Letizia Moratti, est de "décourager l'usage des voitures et d'encourager les transports en commun", afin de "réduire le niveau de pollution d'au moins 10 % et certaines maladies pulmonaires de 30 %".

L'objectif est qu'à terme, les Milanais laissent leur voiture à l'extérieur de l'enceinte historique pour gagner le centre-ville à pied, en métro ou en bus. Mais beaucoup de questions pratiques restent encore sans réponse. Les transports en commun pourront-ils répondre à la demande ?

Autre question : le nombre de places de stationnement étant nettement insuffisant à la périphérie de la ville, où tous ceux qui préfèreront les bus ou le métro au péage gareront-ils leur véhicule ?

Il reste qu'au-delà des imperfections et lacunes des expérimentations en cours, le péage urbain est en train de s'imposer comme une nécessité incontournable dans les grandes villes développées et cela pour au moins trois raisons. La première tient à la saturation de la circulation dans les centres-villes des grandes métropoles qui n'ont pas été conçues, du moins en Europe, pour la circulation automobile.

En quelques années, l'opinion publique a évolué et commence à admettre que les contraintes et nuisances de la circulation automobile dans les grandes villes l'emportent sur les facilités de déplacement. La deuxième raison, plus récente, concerne la prise de conscience très forte de la nécessité absolue de réduire les émissions de CO2 de nos voitures, qui participent de manière puissante au réchauffement climatique mais également de réduire la pollution atmosphérique dont les effets néfastes pour notre santé ont été gravement sous-estimées pendant des décennies.

Mais des études scientifiques très sérieuses ont montré récemment l'impact considérable de cette pollution automobile sur la santé. En 2004, un rapport de l'AFSE a notamment montré que les émissions de particules fines (moins de 2,5 microns de diamètre) pourrait être responsable d'environ 9500 décès en 2002 en France parmi les personnes de plus de 30 ans.

Encore faut-il souligner que ce chiffre ne concerne que les décès liés aux maladies cardio-pulmonaires et au cancer du poumon ! Selon cette étude, environ 10 % des quelque 10 000 décès annuels par cancer du poumon et 7 % sur près de 70 000 décès par maladies cardio-pulmonaires seraient attribués à ces particules fines qui résultent notamment de la forte diésélisation de notre parc automobile mais également du chauffage urbain et de la combustion de la biomasse.

Enfin, la troisième raison concerne la nécessité de trouver de nouvelles sources de financement permettant à la fois de développer des transports urbains plus performants et de réparer les dégâts environnementaux de la voiture en ville.

Or, si l'on ne veut pas faire payer davantage le contribuable, il faut bien demander à l'usager de contribuer au financement des nouvelles politiques urbaines. Mais ce qui est nouveau et rend plus acceptable et plus équitable le concept de péage urbain aux yeux de nos concitoyens, longtemps hostiles à cette idée, c'est la possibilité offerte par la technologie de moduler ce péage en fonction de nombreux critères : heures, quartiers, niveau de pollution du véhicule, nombre de passagers dans la voiture...

Bien sûr, la plupart des élus locaux restent réticents vis à vis de cette idée de péage urbain car celle-ci reste peu populaire politiquement et électoralement, même si elle ne suscite plus d'hostilité absolue. Pourtant, la multiplication des péages urbains dans les grandes villes européennes montre bien que cet outil de régulation et de gestion des déplacements est appelé à s'étendre et à se généraliser au cours de la prochaine décennie.

Il est cependant vrai que ces péages urbains seront d'autant mieux acceptés des usagers qu'ils seront intégrés dans des politiques volontaristes et audacieuses de transports urbains proposant des offres diversifiées et attractives de transports collectifs et osant une nouvelle densification de l'urbanisme.

La généralisation du péage urbain va permettre de dissocier, dans l'esprit de nos concitoyens, l'idée de possession d'un véhicule et la nécessité de se déplacer. Il va également enfin permettre une véritable gestion rationnelle et intelligente des flux automobiles en rendant nos déplacements à la fois plus faciles et moins coûteux pour la collectivité, en terme d'impact économique et écologique global.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La vidéoconférence assiste les seniors
Vendredi, 25/01/2008 - 00:00

Vieillissement de la population oblige, les systèmes de suivi des personnes à distance se généralisent. Dernière initiative en date, celle de Attentianet. La société européenne s'inspire des services traditionnels de téléassistance pour proposer un système intégré combinant télécommunications mobiles et vidéo. L'utilisateur porte avec lui un téléphone des plus basiques composé de deux uniques boutons. En cas de problème, il lui suffit d'appuyer sur l'un des deux afin d'être mis en relation avec un centre de téléassistance qui redirige le malade vers un praticien ou prévient les urgences en cas de problème grave.

Le principal intérêt est la possibilité d'échanger avec ces différentes personnes sur le mode de la vidéoconférence : le téléviseur de l'utilisateur et les écrans des spécialistes et salariés du centre d'appel étant équipés d'une webcam. La communication se fait sous protocole IP. Le système intègre également une fonction de géolocalisation basée sur AGPS - une version plus rapide du traditionnel GPS - en cas de déplacement de son propriétaire. Ce, afin de rester en contact permanent. En cas d'incident, le centre de télésurveillance peut ainsi le localiser rapidement depuis son écran. Enfin, le dispositif est accessible aux proches du senior, qui peuvent garder le contact avec lui par vidéo. Dans les prochains mois, des options de chat et de partage de contenu devraient être proposés.

Atlier

La RFID prend place dans les bibliothèques parisiennes
Vendredi, 25/01/2008 - 00:00

Les bibliothèques de la ville de Paris poursuivent leur modernisation en intégrant la technologie RFID pour le prêt de livres, de CD et de DVD. D'ici à cinq ans, les quarante-deux établissements municipaux utiliseront tous des étiquettes électroniques à radiofréquence pour identifier leurs documents. Les premiers déploiements techniques débutent actuellement. Un total de 3 millions de « tags » RFID mesurant 4 à 5 centimètres de côté, fournis par le groupe 3M, vont être collés sur la couverture intérieure des livres (voir photo) ou les pochettes de CD et DVD. L'objectif est, notamment, de gagner en rapidité sur la procédure de prêt aujourd'hui basée sur des code-barres.

Avec les RFID, il suffit de placer une pile de documents empruntés sur une « platine de lecture » pour que l'ensemble soit identifié. Les livres et pochettes CD n'ont pas à être ouverts et passés un par un devant un lecteur, comme avec le code-barre. Même chose pour le retour des documents. « Ce gain de temps doit permettre au personnel de la bibliothèque d'être plus disponible pour d'autres services, à commencer par le conseil », indique-t-on à la mairie de Paris. Autre avantage : faciliter les inventaires. Grâce à un lecteur portatif, le bibliothécaire n'a qu'à passer son équipement à quelques centimètres du livre pour qu'il soit répertorié dans l'inventaire. Il est possible avec ce système d'identifier 5 000 ouvrages en deux heures avec un seul lecteur.

ZDNet

ActivAge souhaite favoriser l'utilisation de services interactifs par le biais d'un téléviseur
Vendredi, 25/01/2008 - 00:00

La jeune start-up lyonnaise ActivAge, spécialisée dans la création de services interactifs à destination des seniors, vient de déposer un brevet européen pour une nouvelle interface permettant aux personnes âgées d'utiliser facilement des services interactifs sur leur téléviseur. Cette interface nommée NuLink (phonétiquement « new link ») donne l'illusion à la personne âgée de regarder une émission de télévision un peu particulière : en effet, un présentateur lui propose différentes activités et modifie le cours de l'émission en fonction des souhaits du « spectateur ». Pour interagir avec le présentateur, ce dernier dispose d'une télécommande très simplifiée qui présente une image semblable à celle de l'écran. La personne âgée comprend ainsi de façon intuitive comment répondre aux questions du présentateur et piloter les services interactifs proposés.

Cette nouvelle interface vise à permettre une utilisation intuitive de nombreux services interactifs (réception de messages envoyés par les proches, visionnage de photos, jeux stimulants...). « Un des aspects les plus remarquables de l'interface NuLink, remarquent les concepteurs de ce projet, est son absence de mode d'emploi : c'est en effet le présentateur qui explique directement à la personne âgée comment se servir de la télécommande lors des premières utilisations ».

« Cette prise en main immédiate et sans aide extérieure a été démontrée lors de tests en conditions réelles » précisent-ils encore. « Ceux-ci se sont déroulés au domicile de plusieurs seniors de la région lyonnaise, sous la supervision de psychologues participant à un programme de recherche ». ActivAge est actuellement en négociation de partenariats avec plusieurs sociétés industrielles afin d'intégrer son interface NuLink dans leurs futurs équipements destinés aux personnes âgées.

SA&

Vers la télépathie artificielle ?
Vendredi, 25/01/2008 - 00:00

Cela fait longtemps que le public et les médias assimilent, de manière très exagérée, l'imagerie cérébrale à une tentative de lecture dans les pensées. Mais cette fois, il semblerait qu'on ait fait un pas vers la réalisation de ce fantasme. Une équipe du Center for Cognitive Brain Imagine (Centre pour l'imagerie cognitive du cerveau), à l'université Carnegie Mellon, a en effet réussi à cartographier la représentation usuelle d'objets simples.

Les chercheurs ont montré à un groupe de cobayes une série de 10 dessins très simples représentant des outils ou des maisons, et on leur a demandé de penser à leurs caractéristiques. A noter que les scientifiques n'observaient pas le cortex visuel : c'est donc bien la pensée qu'ils cherchaient à capter, et non simplement la façon dont le cerveau perçoit une image.

En regardant l'activité du cerveau de leurs cobayes grâce à l'imagerie par résonance magnétique, les expérimentateurs purent deviner dans 78 % des cas le dessin qui était présenté au sujet, juste en regardant quelles zones étaient stimulées. Ils ont découvert par cette méthode que la représentation d'un objet dans le cerveau n'était pas localisée en un seul endroit, mais en plusieurs sites. Par exemple, lorsqu'on pense à un marteau, les zones moteur s'activent parce qu'on s'imagine en train de l'utiliser, tandis que d'autres aires du cerveau s'activent également, répondant à d'autres associations mentales.

Mais il y a plus important. Les chercheurs ont été capables de deviner les objets observés par un sujet en utilisant une machine entraînée à reconnaitre l'activité cérébrale des autres cobayes ! Autrement dit, les configurations neurales présentent une relative universalité. Nous pensons tous un peu de la même manière à un marteau ou une maison. La question qui se pose est de savoir si cette relative universalité de la pensée se limite aux objets simples ou si elle s'étend à des concepts plus sophistiqués. Toujours est-il que l'équipe de l'université Carnegie Mellon a décidé de passer de l'étude des objets usuels à celle des concepts abstraits, des mots et des phrases. Réponse dans quelques mois...

IA-

L'oeil bionique est à portée de main
Vendredi, 25/01/2008 - 00:00

Les circuits électroniques sont suffisamment petits pour être embarqués dans des systèmes d'habitude réservés à l'amélioration de la vue. Dans les lunettes, cela se voit déjà dans les laboratoires. Une nouvelle tentative vient de voir le jour, cette fois ci avec des lentilles de contact souples. Dans un premier prototype, l'université de Washington a donc intégré un circuit électrique ainsi que des diodes émettrices de lumière rouge. Dans le futur, les usages sont innombrables.

En premier lieu, les chercheurs pensent à des écrans virtuels pour afficher la vitesse de déplacement de sa voiture. Puis il serait possible d'utiliser les lentilles dans un but ludique (jeu) ou ludoéducatif (serious game). Avec ce système, l'immersion pourrait être totale ou mixer monde réel et monde virtuel. Enfin, tout utilisateur pourrait afficher des écrans d'ordinateurs pour travailler ou naviguer sur Internet en toute confidentialité. Les chercheurs aimeraient aller vers des fonctions comme le zoom numérique, tel qu'on peut le voir dans des films ou des séries d'anticipation. Sans oublier bien évidemment la correction des défauts de vision.

Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Les assistants robotisés reconnaissent l'homme
Vendredi, 25/01/2008 - 00:00

Un prototype d'assistant personnel robotisé pourrait être capable de surmonter les problèmes de sécurité qui freinaient jusqu'à présent le développement de ce type de machines. Celui-ci, baptisé du nom féminin de LISA (short life science assistant), dispose d'une peau artificielle composée de mousse, de textiles conducteurs et de capteurs capables de repérer la présence d'individus animés et d'amortir le choc en cas de contact accidentel. Mis au point par le Fraunhofer Institut, il embarque également une caméra reconnaissant les sources de chaleur. But de la manoeuvre : rendre les androïdes plus autonomes et compétents.

Destiné à accomplir les différentes besognes du quotidien, LISA est équipé d'un bras mécanique capable de s'emparer de plusieurs sortes de déchets. Il dispose également d'un système de navigation laser pour lui permettre de s'orienter et de contourner les obstacles. Selon l'équipe chargée de son développement, il sera capable de communiquer et de comprendre certains ordres. En outre, il ne fonctionnera pas seulement selon un programme défini. Ainsi, il devrait être possible de lui apprendre à effectuer des tâches simples. Mais également de rajouter des fonctions au fur et à mesure de leur développement.

Atelier

^ Haut
Matière
Matière et Energie
Vers des piles à combustible sans platine ?
Vendredi, 25/01/2008 - 00:00

Aujourd'hui, tous les dispositifs technologiques développés pour produire ou utiliser de l'hydrogène renferment des métaux nobles tels que le platine, métaux qui sont à la fois rares et coûteux. Or, cette rareté et ce coût élevé représentent de véritables freins au développement économique de la filière hydrogène sur le long terme, même si les chercheurs sont parvenus à réduire considérablement les quantités de ces métaux utilisées dans les électrolyseurs et les piles. D'où les recherches menées dans de nombreux laboratoires dans le monde afin de ne plus avoir recours au platine. La solution ? Elaborer des catalyseurs à base de métaux plus abondants sur la planète et moins coûteux, du type de ceux utilisés par les organismes naturels (fer, nickel, cobalt, manganèse).

Ainsi, pour la première fois, des chercheurs du Laboratoire de chimie et biologie des métaux (CEA/CNRS/Université Joseph Fourier) sont parvenus à produire de l'hydrogène à l'aide d'un ensemble moléculaire sans pour autant recourir à un catalyseur à base de métal noble. Utilisant un catalyseur à base de cobalt, ce système supramoléculaire assure à la fois la fonction de photosensibilisateur et de catalyseur. Sous l'effet de la lumière, les électrons fournis par une molécule organique sont utilisés pour libérer l'hydrogène de l'eau au niveau du cobalt, avec une efficacité supérieure aux systèmes comparables renfermant des catalyseurs à base de métaux nobles. Précisons néanmoins que la fonction de photosensibilisateur reste assurée par l'utilisation du ruthénium. Aussi une prochaine étape de ces recherches visera-t-elle à s'en affranchir.

BE

Fabriquer des biocarburants avec du gaz carbonique
Vendredi, 25/01/2008 - 00:00

Plutôt que de dévaster les forêts en plantant des champs de blé ou de palmiers à huile destinés à la production de biocarburants, fabriquons bioéthanol ou biodiesel en recyclant le gaz carbonique de l'air. Voilà une excellente idée, qu'a eue Rich Diver, un scientifique américain des laboratoires Sandia, alors qu'il travaillait sur un engin produisant de l'hydrogène à l'aide de l'énergie solaire.

Avec Jim E. Miller et Nathan Siegel, Rich Diver a mis au point une machine baptisée Counter Rotating Ring Receiver Reactor Recuperator (à peu près intraduisible), et que l'équipe préfère appeler CR5. Elle fonctionne couplée à un four solaire, vaste structure de miroirs concentrant les rayons du Soleil pour transformer directement leur énergie en chaleur, comme dans le projet français Themis. Le CR5 peut alors servir à effectuer la thermolyse de l'eau, c'est-à-dire sa décomposition en oxygène et en hydrogène, lequel est utilisable ensuite dans un moteur.

Il explique avoir réalisé pendant sa conception que son appareil pouvait aussi réduire (au sens chimique du terme) le dioxyde de carbone (CO2) en monoxyde de carbone (CO). Chimiquement très actif, celui-ci peut ensuite être facilement recombiné en de multiples molécules, comme le méthanol ou des chaînes carbonées, pouvant faire office de biocarburants. Brûlés dans les moteurs classiques, ces composés redonneront du dioxyde de carbone, et le cycle recommencera.

Pour l'instant, le CR5 n'est pas encore fonctionnel, mais Rich Diver promet un prototype pour le début de l'année prochaine. Il utilisera le four solaire de Sandia, (NSTTF) et sera d'abord testé sur la thermolyse de l'eau. Les expériences sur le dioxyde de carbone seront lancées ensuite, pour synthétiser du méthanol. Mais il faudra, explique le chercheur, patienter au moins entre 15 et 20 ans pour disposer d'un équipement commercialisable. On disposerait alors d'un principe assez élégant pour recycler le dioxyde de carbone atmosphérique produit par l'industrie humaine.

FS

L'Illinois abritera le projet de Centrale propre Futuregen
Vendredi, 25/01/2008 - 00:00

L'Illinois et le Texas étaient les deux derniers Etats en course pour le projet Clean Coal Power Plant : la construction d'une centrale électrique à charbon qui n'émettrait pas de CO2. Le departement of energy a annoncé que Mattoon, une ville de l'est de l'Illinois a été choisie pour être le futur site de ce projet.

Cette ville a été choisie entre une autre ville de l'Illinois et deux autres aux Texas. Ceci pour plusieurs raisons, incluant les aspects géologiques et les ressources en eau. La future centrale électrique à charbon n'émettra donc pas de CO2. En effet, le CO2 produit sera liquéfié et injecté à des milliers de mètres sous terre (en principe sous des couches géologiques imperméables). Cette centrale devrait ouvrir ses portes en 2012 et pourra produire assez d'énergie pour couvrir les besoins de 150.000 foyers.

BE

^ Haut
Espace
Espace et Cosmologie
Une fabrique d'antimatière au sein de la Voie lactée
Vendredi, 25/01/2008 - 00:00

Forme « miroir » de la matière, l'antimatière constitue avec la matière un couple étrange : mises en présence, particule et antiparticule s'annihilent mutuellement en énergie. En 2005, les astrophysiciens avaient établi, grâce au spectrographe SPI, embarqué à bord du satellite Integral, une première carte de la répartition de l'antimatière dans la Galaxie : l'antimatière y était essentiellement concentrée autour du centre galactique avec une composante plus ténue répartie le long de son disque équatorial. Dans ces premières données, le nuage d'antimatière semblait très symétrique, suggérant qu'il pouvait provenir de la désintégration de particules exotiques de matière noire dans le halo central symétrique de la Galaxie.

En cumulant maintenant toutes les observations obtenues ces quatre dernières années par SPI, les scientifiques ont pu affiner la cartographie de ce nuage et constater que l'antimatière se distribuait de façon asymétrique de part et d'autre du centre galactique. L'émission d'antimatière du disque galactique apparaît deux fois plus importante d'un côté du centre galactique que de l'autre. Cette répartition surprenante semble confirmer une autre piste explorée pour expliquer l'origine de l'antimatière présente dans la Galaxie. Elle apparaît très proche en effet de la répartition d'un certain type d'objets appelés sources X binaires de faible masse. Les sources X binaires sont des couples formés d'une étoile orbitant autour d'un objet compact tel qu'une étoile à neutrons ou un trou noir. Leur rayonnement X provient de l'énorme quantité d'énergie dégagée par la chute de la matière de l'étoile sur l'astre compact.

Les sources X binaires sont donc une piste pour expliquer une partie de l'origine de l'antimatière dans les régions internes du disque de la Galaxie. Si ce scénario permet d'expliquer la moitié de la quantité considérable d'antimatière produite au centre de la Voie lactée, des sources astrophysiques classiques comme des supernovae thermonucléaires ou le trou noir central super massif pourraient expliquer l'origine de la quantité restante. La place pour un scénario exotique invoquant une particule de matière noire se réduit donc fortement...

CEA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement climatique se poursuit
Vendredi, 25/01/2008 - 00:00

Les bouleversements climatiques vont continuer à pousser les températures à la hausse à travers le monde, même si l'année la plus chaude reste 1998 et si 2008 a commencé par un temps inhabituellement frais, avec un océan Pacifique plus froid que d'ordinaire et des chutes de neige à Bagdad, du jamais vu. "Le réchauffement planétaire ne s'est pas interrompu", a expliqué Amir Delju, haut responsable à l'Organisation météorologique mondiale (OMM). L'année dernière a compté parmi les six années les plus chaudes depuis l'établissement des premiers relevés, autour de 1850, et le Met Office britannique a prédit la semaine dernière que 2008 serait l'année la moins chaude depuis l'an 2000, en partie du fait du phénomène La Nina, qui abaisse les températures des eaux de surface du Pacifique.

"Nous sommes dans une petite période de Nina, qui se traduit par un léger rafraichissement de l'océan Pacifique", a indiqué Amir Delju à Reuters. "La décennie qui va de 1998 à 2007 est la plus chaude jamais enregistrée, et la tendance globale se poursuit". Cette année a commencé par des phénomènes météorologiques inhabituels. Une vague de froid, à la période du Nouvel an, en Inde, a fait plus de 20 morts. Aux Etats-Unis, il a gelé jusqu'en Floride et la capitale irakienne, Bagdad, a connu ses premières neiges de mémoire d'homme. Les Irakiens ont voulu voir dans cette neige un signe de paix. "C'est la première fois que nous voyons de la neige à Bagdad", a assuré un homme de 60 ans.

L'an dernier, à la même époque, un hiver d'une douceur record s'était installé sur plusieurs parties de l'hémisphère nord et certaines stations de ski des Alpes manquaient de neige. Selon Amir Delju, "la fréquence plus grande d'événements météorologiques extrêmes dans le monde entier -inondations en Australie, fortes chutes de neige au Moyen-Orient- peut aussi être le signe du réchauffement". Le GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat) a déclaré l'an dernier qu'il n'y avait "aucune équivoque" sur le réchauffement du climat de la planète.

Les températures moyennes ont augmenté de 0,74° Celsius au cours du XXe siècle et il se pourrait fort qu'elles augmentent de 1,8°C à 4°C d'ici 2100. Soulignant la hausse sous-jacente des températures, le prévisionniste britannique Phil Jones a déclaré récemment que la période 2001-2007, d'une température moyenne de 0,44° supérieure à la période 1961-1990, était aussi de 0,21° plus chaude que la décennie 1991-2000, ce qui traduit une accélération du rythme du réchauffement mondial. (avec Reuters)

Challenges

Mobiles et capteurs géolocalisent la pollution atmosphérique
Vendredi, 25/01/2008 - 00:00

Les téléphones portables contrôlent la pureté de l'air à hauteur d'homme. A Cambridge, des coursiers en vélo embarquent avec eux des capteurs capables d'enregistrer plusieurs données sur la qualité de l'atmosphère comme le taux de monoxyde de carbone. Des informations qui sont ensuite remises dans leur contexte géographique grâce à un système GPS intégré au mobile de l'employé puis envoyées au laboratoire de recherche de Cambridge logiciel lui aussi téléchargé dans le combiné. Ce, en se connectant à Internet par Bluetooth. "Les téléphones portables nous fournissent une alternative aux coûteux matériels habituellement utilisés", explique Eiman Kanjo, spécialiste en informatique scientifique.

"Ils permettent également de surveiller des endroits qui ne l'étaient pas auparavant", ajoute-t-il. En effet, sans modifier leur parcours habituel, les coursiers permettent aux scientifiques de couvrir un nombre important de quartiers. Installés au départ dans l'espace de stockage attenant au vélo, les capteurs, désormais de la taille d'une petite télécommande, peuvent être fixés à une veste ou à un sac. Laissant présager de possibles nouveaux usages auprès de piétons. Mais le système, développé au niveau industriel en partenariat avec le constructeur Nokia, manque encore de précision pour une telle utilisation.

Une fois cet obstacle d'exactitude dépassé, le système pourrait ainsi permettre de suivre les personnes souffrant d'asthme afin d'obtenir des données précises sur les possibles liens entre facteurs atmosphériques et crise. En effet, si l'idée est souvent évoquée, il reste difficile de la prouver, estime Eiman Kanjo. Ce, faute de pouvoir comparer avec exactitude des symptômes avec la présence dans l'air de polluants. Une difficulté que le dispositif pourrait surmonter, en combinant au système de capteurs et de GPS une technique de mesure des fonctions du poumon du volontaire.

Atlier

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Clonage d'embryons humains aux États-Unis
Vendredi, 25/01/2008 - 00:00

Stemagen Corporation et le Reproductive Sciences Center, deux compagnies basées à La Jolla en Californie, ont annoncé avoir créé des embryons, pour la première fois, à partir de cellules de peau d'adultes. Stemagen espère avec cette technique obtenir des cellules souches embryonnaires humaines en lignée continue. Stemagen a obtenu de trois jeunes femmes donneuses (20 ans à 24 ans) un total de 29 ovocytes.

Ces oeufs sans projet parental ont été donnés aux chercheurs sans contrepartie financière, comme le réclament les lois américaines sur la protection des individus dans la recherche et les recommandations de l'Académie des sciences pour la recherche sur les cellules souches embryonnaires humaines. Les ovocytes en question, capturés mûrs par aspiration transvaginale, ont aussitôt été énucléés. Leur noyau contenant la totalité des chromosomes a été détruit soit par extrusion, soit par aspiration.

La seconde étape de cette technique classique de transfert nucléaire somatique a consisté, sur des cellules de peau humaine adulte mâle, à prélever l'ADN nucléaire. Celui-ci a alors été transféré dans les ovocytes débarrassés de leur propre noyau. Cette technique est utilisée dans le monde entier pour la production de clones animaux.

Résultat : sur les 29 oeufs de départ, les chercheurs ont obtenu cinq blastocystes clonés, c'est-à-dire des embryons primitifs constitués d'un amas de 64 cellules. Les tentatives de clonage d'embryons humains de la firme Advanced Cell Therapeutics et celles de l'équipe du sulfureux chercheur coréen Hwang Woo-suk, en 2004 et 2005, n'avaient pas abouti. Ce dernier avait même annoncé (c'était un mensonge) avoir cloné des embryons humains et produit des lignées continues de cellules souches à partir de ces embryons.

En mai 2005, Miodrag Stojkovic et son groupe de la Newcastle University (Royaume-Uni) avaient rapporté que trois embryons clonés par ses soins étaient parvenus au stade blastocyste, sans pouvoir produire de telles lignées cellulaires. Mais ils avaient obtenu ces clones à partir de cellules prélevées sur des embryons humains non implantés lors de tentatives de fertilisation in vitro (FIV). Le caractère cloné de trois des cinq embryons créés a été confirmé. Ces blastocystes clonés ont été détruits avant de se développer à un stade plus avancé.

Genengnews

Transplantation : des chercheurs ont créé un coeur de rat en laboratoire
Vendredi, 25/01/2008 - 00:00

Des chercheurs ont réussi à créer en laboratoire un coeur battant de rat, à partir d'un organe d'un animal mort et de cellules cardiaques néonatales de rat, ouvrant la voie à de possibles avancées dans le domaine de la transplantation, selon une étude publiée dans Nature Medicine. Actuellement, 3.000 patients sont en attente d'une transplantation cardiaque aux Etats-Unis et 22 millions de personnes à travers le monde vivent avec une insuffisance cardiaque. "L'idée serait de développer des vaisseaux sanguins ou des organes transplantables et fabriqués à partir des propres cellules d'un individu", explique Doris Taylor (Université du Minnesota, Minneapolis, Etats-Unis), une des responsables de ces travaux.

Cette perspective pourrait apporter un élément de réponse au problème crucial de la pénurie d'organes, expliquent les chercheurs. S'il était mis au point chez l'homme, le "coeur bioartificiel" pourrait augmenter le nombre de coeurs disponibles pour une transplantation en allongeant la durée d'utilisation de l'organe après le décès du donneur (aujourd'hui de 4 heures au maximum). Les travaux des chercheurs de l'Université du Minnesota ont pour le moment porté sur des rats et des cochons.

Ils ont réussi à obtenir, en laboratoire (pas chez un animal vivant) un coeur battant de rat, en utilisant le coeur d'un animal mort comme "structure". Pour ce faire, ils ont éliminé la totalité des cellules de cet organe, grâce au procédé dit de "décellularisation", ne laissant que "la matrice extracellulaire", l'échafaudage sur lequel reposent les cellules. Ils ont ensuite injecté dans cette matrice des "cellules progénitrices" issues de coeurs de rats nouveaux-nés et ont placé cette structure dans une préparation stérile.

Quatre jours après, des contractions étaient observées et huit jours après, le coeur avait une fonction de pompe équivalant à environ 2 % de la fonction d'un coeur adulte. Des résultats prometteurs, selon les chercheurs, pour une expérience de faisabilité du principe et qui doivent maintenant être améliorés. "Quand nous avons vu les premières contractions, nous sommes restés sans voix", a commenté Harald C. Ott. "C'est un des deux grands moments de ma vie, a confié à l'AFP Doris Taylor.

Le premier était en 1997 quand j'ai vu des cellules se développer dans un coeur de lapin après un infarctus". Les chercheurs veulent maintenant optimiser leurs travaux, avec l'objectif de transplanter ces coeurs bioartificiels afin d'explorer leur fonctionnalité "in vivo". Ils ont bon espoir que cette avancée pourra avoir des développements dans la chirurgie de transplantation, pour le coeur, mais aussi d'autres organes. Un coeur bioartificiel créé à partir des cellules du receveur devrait avoir moins de risques de rejet. Une fois en place, il devrait, en théorie, être nourri, régulé et régénéré de la même façon que l'organe d'origine.

NM

L'empreinte électrostaique de l'ADN permet de facilite son séquençage
Vendredi, 25/01/2008 - 00:00

Des chercheurs de l'Université de l'Illinois ont découvert une nouvelle stratégie de séquençage de l'ADN qui pourrait à la fois réduire considérablement les coûts de la technique mais aussi la rendre beaucoup plus rapide. Cette technique consiste en l'utilisation de puces semi-conductrices sur lesquelles sont déposés des condensateurs nanoporiques. Ces condensateurs se composent de deux couches de silicium conductrices, séparées par une couche isolante de dioxyde de silicium. De nombreuses autres techniques utilisaient jusqu'alors ce système mais aucune n'avait encore réussi à expliquer en détail comment les nanopores pouvaient lire une séquence d'ADN.

C'est grace à la modélisation informatique et à l'étude de la dynamique moléculaire que l'équipe a démontré que le mouvement de va et vient d'une molécule d'ADN au travers d'un condensateur nanoporique produit une empreinte électrostatique spécifique (potentiel propre) qui permet de déterminer la séquence d'enchaînement des bases azotées du brin d'ADN étudiée. La prochaine étape de cette découverte consistera à minimiser le bruit et à réduire la vitesse de passage des molécules d'ADN au travers du condensateur. Etre capable de séquencer le génome de chaque individu pourrait alors ouvrir de nouvelles possibilités dans le domaine de la médecine personnalisée. En effet, il serait possible d'obtenir des traitements "sur-mesure" pour chaque patient.

BE

Un maïs enrichi en vitamine A est mis au point sans recours à la transgenèse
Vendredi, 25/01/2008 - 00:00

La biotechnologie agricole ne se résume pas à la transgenèse. Dans celle-ci, on transfère d'une espèce à une autre un gène permettant d'améliorer un de ses caractères, formant ainsi un organisme génétiquement modifié (OGM). Mais il existe d'autres voies d'amélioration végétale : c'est ce qu'illustre une importante étude paraissant dans la revue Science du vendredi 18 janvier, qui expose une méthode de sélection d'un maïs présentant une proportion importante de provitamines A, des molécules capables de se transformer en vitamine A une fois ingérées. Une culture à grande échelle de ce maïs permettrait de lutter contre une maladie qui sévit dans les pays les plus pauvres : la xérophthalmie, cécité progressive favorisée par le manque dans l'organisme de vitamine A, qui affecterait 17 % à 30 % des enfants de moins de 5 ans en Afrique subsaharienne.

Le travail mené par Carlos Harjes, un généticien de l'université Cornell (Etats-Unis) basé aujourd'hui chez Monsanto, a consisté à appliquer une méthode qui se répand de plus en plus en recherche agronomique, la génétique d'association, promue par Edward Buckler, autre signataire de l'article. Le but est de trouver, au sein d'une espèce, les gènes codant des caractères intéressants, que l'on pourra ensuite transférer, par croisements classiques, à d'autres variétés de la même espèce.

Dans le cas étudié, il s'agissait donc de trouver les gènes codant pour les précurseurs de la vitamine A, dont le plus efficient est le bêta carotène. Certaines lignées de maïs présentent un taux élevé de bêta carotène (66 microgrammes par gramme de graine), mais la majorité des variétés consommées dans le monde ont un taux beaucoup plus faible, de 0,5 à 1,5 microgramme.

Comment expliquer cette variation de production de provitamine A ? Par le polymorphisme des gènes impliqués, c'est-à-dire par les variations mineures de la séquence d'ADN qui les compose. L'objectif premier des chercheurs a donc été d'identifier les formes particulières des gènes commandant une forte production de bêta carotène. Ils l'ont fait au moyen d'une série de tests génétiques et statistiques sur 288 lignées de la céréale.

Au total, la zone précise du gène impliquée et les formes responsables ont été identifiées. Grâce à cette information, les chercheurs ont développé des outils d'identification (ou marqueurs) des formes du gène associées à une meilleure composition en provitamine A. Ces marqueurs vont permettre de rechercher facilement, dans l'ensemble des collections de maïs, les plantes qui présentent une forme favorable du gène et de transférer ensuite ces gènes par croisements classiques dans les variétés cultivées.

"C'est une belle étude, commente Laurence Moreau, généticienne à l'Institut national de recherche agronomique (INRA). Elle démontre l'intérêt de la génétique d'association pour identifier des gènes d'intérêt au sein d'une espèce et définir des marqueurs facilitant leur utilisation en sélection." L'équipe rend disponibles les informations génétiques afin de permettre aux sélectionneurs de tous les pays de produire facilement et rapidement par "sélection assistée par marqueurs" des maïs ayant un fort contenu en vitamine A.

La méthode présentée dans cet article vient donc rivaliser avec le "riz doré", mis au point par le chercheur suisse Igo Potrikus, qui vise aussi à augmenter la teneur en vitamine A de la céréale, mais au moyen de la transgenèse. M. Potrikus a indiqué, en décembre 2007, dans un entretien avec le site Internet gm-compas.org, que des tests du riz doré seront conduits en 2008.

LM

Le soleil, nouvel allié contre le cancer
Vendredi, 25/01/2008 - 00:00

Une étude publiée aux Etats-Unis affirme que le profit pour la santé d'une exposition modérée au soleil de personnes déficientes en vitamine D serait supérieur au risque de cancer de la peau induit par cette exposition. La peau est la plus grande source de vitamine D, qu'elle produit en réaction aux rayons ultraviolets. Or, selon les auteurs de cette recherche parue dans les Annales de l'Académie nationale américaine des sciences, des sujets vivant sur des latitudes du globe plus ensoleillées et qui ont, de ce fait, des niveaux plus élevés de vitamine D dans leur sang ont des risques beaucoup plus faibles de décéder d'un cancer interne que ceux résidant plus au nord.

Ces scientifiques ont en effet établi une corrélation entre les teneurs sanguines de vitamine D, calculées en fonction de l'exposition au soleil, et des taux de survie des victimes de cancer. Ils ont ainsi découvert que par exemple les Australiens, très exposés au soleil, produisaient 3,4 fois plus de vitamine D que les Britanniques et près de cinq fois plus que les Scandinaves.

Ces chercheurs ont également constaté que l'incidence des cancers du colon, du sein et de la prostate augmentait en allant du nord vers le sud, mais que les taux de survie étaient plus élevés au sud que dans le nord. "Des travaux précédents avaient montré que le taux de survie pour des cancers de la prostate, du sein et du poumon augmentaient quand le diagnostic coïncidait avec la saison la plus ensoleillée, indiquant le rôle positif de la vitamine D...", relève un des co-auteurs de cette étude, le Dr Richard Setlow, biophysicien du Laboratoire national de Brookhaven, à New York. "Ces dernières données apportent des indications supplémentaires du rôle bénéfique de la vitamine D produite par l'exposition au soleil dans le pronostic du cancer".

Il ne s'agit pas de la seule recherche à mettre en avant les effets protecteurs contre le cancer de la vitamine D. Une étude parue dans Circulation, le journal de l'American Heart Association, montre également qu'une carence en vitamine D pourrait fortement accroître les risques de maladies cardiovasculaires.

PNAS

Les IEC amélioreraient le pronostic des AVC
Vendredi, 25/01/2008 - 00:00

La place des antihypertenseurs dans la prévention primaire et secondaire des accidents vasculaires cérébraux (AVC) n'est plus discutée. Par contre, il existe des incertitudes sur la classe médicamenteuse à privilégier dans ce contexte. Les inhibiteurs de l'enzyme de conversion de l'angiotensine possèdent des propriétés originales démontrées chez l'animal et suspectées chez l'humain à la suite d'études comme HOPE. Ils semblent avoir un effet bénéfique sur l'endothélium et des propriétés anti-athérosclérose. Cependant, d'autres études ont montré que les antihypertenseurs qui augmentent l'angiotensine II pouvaient avoir un effet neuroprotecteur.

Une étude publiée dans Neurology apporte des arguments en faveur de la première hypothèse en montrant une diminution de la gravité des AVC chez les patients traités par IECA. Tous les sujets de la région de Melbourne ayant fait un premier AVC entre mai 1997 et avril 1999 ont été inclus dans cette étude. Les facteurs de risque, les médicaments utilisés, le score de gravité NIHSS à l'inclusion et 7 jours après ont été évalués chez 716 patients. Trente-cinq pour cent d'entre eux étaient sous IECA, 31,1 % sous diurétiques et 7 % sous statines. Un AVC était considéré comme sévère si le score NIHSS était supérieur à 8.

Les patients qui étaient sous ICEA au moment de l'AVC avaient un risque réduit d'AVC sévère (odds ratio OR] 0,56 ; IC95 % 0,35 à 0,91) et de décès dans les 28 jours (OR 0,46 ; IC 0,24 à 0,87). Les principaux facteurs de sévérité de l'AVC étaient l'âge, la présence d'une fibrillation auriculaire ou d'une insuffisance cardiaque et un traitement par diurétiques. Ces mêmes facteurs étaient associés à une augmentation de la mortalité à 28 jours alors que le traitement anticoagulant avait un effet protecteur. Cette étude est certes rétrospective mais la taille de l'échantillon permet d'éliminer un certain nombre de facteurs confondants.

[JIM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top