RTFlash

RTFLASH Recherche & Technologie
NUMERO 487
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Septembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La SNCF prépare le billet de transport sur clé USB
Le téléphone portable deviendra souris
Avenir
Un fauteuil roulant commandé avec la langue !
Matière
Record mondial de rendement électrique pour un système de concentration solaire par luminescence
La recharge électrique sans fil progresse
Une nouvelle technique révèle la signature chimique des empreintes digitales
Les Etats-Unis misent gros sur la cyber-physique
Terre
Une étude britannique envisage un réchauffement global de la planète de 4°C
Confirmation du lien entre réchauffement et très fortes précipitations
L'activité humaine menace d'asphyxie les eaux côtières
Des pavés purifiant l'air testés aux Pays-Bas
Vivant
Traitement du cancer grâce à des nanotubes de carbone
Un nouvel antibiotique produit à partir d'asticots
Les bienfaits cardiovasculaires du soja, du thé vert, du chocolat et du poisson confirmés
Une avancée majeure dans le traitement de la surdité
Des neurones qui reforment leur réseau
Edito
Evolution des espèces : Gould avait-il raison ?



Charles Darwin pensait que le processus de sélection naturelle, moteur de l'évolution des espèces, conduisait graduellement à créer de nouvelles espèces. Malheureusement, l'examen des couches stratigraphiques ne présente pas les étapes intermédiaires de la spéciation. Darwin expliquait cette absence par des lacunes géologiques. Darwin avait montré plusieurs exemples d'évolution où des caractéristiques anatomiques s'étaient progressivement transformées pour donner naissance à de nouvelles espèces. Cette conception « gradualiste », soutient que les nouvelles espèces surviennent par transformation graduelle des espèces ancestrales. Ces transformations lentes et régulières impliqueraient l'ensemble de la population sur la totalité de son territoire.

Darwin n'a cependant jamais exclu la possibilité que d'autres transformations aient pu se faire selon un autre mécanisme. C'est précisément cette nouvelle perspective conceptuelle qui fut proposée en 1972 par Steven Jay Gould (disparu en 2002) et Nils Eldredge. Pour ces deux grands scientifiques américains, l'évolution procéderait de manière non continue avec de longues périodes de stagnation entrecoupées par de brusques et courtes périodes de transformation rapide menant à la formation de nouvelles espèces.

Cette théorie des « équilibres ponctués » pourrait ainsi rendre compte de plusieurs observations paléontologiques. Par exemple, celle de ces espèces fossiles qui varient très peu morphologiquement au cours de leur existence qui a pourtant duré plusieurs millions d'années. Ensuite, l'observation qui lui est souvent associée : celle d'une nouvelle espèce bien différenciée qui la supplantait subitement (en quelques dizaines de milliers d'années). Et surtout, l'absence de formes intermédiaires entre les deux. Cette absence peut alors s'expliquer par le faible effectif des populations intermédiaires qui n'ont pas eu le temps de laisser de traces fossiles considérant les conditions très rares que nécessite la fossilisation.

Plusieurs espèces semblent ainsi avoir évolué selon la dynamique des équilibres ponctués. Un débat important subsiste toutefois dans la communauté scientifique en ce qui concerne l'importance relative du gradualisme (dont on a aussi des exemples convaincants) et des équilibres ponctués.

Darwin considère que l'agent sur lequel agit la sélection naturelle est l'individu. Cette sélection naturelle agit très progressivement et, sur les temps géologiques, modifie peu à peu la population jusqu'à faire naître une nouvelle espèce. Ce processus lent et continu est la microévolution qui s'effectue de manière graduée dans le temps. Mais Gould, sans remettre en cause sur le principe la sélection naturelle et l'évolution des espèces, est venu profondément modifier et enrichir ce scénario darwinien en posant l'hypothèse de l'évolution par équilibre ponctué. Selon cette théorie, l'espèce se comporte comme un individu darwinien qui sera soumis à tous les éléments de la sélection naturelle, pourra supplanter d'autres espèces, en donner de nouvelles et disparaître à son tour.

Pour Gould, la sélection naturelle ne peut pas, à elle seule, déterminer toutes les formes prises par les espèces dans le processus de l'évolution. Elle agit en synergie avec deux autre facteurs majeurs : les gènes architectes (dits " gènes homéotiques "), qui canalisent le développement des organismes selon les mêmes grandes lignes dans la plupart des embranchements et la capacité de changement au cours du temps de la fonction adaptative. Gould a magistralement forgé et étayé un concept d'une grande richesse qui veut rendre compte de l'extrême diversité et complexité du vivant : la macroévolution.

Selon ce concept de macroévolution, les espèces forment, à côté des individus, des entités qui obéissent, à leur niveau d'organisation, à des processus propres de sélection, de dérive aléatoire ou de changement directionnel. Cette macroévolution spécifique se traduit par l'apparition, au niveau des espèces, de " propriétés émergentes " qui ne se réduisent pas à celles des organismes qui les constituent.

Ce concept de macroévolution vient d'être confirmé de manière éclatant par l'observation scientifique de l'évolution récente d'une espèce de lézards, Podacis Sicula, dont cinq couples ont été déposés en 1970 sur une petite île de l'Adriatique. Il s'agissait de voir comment cette espèce allait se comporter et s'adapter par rapport à l'espèce de lézards déjà présents sur cette île.

Des observations effectuées récemment ont montré, de manière très étonnante, que l'espèce transplantée comptait à présent plus d'un millier d'individus et qu'elle était devenue majoritairement végétarienne alors qu'elle était insectivore sur son île d'origine. Mais le plus étonnant est que, pour permettre cette mutation rapide vers un régime essentiellement végétarien, ces lézards ont développé, en quelques années, un nouvel organe de digestion leur permettant de dégrader et d'assimiler leurs nouveaux aliments.

L'intuition géniale de Gould et sa théorie de l'équilibre ponctuel se trouvent donc pleinement vérifiées. Mais comme dans la nature rien n'est simple, cela ne veut pas dire que toute l'évolution des espèces est gouvernée par le "ponctualisme" et fonctionne par "sauts", suivis de longue période de stagnation. Ce que Gould a montré de manière remarquable, élargissant, enrichissant et complexifiant la vision de Darwin, c'est que, dans certaines circonstances, sous l'effet de certaines pressions du milieu, une espèce avait, en tant que telle, la capacité d'évoluer très rapidement pour survivre et s'adapter à son nouvel environnement.

En fait, l'évolution des espèces semble se faire simultanément au niveau des individus et des espèces et à la fois de manière graduée et ponctuée, selon les périodes les espèces et les contraintes de l'environnement. En outre, l'évolution des espèces n'est pas obligatoirement irréversible et une espèce peut régresser à un stade antérieur si elle y trouve un avantage compétitif.

Exemple, les épinoches à trois épines du Lac Washington. A l'origine, tous ces poissons étaient recouverts d'une carapace protectrice à épines qui avait progressivement disparu à mesure que les prédateurs de ce poisson se faisaient plus rares. Mais en 50 ans seulement, la moitié de ces poissons (contre 6 % en 1960) ont retrouvé leur armure complète car le nettoyage du lac a rendu l'eau beaucoup plus claire et les a rendus plus vulnérables aux prédateurs.

Gould aimait dire que " les bactéries sont les reines de la vie car elles ont vécu pendant trois milliards et demi d'années et sont plus diversifiées par leur biochimie que toutes les autres formes de vie ". Pour Gould, l'histoire de la vie et l'évolution des espèces ne doivent pas être ramenées uniquement à la notion de "progrès" mais d'abord examinées à la lumière de la fabuleuse diversification du vivant et de sa prodigieuse capacité d'adaptation et d'homéostasie.

Loin d'affaiblir ou d'infirmer la théorie de l'évolution de Darwin, comme l'ont prétendu pour des raisons idéologiques certains courants créationnistes, la théorie de Gould, qui n'a jamais contesté les principes d'évolution des espèces et de sélection naturelle, est au contraire venue enrichir, élargir et complexifier de manière remarquable la vision darwinienne en utilisant tous les nouveaux outils scientifiques disponibles et en introduisant les notions clés de contingence et de macroévolution.

Immense scientifique, esprit libre et ouvert, Gould a révolutionné notre vision et notre approche de la vie en alliant audace conceptuelle et rigueur scientifique et en montrant que le vivant avait développé non pas un mais plusieurs mécanismes fondamentaux d'évolution et d'adaptation qu'il utilisait conjointement ou alternativement au niveau des individus et des espèces, pour assurer sa survie, sa diversification et produire, de manière largement contingente, sa complexification.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La SNCF prépare le billet de transport sur clé USB
Vendredi, 19/09/2008 - 00:00

Il y a tout juste dix ans, le passe Navigo inaugurait une nouvelle manière de voyager en Ile-de-France, en remplaçant les traditionnels coupons de transport par une carte à puce et sans contact. Six millions de cartes du même type sont actuellement en circulation dans une dizaine de régions, sous différents noms. Mais la SNCF, codéveloppeur du système, ne compte pas s'arrêter là en matière de billettique.

La compagnie ferroviaire, qui propose déjà l'impression du billet à domicile, planche en effet sur un nouveau projet de paiement à distance de titres de transport. Objectif : permettre aux usagers d'acheter leurs billets ou leurs abonnements par Internet et d'éviter, ainsi, les files d'attente qui encombrent les gares le 1er de chaque mois. La SNCF envisage deux méthodes pour accéder à ce canal de vente.

La première, utiliser les cartes sans contact existantes et fournir à leur titulaire un lecteur de cartes à puce raccordable en USB sur un PC. Une fois le lecteur connecté, l'usager peut se rendre sur le site Web du transporteur, choisir son titre, effectuer le paiement de manière sécurisée et charger en retour son titre électronique sur la carte.

Plus originale, la seconde méthode semble de surcroît plus légère pour les utilisateurs. Finie la carte à puce, l'usager disposerait à la place d'une clé USB, également compatible avec la technologie sans contact déployée sur les réseaux de la SNCF, de la RATP et autres transporteurs.

Plus besoin de lecteur, il suffit de brancher la clé sur n'importe quel PC pour accéder au site du transporteur et s'acquitter de son titre. C'est aussi la clé qui fait ensuite office de titre de transport et est reconnue comme tel par les portillons sans contact.

La SNCF a notamment travaillé avec des fabricants comme Gemalto ou Neoware sur ce projet de clé USB. Le système a été testé cet été par des employés de la SNCF et devrait être expérimenté auprès du public d'ici à la fin de l'année. Il reste à en connaître les modalités et le prix. « Le modèle économique n'est pas encore défini », indique Joël Eppe, responsable du pôle Innovations et Technologies de SNCF Proximités. On peut s'ailleurs envisager plusieurs modèles de clés, par exemple avec plus ou moins de mémoire de stockage. Gratuit ou payant, ce n'est pas à la SNCF de trancher. »

Les suites du projet sont en effet dans les mains des « autorités organisatrices de transport », autrement dit les conseils régionaux, qui gèrent la commercialisation des offres de transport de proximité en France. A eux d'y associer ou non d'autres transporteurs, comme la RATP en Ile-de-France, pour que le « billet USB » fonctionne aussi bien dans les trains que dans les métros et les bus parisiens. Pas sûr, en revanche, que le projet de lecteur de cartes, plus contraignant et a priori plus coûteux pour l'usager, ait le même avenir que le système par clé.

La SNCF réfléchit également à des applications billettiques sans contact par mobiles. Depuis 2006, elle teste et collabore avec les opérateurs mobiles et avec d'autres transporteurs, pour intégrer sur nos portables billets, tickets de parking ou encore horaires de trains téléchargés depuis des panneaux affichés en gare.

OINet

Le téléphone portable deviendra souris
Vendredi, 19/09/2008 - 00:00

Appareil photo, agenda, chronomètre ou lecteur de musique : bien plus que des téléphones, les portables sont aujourd'hui multifonctions. Demain, ils pourraient même se substituer... à la souris de votre ordinateur. Une équipe de chercheurs britanniques des universités de York et de Newcastle a en effet mis au point un téléphone mobile muni d'une caméra, l'ensemble étant capable de contrôler un ordinateur à distance. Le mode d'emploi ? Il suffit à l'utilisateur de placer son téléphone cellulaire devant l'écran pour qu'une connexion via Bluetooth s'établisse entre les deux appareils. Une fois le lien créé, la caméra compare l'image du portable à celle de l'ordinateur et interprète tous les mouvements du téléphone pour les reproduire à l'écran. Le curseur peut alors être contrôlé à l'aide des touches du mobile ou en déplaçant n'importe où dans la pièce le téléphone. Celui-ci devient une sorte de "souris volante" dans un espace en trois dimensions.

"C'est un moyen bien plus pratique d'échanger des données entre son mobile et son ordinateur !", estime Nick Pears, co-inventeur de ce prototype à l'université de York. Avec ce système, il deviendra par exemple possible de télécharger directement sur son disque dur les photos prises avec un téléphone. Et ce n'est qu'une première étape.

"Cette innovation prend tout son sens si l'on observe que les systèmes d'affichage publics ne sont rien d'autre que des ordinateurs munis d'écrans plus grands que ceux des particuliers", poursuit Nick Pears. L'objectif, à terme, serait de pouvoir commander un billet de train ou une place de cinéma en pointant simplement son téléphone devant une borne d'achat. Voire d'interagir avec des panneaux publicitaires d'un simple mouvement de la main, et de recueillir ainsi, quasi instantanément et - pourquoi pas ? - à travers la vitrine d'un magasin, des informations sur les produits vantés.

LM

^ Haut
Avenir
Nanotechnologies et Robotique
Un fauteuil roulant commandé avec la langue !
Vendredi, 19/09/2008 - 00:00

Une nouvelle technologie d'assistance élaborée par les ingénieurs au Georgia Institute of Technology pourrait aider les personnes ayant un handicap grave à mener vie plus indépendante. Elle permet ainsi aux tétraplégiques de se servir d'un ordinateur, contrôlant un fauteuil roulant motorisé, et d'interagir avec leur environnement tout simplement en déplaçant leur langue. Cette technologie, appelée « Tongue Drive » est basée sur l'analyse des mouvements de l'appendice sur lequel est implanté un petit aimant. Deux capteurs installés sur un casque et positionnés sur les côtés de la bouche captent les variations du champ magnétique et donc la position exacte de la langue qui devient ainsi un véritable joystick.

Fiancé notamment grâce au soutien de la Christopher et Dana Reeve Foundation, créée par l'acteur de Superman, décédé en 2004, qui à la suite d'une chute de cheval avait perdu l'usage de ses membres. « Nous avons choisi la langue pour faire fonctionner le système parce qu'à la différence des mains et des pieds, qui sont contrôlés par le cerveau via la moelle épinière, la langue est directement connectée au cerveau par un nerf crânien qui échappe généralement aux graves dommages de la moelle épinière ainsi qu'aux maladies neuromusculaires », a déclaré Maysam Ghovanloo, qui a commencé à travailler sur ce projet il y a environ trois ans à la North Carolina State University. « Les mouvements de la langue sont également rapides, précis et ne nécessitent pas beaucoup de réflexion, de concentration ou d'effort » a-t-il rajouté. Les essais se sont révélés concluants, les chercheurs doivent encore améliorer le logiciel qui gère l'interface capteurs/ordinateurs. « Tongue Drive » sera ensuite validé par des patients atteints troubles moteurs lourds.

NO

^ Haut
Matière
Matière et Energie
Record mondial de rendement électrique pour un système de concentration solaire par luminescence
Vendredi, 19/09/2008 - 00:00

L'Institut Fraunhofer de recherche sur les systèmes énergétiques solaires (ISE) de Fribourg a établi un record mondial de rendement électrique pour un système de concentration solaire par luminescence : 6,7 %. Le principe de cette technologie, déjà formulé en 1976 par Adolf Goetzberger, fondateur de l'ISE, est le suivant : des feuillets colorés recueillent une partie du spectre de la lumière du soleil, qui est ensuite conduite par réflexion totale jusqu'aux extrémités des feuillets où sont placées des cellules photovoltaïques (PV). Si la surface des bords des feuillets est plus petite que leur surface supérieure (surface d'incidence), on peut parler de concentration de la lumière. Ainsi, ce système permet de diminuer la quantité de cellule nécessaire et donc d'augmenter le rendement PV.

Les chercheurs de Fribourg avaient déjà développé le collecteur à fluorescence dans les années 1980. Ils espèrent aujourd'hui améliorer sa rentabilité à l'aide de nouveaux matériaux et de nouvelles techniques. "Aujourd'hui, les cellules photovoltaïques à haut rendement existent. Nous avons repris nos recherches sur les collecteurs à fluorescence depuis un moment. Nous avons prouvé expérimentalement que nos calculs étaient bons", commente Jan Christoph Goldschmidt, directeur de projet à l'ISE.

Le record a été atteint avec un empilement de deux feuillets fluorescents (jaune et rouge), recouverts par un thermoplastique transparent très répandu (PMMA ou polyméthacrylate de méthyle

[BE">1]), et représentant une surface incidente de 4 cm2. Sur les bords, 4,8 cm2 de cellules photovoltaïques InGaP ont converti la lumière sortante en électricité. Au total, 6,7 % de l'énergie solaire incidente a ainsi été convertie en électricité. Une autre expérience, réalisée cette fois avec un unique feuillet d'une très grande surface et un matériau novateur à la place du PMMA, a également conduit à des résultats intéressants.

"Jusqu'à maintenant, plus de 25 % de la lumière réémise par les molécules fluorescentes se perdaient à travers la surface supérieure des feuillets", explique M. Goldschmidt. L'emploi de nouvelles couches-filtres, des structures photoniques, a déjà permis d'améliorer de 20 % le rendement. Avec seulement un feuillet, nous avons ainsi atteint un rendement supérieur à 3 %. Et cela avec une surface de cellule PV correspondant à seulement un vingtième de la surface collectrice. Dans une prochaine étape, nous combinerons les deux approches : empilement de plusieurs couleurs et structures photoniques." Les chercheurs de l'ISE se montrent confiants : selon eux, la technique sera utilisée pour des applications intégrées aux façades ou aux fenêtres des bâtiments.

[BE

La recharge électrique sans fil progresse
Vendredi, 19/09/2008 - 00:00

Le concept de « WiTricity » ( Wireless Electricity ou électricité sans fil) progresse. Depuis plusieurs années, quelques sociétés comme Powermat, Wildcharge ou Wipower étaient déjà à pied d'oeuvre. Mais cette fois c'est le numéro un mondial des semiconducteurs, Intel, qui est sur la brêche. Des chercheurs ont expliqué qu'il était désormais possible de transmettre 60 watts sur une distance de moins d'un mètre, et ce, par induction magnétique.

Les recherches d'Intel sont basées sur des travaux conduits au MIT (Massachussets Institute of Technology) par le physicien Marin Soljacic, pionnier de la transmission d'énergie sans fil. Intel affirme avoir amélioré l'efficacité du système. La déperdition d'énergie, habituellement de l'ordre de 50 % avec ces dispositifs, aurait été ramenée à 25 %. Les répercussions que pourrait avoir une telle technologie dans notre vie quotidienne sont intéressantes.

C'est un ordinateur portable, un téléphone mobile, un baladeur, dont on pourrait recharger la batterie sans fil ni câble, simplement en le posant sur une surface équipée. Les restaurants, les transports en commun, les lieux publics, pourraient ainsi être équipés de stations de recharge.

Intel

Une nouvelle technique révèle la signature chimique des empreintes digitales
Vendredi, 19/09/2008 - 00:00

Une nouvelle technique va faciliter la tâche de la police en permettant de déterminer la signature chimique des empreintes digitales, selon des travaux de chercheurs américains publiés aux Etats-Unis. Cette technologie peut détecter des traces d'explosif, de drogue ou d'autres matériaux laissés dans les empreintes. Elle permet aussi de distinguer entre les empreintes superposées de plusieurs individus, une tâche difficile avec les méthodes optiques actuelles.

"L'exemple classique d'une empreinte digitale est une impression à l'encre sur papier montrant les formes uniques des lignes de la peau des doigts pour identifier un individu mais ces empreintes laissent aussi une signature moléculaire unique", explique Graham Cooks, un chimiste de l'Université Purdue dans l'Indiana (nord), principal auteur de cette recherche. "Certains des résidus laissés derrière proviennent de composants naturels se trouvant dans la peau et d'autres surfaces et matériaux avec lesquels la personne a été en contact", poursuit-il.

Dans la mesure où la distribution de ces composants moléculaires trouvés dans chaque empreinte digitale est unique, on peut utiliser cette technologie pour distinguer entre des empreintes superposées", relève Demian Ifa, un chercheur ayant participé à cette étude parue dans la revue Science. "Nous pouvons ainsi séparer les empreintes et obtenir une image parfaitement claire de chacune d'entre elles qui peut être rentrée dans un ordinateur doté d'un logiciel d'identification des empreintes", ajoute-t-il.

Les chercheurs ont examiné des empreintes digitales sur les lieux même ou bien les ont prélevées de différents objets comme des verres avec des bandes de scotch avant de les analyser à l'aide d'une technique de spectrométrie de masse mise au point par Graham Cooks.

Cette technologie dite de "désorption-ionisation" permet de détecter et d'identifier les différentes molécules en mesurant leur masse et de caractériser leur structure chimique. Pour ce faire, un solvant est appliqué à l'aide d'un vaporisateur sur la surface des empreintes. La technique fournit ainsi une image chimique de l'empreinte à une résolution plus élevée que ne le permettent les autres procédés existants.

Science

Les Etats-Unis misent gros sur la cyber-physique
Vendredi, 19/09/2008 - 00:00

Une nouvelle discipline est en train de voir le jour : la cyber-physique. Une équipe de chercheurs en sciences informatiques issus de l'Université de Californie (UCLA) ont reçu une subvention de neuf cent mille dollars de la NSF afin d'étudier la conception de logiciels de systèmes cyber-physiques (CPS), c'est-à-dire de systèmes informatiques qui interagissent avec les processus physiques. La NSF a identifié les CPS comme l'une de leurs priorités. Les chercheurs participant au projet se donnent trois ans pour établir les principes fondamentaux et appliqués présidant à la conception de tels systèmes.

Il peut s'agir de réseaux de capteurs qui enregistrent certains aspects de l'environnement pour les envoyer à une node centrale. Mais aussi de systèmes automobiles indépendants, de pilotage automatique, de contrôle médical ou d'autres types de monitoring.

Rajesh Gupta, un enseignant à l'UCSD explique que ses collègues et lui vont travailler dans diverses directions pour circonscrire leur champ d'étude comme une discipline à part entière. Ils vont notamment plancher sur la programmation de logiciels CPS capables de saisir des informations sur le monde physique et de les reconfigurer en données informatiques. Autre programme d'étude : le développement de modules logiciels qui interagissent indirectement les uns par rapport aux autres par l'intermédiaire du monde physique. "En sciences informatiques, les données sont relativement limitées. En physique, à l'inverse, ce qui peut être observé est très divers. "En plus du rôle qu'y joue la logique, un CPS doit donc être capable de prendre en compte le monde réel. "La façon dont on administre la preuve est différente selon qu'il s'agit de sciences formelles ou physiques."

"La conception de CPS doit donc conjuguer la rigueur mathématique et l'observation empirique". Rajesh Gupta précise que que les CPS ne sont pas réductibles à des systèmes informatiques traditionnels qui seraient simplement reliés au monde réel. Ces logiciels, leurs algorithmes, la logique et les théories qui les sous-tendent doivent être totalement reconfigurés en fonction du monde physique.

Atelier

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une étude britannique envisage un réchauffement global de la planète de 4°C
Vendredi, 19/09/2008 - 00:00

Le pire est devant nous en matière de réchauffement climatique : c'est le message que tente de faire passer Bob Watson, l'un des principaux conseillers scientifiques du gouvernement britannique. Interrogé le 7 août dernier par le quotidien The Guargian, le professeur estime qu'«il est évident que nous devons nous atteler à limiter le réchauffement climatique à 2°C. Mais c'est un objectif ambitieux, et nous ne savons pas comment, dans le détail, réduire les émissions de gaz à effet de serre pour parvenir à ce résultat. Donc nous devrions mieux nous préparer à un réchauffement de 4°C».

Cette théorie du pire est aussi défendue par le chef du département scientifique du gouvernement britannique Sir David King. Il déclare en effet que même avec un accord global maintenant les émissions de dioxyde de carbone à 450 ppm, proportion qui, selon une résolution du conseil des ministres de l'Environnement de l'Union européenne, éviterait un réchauffement climatique de plus de 2°C, il reste 50 % de chance que le thermomètre dépasse tout de même cette température et une probabilité de 20 % qu'il dépasse 3,5°C. Quand on sait que le taux actuel de CO2 est de 385 ppm et qu'il augmente chaque année de minimum 2 ppm, l'optimisme n'est pas de rigueur.

Une telle perspective serait dramatique pour la planète. Au programme : des millions de personnes touchées par l'augmentation du niveau des mers et océans, 30 % à 50 % de réduction d'eau potable pour le sud de l'Afrique et la région méditerranéenne, et 20 % à 50 % des espèces de plantes et des animaux menacés d'extinction.

«L'impact serait si important que la seule stratégie d'adaptation réaliste est d'éviter à tout prix un tel réchauffement, s'inquiète le professeur Neil Adger de l'école des sciences environnementales, également interrogé par "The Guardian". Nous ne disposons d'aucune donnée scientifique qui nous permettrait de nous adapter à une telle variation. C'est vraiment très inquiétant.»

Guardian

Confirmation du lien entre réchauffement et très fortes précipitations
Vendredi, 19/09/2008 - 00:00

Des climatologues américains et britanniques ont confirmé le lien entre le réchauffement climatique et l'accroissement des très fortes précipitations en comparant modèles informatiques et observations par satellite, selon une étude récente. L'amplification des pluies d'une intensité extrême s'est même révélée nettement plus grande que ce qu'avaient prévu jusqu'à présent les modèles informatiques, soulignent les auteurs de cette étude parue dans la revue américaine Science datée du 8 août.

Pour comprendre comment les précipitations répondaient au réchauffement du climat, ces chercheurs ont étudié les changements naturels liés au courant marin chaud El Niño dans le Pacifique sud qu'ils ont utilisé comme un laboratoire pour vérifier leurs hypothèses. En se basant sur vingt ans d'observations faites par des satellites, ces scientifiques ont découvert un lien très clair entre l'intensité extrême des pluies tropicales et la température de l'eau, la fréquence de très fortes précipitations augmentant durant les périodes chaudes et diminuant lors des périodes froides.

"Une atmosphère plus chaude contient davantage d'humidité, ce qui accroît l'intensité des trombes d'eau", explique Brian Soden, professeur de climatologie à l'Université de Miami (sud est), un des co-auteurs de ce rapport. "La comparaison des observations satellitaires avec les résultats des modèles climatiques informatiques permet de mieux comprendre comment les précipitations répondent au réchauffement du climat", ajoute Richard Allan, de l'Université de Reading, également co-auteur de cette recherche.

Un des plus grands défis auxquels fait face l'humanité est de s'adapter aux conditions météorologiques extrêmes résultant du réchauffement de la planète, notent ces scientifiques. Et l'un de ces défis est la plus grande fréquence de très fortes précipitations liée au réchauffement, due à un accroissement des masses humides se condensant dans l'atmosphère. La fréquence des trombes d'eau qui en résulte accroît le risque d'inondations qui peuvent avoir des conséquences économiques et sociétales dévastatrices, expliquent les auteurs de l'étude.

Science

L'activité humaine menace d'asphyxie les eaux côtières
Vendredi, 19/09/2008 - 00:00

Nombre de régions côtières se transforment en zones mortes, en raison de l'utilisation croissante des engrais (phosphates et nitrates) dans l'agriculture et le rejet d'eaux usées chargées de matières organiques. Lessivées par les pluies, ces substances s'accumulent dans les estuaires, les lagunes et les mers fermées. Une étude réalisée par Robert Diaz (Institut de science marine de Virginie, Etats-Unis) et Rutger Rosenberg (Université de Gothenbourg, Suède), publiée dans la revue Science du 15 août, indique que la surface de ces zones mortes double chaque décennie depuis les années 1960. Ces dernières représentent aujourd'hui 405 sites totalisant 245 000 km2, soit la surface de la Nouvelle-Zélande. Pour les auteurs, ces régions constituent désormais "un des éléments-clés du stress qui frappe les écosystèmes marins".

Le processus d'eutrophisation à l'oeuvre dans les zones côtières a d'abord été étudié dans les lacs. Lorsque l'azote et le phosphore pénètrent en grandes quantités dans les eaux, ils entraînent la croissance excessive d'algues microscopiques, le phytoplancton. Quand ces dernières meurent et tombent au fond de l'eau, elles causent la prolifération de bactéries aérobies, qui consomment une grande quantité d'oxygène. Lorsque ce phénomène se produit dans des eaux qui ont tendance à se stratifier, l'oxygène des profondeurs baisse jusqu'à un taux de 2 ml/litre d'eau de mer, voire moins. On parle alors d'hypoxie.

Quand l'hypoxie perdure et s'aggrave, elle "entraîne la mort des organismes qui vivent sur les fonds marins, crustacés, coquillages, corail, qui constituent le benthos", explique Louis-Alexandre Romana, responsable de l'environnement côtier à l'Institut français de recherche pour l'exploitation de la mer. La chaîne trophique qui relie le phytoplancton, le zooplancton, les petits poissons et les grands prédateurs marins est alors rompue.

Car "la disparition du benthos se traduit par la perte de tonnes de carbone qui ne sont plus disponibles pour les autres espèces", ajoute le scientifique. Robert Diaz et Rutger Rosenberg ont évalué la perte de carbone dans des zones qui connaissent de longues périodes de désoxygénation. Dans la baie de Chesapeake, un des plus grands estuaires des Etats-Unis, elle est évaluée à 10 000 tonnes par an et, en mer Baltique, à 264 000 tonnes.

Les processus d'eutrophisation ne sont heureusement pas toujours permanents. Ils n'en sont pas moins redoutables. En 1976, un de ces événements dans la baie de New York avait frappé une surface de 1 000 km2, et profondément perturbé le milieu marin. Malheureusement, "l'eutrophisation a pour effet d'augmenter le volume de matière organique qui atteint le fond marin et les sédiments, rappellent les auteurs de l'article de Science. De ce fait, "l'hypoxie a tendance à augmenter dans l'espace et dans le temps, si rien n'est fait pour changer la situation". Cela se traduit par des zones mortes quasi permanentes, tels l'estuaire du Saint-Laurent (Canada), le bassin de Gdansk (Pologne), la mer Caspienne, la mer Baltique ou l'estuaire de Tan Shui à Taïwan.

D'autres zones sont atteintes de manière sévère : la mer Noire, le nord de la mer Adriatique, le Kattegat (une baie située entre le Danemark et la Suède), les fjords scandinaves, le golfe du Mexique et la mer de Chine orientale. Le petit nombre de zones situées sur les côtes asiatiques très peuplées s'explique par le fait qu'ils ne sont pas étudiés pour le moment et que les données manquent.

Pour retourner la tendance et agir sur ces zones mortes, il faudrait diminuer les rejets des eaux usées et maintenir les engrais dans le sol. Ce qui constitue encore un sujet de recherches. Des efforts réalisés dans ce sens se sont déjà traduits par une diminution du problème. En attendant, MM. Diaz et Rosenberg suggèrent de réduire l'emploi des fertilisants de façon à retrouver les quantités utilisées au milieu du XXe siècle.

LM

Des pavés purifiant l'air testés aux Pays-Bas
Vendredi, 19/09/2008 - 00:00

L'université de Hengelo aux Pays Bas affirme avoir développé et testé, sur la base d'une invention japonaise, des pavés contenant du dioxyde de titane, qui transforment les particules d'oxydes d'azote (NOx) émis par les voitures en nitrates inoffensifs, à l'aide du soleil. "Une averse de pluie et tout est propre", affirme l'université dans un communiqué. Les particules de NOx sont la cause des pluies acides et du smog.

D'ici la fin de l'année, la rue d'Hengelo sera pour moitié recouverte des nouveaux pavés, verts, alors qu'une autre moitié sera laissée comme elle est actuellement. "En mesurant (dès le début 2009) la qualité de l'air dans les deux parties, nous pourrons montrer l'efficacité des pavés", explique l'Université de Twente, qui prévoit de publier les résultats à l'été prochain. "La province d'Overijssel y voit une manière d'améliorer la qualité de l'air. (...) Ce projet est très important pour le pays entier", poursuit-elle. Une rue de Hengelo, une petite ville de l'est des Pays-Bas, va être partiellement recouverte de pavés purifiant l'air, une technique qui pourrait faire progresser la lutte contre la pollution, ont annoncé des scientifiques de l'Université de Twente.

Le Conseil Général des Hauts-de-Seine teste actuellment un bitume antipollution placé sur une route départementale de la commune de Vanves. La composition de ce bitume élaborée par Calcia, un cimentier italien : mélange de ciment et de dioxyde de titane, ajouté à du goudron. Cela permettrait d'absorber jusqu'à 80 % des dioxydes d'azote rejetés par les véhicules. Une expérimentation à Segrate (Italie) a permis de mettre en évidence l'efficacité des matériaux dépolluants en conditions réelles en extérieur. L'activité dépolluante de 7.000 m2 de mortier formulé avec ce ciment a été comparée à la même surface en enrobé sur le passage de 1000 voitures par heure. Une réduction de 60 % de la teneur en NOx a été constatée avec la surface traitée à base de ciment TX Aria de Calcia.

Eurovia, la filiale du groupe Vinci, a mis au point pour sa part un mur fabriqué en bois de béton, un matériau fait à partir de ciment et de copeaux de bois recyclé. Très léger et alvéolé, ce matériau est un excellent isolant acoustique. Mais dans le cas de ce mur, les alvéoles contiennent en plus du dioxyde de titane.

Or, l'oxyde de titane a la propriété de décomposer les oxydes d'azote (NOx) grâce aux rayons du soleil. Le procédé est appelé photocatalyse, car ce sont les rayons UV qui accélèrent la réaction chimique d'oxydation. Les oxydes d'azote sont transformés en nitrates, en partie neutralisés par les ions calcium et carbonate du ciment, et en partie éliminés lorsque l'eau de pluie ruisselle sur le mur.

Enfin, il faut signaler le projet européenn Picada qui a lui aussi pour objectif la mise au point de matériaux dépolluants par photocatalyse. GTM construction, qui a entre autres participé au projet, a mis au point toute une gamme de revêtements translucides, enduits et peintures à base de dioxyde de titane, exploitables sur des grandes surfaces. Des scientifiques japonais ont calculé que si 70 % des bâtiments d'une rue étaient traités avec des produits de ce type, la pollution atmosphérique au dioxyde d'azote réduirait d'un tiers. Reste que ces revêtements sont deux à trois plus chers que les revêtements ordinaires et qu'ils ne sont malheureusement pas efficaces contre le CO2.

AFP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Traitement du cancer grâce à des nanotubes de carbone
Vendredi, 19/09/2008 - 00:00

Une équipe de chercheurs du groupe de Hongjie Dai de Stanford University en Californie, a utilisé des nanotubes de carbone simple paroi (SWNTs) pour acheminer des médicaments contre le cancer à travers le système sanguin. Les très bons résultats obtenus sur des souris sont prometteurs pour cette technique si la non toxicité des nanotubes pour les cellules humaines est prouvée.

La quête du Graal dans la thérapie du cancer est d'administrer de fortes doses de molécules thérapeutiques sur les sites tumoraux pour une efficacité maximale, tout en réduisant les effets secondaires. Malheureusement, du fait que les médicaments sont rapidement éliminés du réseau sanguin, de fortes doses sont nécessaires pour atteindre les tumeurs. Ainsi naturellement les cellules saines sont exposées à une plus grande quantité de médicaments, ce qui engendre des effets secondaires néfastes.

Dai et ses collègues ont utilisé le Paclitaxel (PTX), une molécule médicamenteuse largement utilisée en chimiothérapie. Les chercheurs ont recouvert les SWNTs de polyéthylène glycol (PEG), une molécule qui a trois branches sur une extrémité, permettant d'attacher trois PTX par PEG. Une étude précédente montre que les nanotubes recouverts de PEG injectés dans des souris peuvent circuler dans le système sanguin pendant une dizaine d'heures, ce qui leur donne largement le temps d'atteindre la tumeur et de délivrer les PTX sans avoir à en injecter de trop grosses doses, et sont éliminés par la suite dans les excréments.

Tous les vaisseaux sanguins sont relativement poreux, mais les pores sont plus étroits dans les vaisseaux sains que dans les vaisseaux de la tumeur. En jouant sur la taille des nanotubes (ils font en moyenne 100nm de long), les chercheurs ont donc été capables de faire en sorte que les médicaments ne s'échappent pas dans les cellules saines (les nanotubes étant trop grands) mais passent à travers les pores des vaisseaux de la tumeur pour atteindre les cellules tumorales. Cela permet d'atteindre une efficacité très importante, car les cellules saines n'absorbent pas les médicaments, qui vont plus spécifiquement et en plus grande quantité atteindre les cellules malades : la quantité de médicaments à injecter est donc plus faible et les effets secondaires sont réduits.

Les chercheurs ont testé les SWNT-PTX dans des souris auxquelles ils ont injecté des cellules de cancer du sein. Ils ont procédé à une injection une fois tous les six jours lorsque les tumeurs avaient atteint une taille spécifique. Ils ont administré à un autre groupe de souris des doses similaires de différentes formes de PTX, dont la forme commercialisée Taxol, et laissé un autre groupe de souris non traitées. Après une période de 22 jours, ils ont observé que les tumeurs traitées par les SWNT-PTX avaient une taille deux fois moins importante que les tumeurs traitées par le 2e traitement le plus efficace : le Taxol, et presque 3 fois moins importante que les tumeurs non traitées. Les tumeurs traitées avec les SWNT-PTX avaient un pourcentage de cellules mortes plus important et un pourcentage de cellules proliférantes plus faible. Les chercheurs estiment que l'assimilation de médicaments qu'ils ont obtenue grâce à leur technique est 10 fois plus importante qu'avec le Taxol.

Pour le moment, Dai qualifie cela de ciblage passif, qui utilise la perméabilité des parois des vaisseaux sanguins. Un ciblage plus actif serait d'attacher des peptides ou des anticorps au SWNT, qui atteindraient spécifiquement la tumeur, augmentant encore énormément l'efficacité du traitement.

BE

Un nouvel antibiotique produit à partir d'asticots
Vendredi, 19/09/2008 - 00:00

Des chercheurs de l'université de Swansea au Pays de Galles ont annoncé récemment la découverte d'un nouvel antibiotique produit à partir d'asticots, efficace contre plusieurs maladies nosocomiales. Cet antibiotique, la seraticin, issue des secrétions de l'asticot de la mouche verte, est développé par les chercheurs pour créer un médicament qui pourrait être injecté, avalé ou utilisé comme un baume contre les infections.

"La découverte d'un potentiel nouvel antibiotique est une avancée excitante. Cela pourrait donner un nouveau traitement pour les gens qui souffrent de blessures chroniques ou qui sont infectés par des maladies nosocomiales ou autres", a souligné le docteur Yolande Harley, de l'association caritative britannique Action Medical Research, qui a financé ces recherches. Le recours aux asticots pour soigner des blessures est une méthode de soin traditionnelle, qui est toujours utilisée dans certains cas comme les ulcères. "Développer un antibiotique pur sous forme de médicament, comme une crème, réduirait le contact des patients avec des asticots pour guérir des blessures. Cela pourrait également offrir un traitement potentiel, sous forme d'injection ou de comprimé, pour des infections internes comme la C. difficile", une maladie nosocomiale commune, a-t-elle souligné. Le professeur Norman Ratcliffe, qui mène l'équipe de scientifiques a souligné qu'il restait encore du travail à faire pour tirer les bénéfices maximums de cette découverte.

"Il faut environ 20 tasses d'asticots pour produire une goutte de seraticin purifiée à présent", et les scientifiques cherchent les moyens pour produire cette substance à plus large échelle, a-t-il expliqué. Cet antibiotique s'est montré efficace contre 12 types de staphylocoques dorés, ainsi que contre l'E. coli et C. difficile, des infections que risquent d'attraper les patients dans les hôpitaux, selon les chercheurs.

LP

Les bienfaits cardiovasculaires du soja, du thé vert, du chocolat et du poisson confirmés
Vendredi, 19/09/2008 - 00:00

A l'appui des effets bénéfiques de la consommation de flavonoïdes sur les risques cardiovasculaires, on retrouve dans la littérature des études épidémiologiques et mécanistiques. Ce travail international (Norwich et Londres en Angleterre, Boston aux USA, Sydney en Australie) a passé systématiquement en revue les effets des différentes sous-classes de flavonoïdes et d'aliments riches en flavonoïdes face aux maladies cardiovasculaires et leurs facteurs de risque, c'est-à-dire les lipoprotéines, la pression artérielle et la vasodilatation dépendante du flux sanguin.

La stratégie de recherche des études a consisté à consulter les bases de données MEDLINE, EMBASE et Cochrane Databases, à inclure ou exclure les études randomisées contrôlées concernées, à en extraire les données, à évaluer la validité de celles-ci et à les utiliser pour réaliser une méta-analyse. Cent trente trois essais ont été inclus. Aucune étude contrôlée randomisée n'a évalué les effets des flavonoïdes sur la morbidité ou la mortalité cardiovasculaire. Une hétérogénéité significative a été retrouvée, confirmant des effets différents des diverses sous-classes de flavonoïdes et d'aliments riches en flavonoïdes :

Le chocolat augmente la vasodilatation flux-dépendante après consommation aiguë (3,99 % ; intervalle de confiance à 95 % : 2,86-5,12, dans 6 études) ou après consommation chronique (1,45 % ; IC95 % : 0,62-2,28, dans 2 études)

-Le chocolat réduit la pression artérielle systolique (-5,88 mmHg ; IC95 % :

-9,55 -2,21, dans 5 études) et diastolique (-3,30 mmHg ; IC95 % :

-5,77 -0,83, dans 4 études)

-Les protéines de soja (seules, et pas les autres produits contenant du soja ou d'autres composants) réduisent significativement la pression artérielle diastolique (-1,99 mm Hg ; -2,86 -1,12, dans 9 études) et les LDL (-0,19 mmol/l ; IC95 % : -0,24 -0,14, dans 39 études)

-La consommation en aigu de thé noir augmente la pression artérielle systolique (5,69 mmHg, 1,52- 9,86, dans 4 études) et diastolique (2,56 mm Hg ; 1,03 -4,10 dans 4 études)

-En revanche le thé vert réduit les LDL (-0,23 mmol/l ; -0,34 -0,12 dans 4 études)

Pour traiter des patients souffrant d'insuffisance cardiaque, un supplément en huile de poisson riche en oméga-3 pourrait se montrer tout aussi efficace contre l'excès de cholestérol qu'un médicament, selon une nouvelle étude.

Une autre étude italienne révèle que les oméga-3 sous forme d'huile de poisson pourraient s'avérer être un nouveau traitement potentiel, ce qui pourrait déboucher sur une modification des recommandations diététiques qui sont faites aux patients, a déclaré le Docteur Jose Gonzalez Juanatey, porte-parole de la société européenne de Cardiologie, qui est extérieur à cette recherche. "Ceci confirme l'idée selon laquelle le traitement des patients souffrant d'insuffisance cardiaque ne repose pas uniquement sur les médicaments", a-t-il ajouté.

Une équipe de chercheurs italiens a donné une dose quotidienne d'oméga-3 dérivés d'huile de poisson en comprimé, fabriquée par Norway's Pronova BioPharma, à près de 3.500 patients. Pour les médecins, le bénéfice obtenu serait le même pour des patients qui choisiraient des suppléments moins chers, ou qui mangeraient tout simplement plus de poissons gras, comme le saumon. Un deuxième groupe était composé de patients dont le nombre était approximativement équivalent ayant reçu un placebo. Tous les patients ont été suivis pendant quatre ans. Dans le groupe prenant de l'huile de poisson, 1.981 patients sont morts d'insuffisance cardiaque ou ont été admis aux urgences pour ce problème. Dans le groupe placebo, ils étaient 2.053.

Dans une étude parallèle, la même équipe de médecins italiens a donné du Crestor, un médicament qui baisse le taux de cholestérol, à 2.285 patients. Et un placebo à 2.298 autres. Les patients ont ensuite été suivis pendant quatre ans environ. Une petite différence a été retrouvée entre les deux groupes dans le taux d'insuffisance cardiaque. En comparant les résultats des deux équipes, les chercheurs ont conclu que l'huile de poisson est légèrement plus efficace que le médicament, l'huile agissant mieux que le Crestor comparé au placebo.

Les acides gras oméga-3 provenant de poissons comme le saumon ou le thon ont fait la preuve de leurs bienfaits sur le coeur et le cerveau, bien que les scientifiques ne sachent pas exactement comment. Une hypothèse est que les membranes cellulaires étant composées de graisses, les huiles de poisson, par leur apport en oméga-3, pourraient les renouveler et les rendre plus solides. Les huiles de poisson sont par ailleurs connues pour augmenter le taux de bon cholestérol, tout comme pour prévenir un trouble anormal du rythme. A l'opposé, les statines, notamment le Crestor, agissent sur le mauvais cholestérol, qui n'a pas d'impact important sur l'insuffisance cardiaque.

JIM

Une avancée majeure dans le traitement de la surdité
Vendredi, 19/09/2008 - 00:00

Des travaux conduits par John Brigande de l'université de l'Oregon (Portland, Etats-Unis), lui même malentendant, ont montré qu'il était possible, chez l'embryon de souris, de stimuler la formation de cellules ciliées fonctionnelles qui ont le potentiel de réduire la perte d'audition chez les souris adultes.

Les cellules ciliées se situent dans l'oreille interne (dans la cochlée), elles sont chargées de transformer la vibration sonore captée par les cils en impulsion nerveuse qui transite ensuite jusqu'au cerveau via le nerf auditif. D'autres cellules ciliées, situées elles dans le vestibule, sont dévolues au maintien de l'équilibre. Chez l'homme, et les mammifères, le nombre de cellules est fixé à la naissance. Nous ne possédons pas la capacité d'en former plus tard dans la vie. Ce qui fait que toute perte (par traumatisme par exemple) de cellules ciliées est définitive et se traduit généralement par une déficience auditive.

Les chercheurs ont prouvé que le transfert in utero du gène "Atoh1" dans l'oreille interne des rongeurs pouvait induire la transformation de cellules non-sensorielles en cellules ciliées. De précédents travaux avaient déjà fait état de cette capacité sans toutefois prouver que les nouvelles cellules étaient fonctionnelles. C'est cette aptitude qui est aujourd'hui clairement établie. Selon John Brigande, ces résultats pourraient être à la base de futures thérapies de transfert, destinées à traiter des patients humains malentendants.

OSHU

Des neurones qui reforment leur réseau
Vendredi, 19/09/2008 - 00:00

Des chercheurs de l'Institut Max Planck de neurobiologie et de l'Université de la Ruhr-Bochum viennent de prouver que les cellules nerveuses du cerveau adulte ne recevant plus d'informations de la part de leurs neurones voisins sont capables de tisser de nouveaux contacts avec d'autres neurones, afin de ne pas rester au "chômage technique".

Le cerveau humain contient environ 100 milliards de cellules nerveuses, chacune d'entre elles possédant 10.000 à 20.000 contacts avec des neurones voisins. Ce réseau permet notamment de recevoir et de traiter les informations sensorielles. Or, si des informations provenant d'un des organes sensitifs manquent, comme c'est le cas par exemple lorsque la rétine d'un oeil est endommagée, les cellules nerveuses liées à la zone touchée ne reçoivent plus d'informations.

Les scientifiques ont pu montrer que, dans ce type de traumatisme, ces cellules restructurent leur réseau. Quelques jours après une lésion de la rétine, ces neurones développent des prolongements trois fois plus vite que les neurones voisins n'étant pas directement concernés par le dommage. Ces prolongements permettent de trouver et d'identifier les cellules voisines adéquates pour l'échange de données.

Si la capacité d'adaptation de jeunes cerveaux était déjà connue, "une réorganisation à une telle échelle dans un cerveau adulte" est surprenante, déclare Tara Keck de l'Institut Max Planck de neurobiologie. Cette restructuration permet de compenser en partie les dégâts occasionnés. Cette capacité d'adaptation permet d'envisager de nouvelles approches dans le cadre de blessures d'un organe des sens.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top