RTFlash

RTFLASH Recherche & Technologie
NUMERO 378
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 30 Mars 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un cyber espace dans une maison de retraite de Villeurbanne
Orange adopte une solution de géolocalisation des enfants
Nouveau record pour la fibre optique : 320 Go en une seconde !
Le classement mondial annuel des technologies de l'information confirme l'avance de l'Europe du Nord... et le déclin de la France
Avenir
Japon : un prototype de robot aide-soignant pour personnes âgées
Terre
Sous l'effet du réchauffement climatique, le niveau des mers pourrait monter de plusieurs mètres d'ici 2100 !
Réchauffement des océans et ouragans : le lien se confirme
Une poudre pour éviter l'évaporation des réserves d'eau
La Grande-Bretagne mise sur l'énergie éolienne
Vivant
Sclérose en plaques : une maladie mieux comprise, des espoirs thérapeutiques
Vers un test sanguin pour dépister la maladie d'Alzheimer
Identification d'un marqueur alimentaire du cancer du sein
Une nouvelle thérapie dans le traitement de l'arthrite rhumatoïde
Une faible baisse du cholestérol réduit fortement le risque cardiaque
Fumer trois joints équivaut à fumer un paquet de cigarettes
Les cancers professionnels largement sous évalués
Faire exploser les cellules cancéreuses avec des nanobombes !
Une "neuro-puce" pour communiquer avec le cerveau
Recherche
Un nouveau logiciel permet d'améliorer la fluidité du trafic dans les petites villes
Edito
Le Web 2.0 va-t-il transformer notre société ?



En août 2004, DaleDougherty de la société O'Reilly Media, invente, au cours d'une réunion de réflexion, le terme de "Web 2.0" pour qualifier le saut qualitatif qu'est en train d'effectuer le Web, passant d'une simple agrégation de sites Web et de services en ligne à un nouveau concept de plate-forme intelligente et intégrée d'applications et de services numériques.

Sur le plan technique, le Web 2.0 repose davantage sur une succession d'évolutions astucieuses que sur une révolution technologique et vérifie l'adage qui veut que, souvent, « De petites causes produisent de grands effets ». La combinaison d'espaces virtuels de stockage et de travail, de type « Gmail », d'architectures plus flexibles grâce aux langages de dernières générations, de protocoles de communication plus ouverts (permettant les web services) et d'une interopérabilité plus poussée (avec la syndication et les fils RSS) a en effet profondément changé la face du Net. Ces progrès n'ont pas eu seulement pour effet d'améliorer et de faciliter l'utilisation du Net, et d'en accroître l'efficacité en le rendant beaucoup plus heuristique, ils ont aussi provoqué un changement de nature du Web lui-même et entraîné ce qu'Edgar Morin appelle l'émergence d'un nouveau niveau d'organisation.

Ce Web 2.0 est difficile à cerner et à définir car il s'articule à la fois autour de la désintermédiation, de la personnalisation de l'information et de l'auto-organisation de nouvelles solidarités sociales et culturelles. C'est ainsi qu'en seulement deux ans, les blogs sont devenus un véritable phénomène de société en France. Notre pays compterait aujourd'hui plus de 6 millions de blogs, soit le quart du total des blogs dans le Monde ! Le Net est donc devenu, de manière inattendue, un puissant moyen d'expression et de reconnaissance individuel. Mais en même temps, le Net devient un nouvel espace de solidarité sociale, culturelle et cognitive, comme le montre le succès de Wikipédia, l'encyclopédie collaborative, Y! Answer", le nouveau service de Yahoo! où ce sont des internautes qui répondent directement aux internautes ou encore le nouveau service de la SNCF, qui propose une mise en relation personnalisée par SMS pour les passagers du TGV.

Autre exemple, révélateur de cette nouvelle orientation du Net, le site lTelos, qui se veut la première « agence intellectuelle », traduction de l'expression anglaise think tank. Ce site d'un genre nouveau en France met en ligne chaque jour deux articles d'universitaires ou d'experts sur des thèmes d'actualité. La désintermédiation touche également les échanges économiques qui se réorganisent autour de nouveaux modèles, de type « E Bay » et s'orientent vers de nouveaux services, comme celui que Google teste depuis janvier 2006, avec la mise en relation de l'internaute et du vendeur par communication téléphonique interposée.

Enfin une nouvelle étape, et peut-être la plus décisive, dans cette mutation historique du Web, est celle qu'a pressentie une fois de plus avant tout le monde Google qui propose, depuis peu, deux nouveaux outils qui sont appelés à se généraliser rapidement et connaissent déjà un grand succès. Le premier de ces outils est la plate-forme en ligne Writely qui est bien plus qu'un site ordinaire. Writely propose en effet un logiciel de traitement de texte complet, en ligne, collaboratif. On peut y rédiger et y mettre un texte en forme, y travailler à plusieurs, étudier et revoir les différentes versions d'un document, les corrections qui y ont été apportées par chacune des personnes travaillant dessus. On peut s'abonner à un fil RSS notifiant chaque nouvelle modification. On peut exporter le document sur son disque dur, en version compatible Word ou en pdf, l'imprimer ou encore le publier sur son weblog. Writely, efficace, simple, ouvrant de nouvelles perspectives aux applications bureautiques, est emblématique de ce que l'on appelle le Web2.0.0

L'autre outil proposé par Google se nomme Google page creator. Il s'agit d'un service gratuit de création de pages web, qui a surpris tout le monde puisque la société n'avait pas fait d'annonce avant son lancement. Pour l'utiliser, il suffit d'avoir un compte Google et une adresse Gmail, le service de webmail de Google. L'utilisation de ce service est très simple : "pas de connaissances techniques requises. Désormais, n'importe qui peut, très facilement et pour presque rien, créer son site Web et devenir producteur ou vendeur de contenus numériques et cette étape ultime de la désintermédiation est en train de transformer radicalement la finalité du Web.

Dans Technology Review, le journal du MIT, (Voir article) Rob Enderle, analyste chez Enderle Group, pense que la stratégie de Google est pertinente et qu'elle a toutes les chances de réussir en offrant une véritable alternative au modèle de Microsoft. "Pourquoi les gens continueraient-ils à payer de 150 à 500 dollars les logiciels bureautiques de Microsoft s'ils peuvent disposer d'un bureau virtuel en ligne, avec un espace de stockage suffisant et tous les logiciels de bureau dont ils ont réellement besoin ? se demande Enderle. Selon lui, la vraie question est : "Est-ce que Google parviendra à remplacer chez le consommateur l'utilisation d'Office par son modèle économique avant qu'Office lui-même n'accomplisse sa mutation vers une plate-forme de services bureautiques en ligne et à la carte ?"

"Avec Writely, Google a compris avant tout le monde que très peu de personnes ont besoin chez elles de toutes les fonctionnalités de bureau," souligne pour sa part T.J. Kang, patron de ThinkFree, une société qui propose des services bureautiques en ligne. Celui-ci ajoute "Je crois que les jours d'Office sont comptés et les initiatives de Google ne font qu'accélérer la fin du modèle Microsoft".

Enfin, le dernier exemple à plus long terme de ce que sera le Web 2.0 a été dévoilé récemment. Une alliance de groupes allemands regroupant le géant de l'électronique Siemens, DaimlerChrysler et l'institut berlinois Fraunhofer est en effet en train de développer un service d'information sur internet et ondes radio réagissant à la voix. Ce système permettra aux automobilistes de demander "où est la station service la moins chère des environs" ou bien "où puis-je trouver un restaurant grec" et d'obtenir une réponse via la radio. "Cela prendra probablement encore 10 ans avant qu'il soit lancé sur le marché mais ce sera un service que les conducteurs trouveront très séduisant" a déclaré Hans Ulrich Block, responsable de la division langage de Siemens. Dans ce cas précis il s'agit d'une application destinée aux automobilistes ou aux touristes qui cherchent un lieu précis ou une information mais un tel système est évidemment utilisable dans une multitude de domaines d'activités et l'on imagine les services qu'il pourrait rendre dans l'assistance aux personnes âgées ou handicapées et dans les domaines médicaux et sociaux.

Ce changement de nature du Net, son évolution vers la convivialité, les services personnalisés et l'humanisation, viennent de trouver une éclairante illustration dans la dernière étude réalisée par Pew Internet & American Life Project. Cette étude montre en effet que 40 millions d'américains surfent quotidiennement sur Internet "sans aucune raison précise", par pur divertissement. La baisse d'intérêt pour la lecture des livres et de la presse se voit donc compensée par l'attrait croissant pour la toile, aux dépens même de la télévision. Ce nombre considérable de "flâneurs" du web a été multiplié par deux en un an. La consultation des e-mails arrive en seconde place (52 % des internautes sondés) puis l'utilisation des moteurs de recherche (38 %) et enfin la lecture de l'actualité, avec 31 % des internautes.

Ce que confirme de manière saisissante cette étude, c'est la place centrale prise à présent par les blogs, forums de discussion et « chat » qui font du Web un véritable catalyseur social. Le Web n'est plus seulement considéré et utilisé comme un outil, répondant à des besoins précis, il est devenu une culture, une façon de vivre et une fin en soi, qui s'autoalimente. Dans une société atomisée, dominée par des valeurs d'individualisme et d'égoïsme, il est remarquable de constater que les internautes, qui se désintéressaient de plus en plus des questions et débats civiques, politiques, éthiques, sociaux, reprennent la parole sur le Web, redeviennent acteurs de la vie civique et collective et s'expriment avec une frénésie et une passion qui fait du Web le nouvel espace de construction démocratique et la nouvelle instance de régulation sociale et politique. Avec l'avènement du Web 2.0, on assiste peut-être à la naissance d'une nouvelle société qui pourrait fonctionner à partir d'un nouveau système de valeurs proche de celui qu'avait magistralement pressenti Ivan Illich, il y a plus de 30 ans dans son essai "La convivialité".

Pour ce grand penseur, L'outil technique doit juste répondre à trois exigences : il est générateur d'efficience sans dégrader l'autonomie personnelle, il ne suscite ni esclaves ni maîtres, il élargit le rayon d'action personnel. L'homme a besoin d'un outil avec lequel travailler, non d'un outillage qui travaille à sa place. Il a besoin d'une technologie qui tire le meilleur parti de l'énergie et de l'imagination personnelles, non d'une technologie qui l'asservisse et le programme. Le Web 2.0, qui naît sous nos yeux est peut-être en train d'accomplir l'utopie prévue par Illich en replaçant les dimensions personnelles, sociales et communautaires au centre des nouveaux modèles économiques et technologiques qui émergent.

Cette formation de nouvelles et puissantes communautés et solidarités sociales, culturelles et cognitives va-t-elle déboucher sur l'émergence d'un nouveau modèle de gouvernance démocratique ? Sans être naïf, et sans attribuer à la technologie des vertus démiurgiques, je crois que oui. Mais l'avenir n'en reste pas moins ouvert car personne ne peut dire aujourd'hui quel sera dans 20 ans l'impact réel de ce Web 2.0 naissant sur la nature et le fonctionnement de notre démocratie. Ce qui est certain en revanche, c'est que la généralisation rapide de ce Web 2.0 à échelle planétaire va profondément et irréversiblement modifier la nature et les formes d'exercice du pouvoir, qu'il soit économique, politique, social ou culturel.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un cyber espace dans une maison de retraite de Villeurbanne
Vendredi, 31/03/2006 - 00:00

Encore exceptionnels il y a deux ou trois ans, de nos jours, de plus en plus de maisons de retraite organisent au sein de leur établissement des espaces informatiques visant à ouvrir leurs résidents vers l'extérieur, à les initier aux nouvelles technologies et à rompre leur isolement par le biais d'activités multimédia. Dans cet esprit, la résidence logement foyer Gustave Prost, qui se trouve à Villeurbanne (69), propose depuis l'hiver 2005 un cyber espace à ses personnes âgées. Très clairement, l'objectif de ce logement foyer est d'animer un espace informatique dans un environnement convivial et de former les résidents à la pratique informatique. « La pratique et l'utilisation de ces nouvelles technologies de l'information et de la communication sont facteur de lutte contre le décalage culturel entre les générations. Ainsi l'utilisation des nouvelles technologies devient un nouvel outil de lien, le partage d'une pratique culturelle commune, un nouveau mode d'information et un support de dialogue, d'échange et un outil de communication » indique Mme Dominique Balanche, responsable de cet établissement.

L'histoire commence au cours de l'été 2005. A l'époque, une jeune étudiante a sensibilisé les résidents à l'outil informatique ainsi qu'à l'internet. Il en est ressorti que huit aînés ont désiré approfondir leur approche. Une initiation de deux mois a donc eu lieu fin 2005 et un poste informatique a été acheté en Janvier 2006. Huit autres résidents ont pu suivre une nouvelle initiation à l'informatique et l'établissement va bénéficier d'un deuxième ordinateur offert par la caisse Organic de la région Rhône Alpes. Un site internet intitulé « surf senior » va progressivement être mis en place et devrait être en ligne d'ici juin prochain.

Cet espace d'expression sera géré par six résidentes et devrait inclure l'animation d'un forum. Actuellement, selon Mme Balanche, cinq résidents pratiquent l'informatique au quotidien. Les supports utilisés sont Word pour l'écriture de texte, Excel pour la gestion du prêt de livres, des jeux, de la navigation sur le Net et une messagerie.

SA

Orange adopte une solution de géolocalisation des enfants
Vendredi, 31/03/2006 - 00:00

Les clients de l'opérateur peuvent désormais localiser le mobile de leur enfant via un service proposé par Illico.net, une start-up parisienne. La société française Ilico.net et Orange ont démarré en mars 2006 la commercialisation d'un service de géolocalisation des enfants via leur mobile. Ce système de «géocontrôle parental» repose sur un principe simple : l'adulte s'inscrit à un service en ligne, baptisé «ootay», et y enregistre les nom et coordonnées téléphoniques de son enfant.

Pour le localiser, il accède ensuite à son espace dédié sécurisé (identifiant et mot de passe), via le Net ou sur un mobile compatible Wap ou iMode. En cliquant sur le nom de l'enfant, une requête est envoyée sur le réseau mobile d'Orange pour repérer le téléphone. En réponse, le parent reçoit une carte indiquant le périmètre géographique où se situe le mobile. Ce périmètre est représenté par un cercle de couleur.

Le service fonctionne sur toute la France avec une précision de 50 à 150 mètres en ville, et de 150 mètres à 3 kilomètres en zone rurale. La technique utilisée est dite Cell-ID. Elle consiste à repérer l'antenne la plus proche du combiné puis à déduire la distance entre les deux équipements d'après la vitesse que mettent les données pour faire un aller-retour.

L'utilisateur ne paye pas d'abonnement mais achète des crédits de localisations. Il en coûte, par exemple, 4 euros pour cinq localisations. «Outre les enfants, ce système peut aussi fonctionner pour la localisation de personnes âgées», poursuit le responsable.

Lors de l'inscription au service, un SMS est envoyé à l'enfant afin qu'il donne son accord. Ensuite, chaque fois qu'il est localisé, il reçoit un SMS lui précisant par qui et quand l'opération a été effectuée. À l'inverse, l'envoi par l'enfant d'un SMS avec le mot «stop» à un numéro spécifique permet d'interrompre à tout moment le service.

OOtay

Nouveau record pour la fibre optique : 320 Go en une seconde !
Vendredi, 31/03/2006 - 00:00

L'institut allemand Fraunhofer revendique un nouveau record de largeur de bande passante réseau. Les chercheurs de l'institut ont réussi à atteindre un débit de 2,56 térabits par seconde correspondant au transfert de 320 gigaoctets de données en une seconde, sur une fibre de 160 kilomètres de long !

A titre de comparaison, 320 Go représentent plus de 60 DVD, ou plus de 420 CD. Cette expérience, menée en laboratoire, succède au précédent record établi par des chercheurs japonais, qui étaient parvenus à atteindre un débit de 1,28 térabit par seconde (soit 160 Go de données transférées en une seconde).

Comment sont-ils parvenus à faire deux fois mieux que le précédent record ? Il faut savoir que la fibre optique se présente comme un tube au sein duquel circulent des pulsations lumineuses, et que les données informatiques se résument à une série de "0" et de "1" (langage binaire). Un signal "allumé" correspond à l'envoi d'un "1", alors qu'un signal "éteint" correspond à un "0".

Les chercheurs de l'institut Fraunhofer ont réussi à stocker jusqu'à quatre données binaires dans une impulsion lumineuse, contre deux données dans les technologies précédentes : la bande passante totale se voit donc multipliée par deux.

Atelier

Le classement mondial annuel des technologies de l'information confirme l'avance de l'Europe du Nord... et le déclin de la France
Vendredi, 31/03/2006 - 00:00

Le dernier classement mondial du Forum Economique Mondial concernant les pays les plus avancés en matière de TIC confirme la suprématie des Etats-Unis, qui retrouvent leur première place. En seconde position, on retrouve sans surprise Singapour et on trouve ensuite cinq pays du Nord de l'Europe, parmi les 10 pays en tête de ce classement : le Danemark, l'Islande, la Finlande, la Suède et le Royaume Uni.

La Corée du Sud fait un bond de 10 places, passant de la 24ème à la 14ème place et devançant pour la première fois le Japon qui passe de la 8ème à la 16ème place. La France, pour sa part, régresse de la 20ème à la 22ème place et elle est à présent talonnée par l'Estonie, la Malaisie et le Portugal, qui poursuivent leur progression.

Classement 2005 du WEF

1 USA

2 Singapour

3 Danemark

4 Islande

5 Finlande

6 Canada

7 Taiwan

8 Suède

9 Suisse

10 Royaume Uni

11 Hong Kong

12 Pays Bas

13 Norvège

14 Corée du Sud

15 Australie

16 Japon

17 Allemagne

18 Autriche

19 Israël

20 Irlande

21 Nouvelle Zélande

22 France

23 Estonie

24 Malaisie

25 Belgique

26 Luxembourg

27 Portugal

28 Emirats Arabes Unis

29 Chili

30 Malte

WEF

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : un prototype de robot aide-soignant pour personnes âgées
Vendredi, 31/03/2006 - 00:00

Des chercheurs de l'institut de recherches scientifiques japonais Riken ont annoncé avoir mis au point un prototype de robot destiné à s'occuper de personnes âgées ou malades. Baptisé Ri-Man, ce robot à roulettes muni de deux bras peut soulever et déplacer un mannequin de douze kilogrammes en ajustant sa force et ses gestes grâce à des capteurs sensoriels positionnés le long de ses membres. En théorie, il peut porter une masse de trente-cinq kilogrammes.

Les chercheurs souhaitent développer dans les cinq années à venir un robot capable de soulever un corps de soixante-dix kilogrammes. "Nous espérons que nos recherches pourront un jour être utiles à l'assistance aux personnes âgées", a précisé l'un des directeurs de recherche chargés de ce projet, Toshiaru Mukai.

Ri-Man pèse quelque cent kilos et mesure 1,58 mètre de haut. Ses bras sont recouverts d'une texture en silicone de cinq millimètres afin d'adoucir le contact avec un humain. Des micros en guise d'oreilles lui donnent l'habilité d'analyser la provenance d'un son, et des capteurs olfactifs de reconnaître huit types d'odeurs. "Nous voudrions aussi mettre au point un dispositif pour que le robot puisse juger de l'état de santé d'une personne en fonction de sa respiration", a expliqué M. Mukai.

Les nombreux chercheurs en robotique japonais sont fortement incités par le gouvernement à développer des êtres artificiels pour subvenir aux besoins d'une population vieillissante, en prévision d'une pénurie de personnels de soin. Plus d'un Japonais sur cinq est actuellement âgé de plus de 65 ans, et la proportion va continuer à croître dans les décennies à venir.

Institut Riken

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Sous l'effet du réchauffement climatique, le niveau des mers pourrait monter de plusieurs mètres d'ici 2100 !
Vendredi, 31/03/2006 - 00:00

Jusqu'à présent, il était généralement admis que le réchauffement climatique, et la fonte des glaces qui en résulte, risquait d'élever le niveau des mers de 20 à 90 cm d'ici 2100. Mais de nouvelles études viennent de remettre en cause ces prévisions déjà alarmantes et montrent que la fonte des glaciers arctiques et antarctiques, résultant du réchauffement climatique, pourrait accélérer la vitesse de la montée du niveau des mers, ce dernier risquant de grimper de plusieurs mètres d'ici la fin du 21e siècle. Un tel scénario repousserait un demi-milliard de personnes vers l'intérieur des terres, loin des côtes inondées. Des pays entiers comme les Pays-Bas, le Bangladesh et de nombreuses îles du Pacifique pourraient être rayés de la carte.

Ces prévisions catastrophiques sont révélées par deux études publiées par la prestigieuse revue "Science" aux Etats-Unis, confirmant d'autres recherches récentes. Ces travaux, conduits par le Centre national de recherche atmosphèrique (NCAR) et l'Université d'Arizona (sud ouest), s'appuient sur des simulations informatiques incluant des données anciennes et montrent que les étés arctiques pourraient être aussi chauds d'ici 2.100 qu'ils ne l'étaient il y a 130.000 ans, la dernière période prolongée de réchauffement terrestre. Les mers se trouvaient alors au moins six mètres au-dessus de leur niveau actuel.

Le glaciologue Bette Otto-Bliesner du NCAR (National Center for Atmospheric Research) et son confrère Jonathan Overpeck de l'université d'Arizona, ont basé leurs simulations sur des données provenant de coraux fossilisés, de carottes de glace et d'autres informations paléo climatiques. Ils ont pu ainsi tester l'exactitude de leur modèle informatique de projection climatique sur un siècle en l'appliquant sur la dernière période de réchauffement du climat. "Ces calottes glaciaires aux pôles ont déjà fondu dans un passé lointain faisant fortement monter le niveau des océans avec des températures qui étaient alors pas beaucoup plus élevées que celles d'aujourd'hui", a souligné Bette Otto-Bliesner.

Les deux études montrent que l'accumulation des gaz à effet de serre, principalement du gaz carbonique (C02), pourrait faire monter les températures estivales dans l'Arctique de 3 à 5 degrés Celsius (5-8 degrés Fahrenheit). Avec une telle hausse du thermomètre, les températures seront alors quasiment aussi chaudes à la fin du siècle pendant l'été arctique qu'il y a 130.000 ans, la dernière période chaude entre la précédente et la dernière ère glaciaire. Ce réchauffement, provoqué alors par une variation de l'axe de rotation et de l'orbite terrestre, a été mesuré avec exactitude par le modèle ordinateur ce qui accroît la confiance sur l'exactitude des projections sur les cent prochaines années, ont souligné les chercheurs.

Selon ce modèle dit "Community Climate System Model" ou CCSM, la fonte des glaces du Groenland et d'autres sources arctiques a fait grimper le niveau des océans de 3,5 mètres, a expliqué le glaciologue Otto-Bliesner. Mais les indices laissés par les coraux indiquent que le niveau a monté de 4 à 6 mètres, voire davantage, ce qui s'explique par la fonte des glaciers de l'antarctique. Les sédiments de squelettes d'organismes marins microscopiques découverts sous ces glaciers indiquent qu'une partie de la glace de l'antarctique a disparu pendant une certaine période lors des quelques centaines de milliers d'années, ont relevé ces chercheurs.

Selon Jonathan Overpeck, la forte montée du niveau des océans pourrait avoir déstabilisé les glaciers de l'antarctique et provoqué leur désintégration. Si le même phénomène se produisait aujourd'hui, il serait précipité par le réchauffement climatique, a-t-il estimé. Au cours des dernières années, le niveau des mers a commencé à monter plus rapidement. Il est passé de moins de 2 millimètres (mm) par an au 20e siècle à 2,5 mm/an actuellement et pourrait atteindre 3,5 mm d'ici 2100.

"Je pense que le rythme et l'amplitude de la montée des océans va continuer à s'accélérer" a par ailleurs déclaré lors d'une conférence de presse Bob Bindschadler, glaciologue de la Nasa au "Goddard Space Flight Center". Selon lui, "le plus préoccupant" est la fonte et la désintégration du socle des glaciers de l'antarctique sous l'effet de la montée de la température de l'océan qui se produit en continu toute l'année, pas seulement l'été.

Selon Michael Oppenheimer, de l'université Princeton, qui n'a pas participé aux recherches, celles-ci montrent que même "un réchauffement modeste pourrait exposer la Terre à une hausse majeure du niveau de la mer". Une troisième étude menée par Goeran Ekstroem, de l'université de Harvard, fait état d'une augmentation du nombre des "séismes de glace" au Groenland, qui se produisent lorsque des glaciers géants se déplacent. Des mouvements facilités par la présence d'eau fondue à la base des blocs de glace, qui agit comme lubrifiant. L'équipe dirigée par M. Ekstroem rapporte que ces tremblements de terre se produisent plus souvent en juillet et août, et ont plus que doublé de fréquence depuis 2002.

"On pense souvent que les glaciers sont des masses inertes se déplaçant lentement, mais ils peuvent aussi bouger assez rapidement", souligne M. Ekstroem. "Certains glaciers du Groenland aussi grands que Manhattan (59 kilomètres carrés) et aussi hauts que l'Empire State Building (448 mètres), peuvent parcourir dix mètres en moins d'une minute, ce qui suffit à générer des ondes sismiques modérées." "Nos résultats indiquent que ces glaciers peuvent répondre aux changements climatiques beaucoup plus vite que nous le pensions", souligne de son côté Meredith Nettles, de l'université de Columbia.

Science

BBC

Carte dynamique du niveau des mers

Réchauffement des océans et ouragans : le lien se confirme
Vendredi, 31/03/2006 - 00:00

L'augmentation de la surface des océans est la principale cause de l'intensification des ouragans depuis 35 ans, selon une nouvelle étude publiée dans la revue Science. La saison record qui a touché l'Atlantique nord en 2005, avec 27 tempêtes enregistrées dont 13 ouragans, a placé au premier plan ce débat sur le lien entre réchauffement climatique et cyclones. Le lien entre température de l'eau et intensité d'une tempête est a priori évident puisque l'eau chaude alimente la tempête. Cependant d'autres éléments importants contribuent à la formation d'une tempête tropicale et à son évolution. Tous les experts se sont donc pas d'accord pour établir un lien de cause à effet entre réchauffement des températures et intensification des ouragans.

L'équipe de Carlos Hoyos et Judith Curry, du Georgia Institute of Technology d'Atlanta, a tenté d'isoler le facteur influençant le plus l'intensité des ouragans. Pour cela les chercheurs ont analysé des données concernant l'Atlantique, le Pacifique et l'Océan indien de 1970 à 2004. Plusieurs facteurs étant en concurrence : la température de l'eau, l'humidité dans les couches basses de l'atmosphère ou encore les cisaillements verticaux du vent -des changements brusques de direction ou de vitesse du vent qui affecte la convection à l'intérieur du cyclone. Des facteurs comme les cisaillements du vent jouent un rôle important à l'échelle d'un ouragan, expliquent Hoyos et Curry, mais sur la durée c'est la température de l'eau qui est corrélée à l'intensité des ouragans ou des cyclones. Ils publient ces résultats dans l'édition électronique avancée de la revue Science.

Science

Une poudre pour éviter l'évaporation des réserves d'eau
Vendredi, 31/03/2006 - 00:00

La poudre de l'entreprise brésilienne Lotus Quimica Ambiental n'est pas encore sur le marché, mais elle pourrait, à partir de 2007, soulager la soif de ceux qui manquent d'eau. Un thème abordé au 4e Forum mondial de l'eau qui s'est déroulé du 16 au 22 mars à Mexico.

Des tests, déjà concluants, ont démontré que cette poudre composée de tensio-actifs et de calcium a le pouvoir, lorsqu'elle est déposée à la surface de l'eau, de ralentir son évaporation. Une caractéristique particulièrement intéressante dans des régions comme le Nordeste brésilien, semi-aride, où les rayons du soleil provoquent l'assèchement de 40 % des eaux de pluie accumulées dans des réservoirs de fortune, les açudes, creusés dans la terre. Les expériences réalisées notamment au barrage du Broa dans l'Etat de Sao Paulo ont prouvé que la fine pellicule de poudre formée en surface réduit l'évaporation de moitié.

En 48 heures, cette substance se dissout naturellement, et doit être à nouveau répandue, au prix de 8 euros le kilo par hectare. La nature de l'eau ne change pas : sale, elle le reste, potable aussi. Les poissons ne souffrent pas, car le produit n'est pas toxique. Il est simple à répandre, manuellement, et sa composition permet un emballage et un transport facile. Aujourd'hui, cet ingénieur veut réaliser d'ultimes tests, sur des lacs de 80 à 100 km2, pour évaluer l'efficacité sur de grandes surfaces, en attendant la délivrance de son brevet. Contacté par plusieurs entreprises, M. Gugliotti cherche désormais à conclure un accord de partenariat industriel pour produire et exporter, dans des zones très fortement ensoleillées, son réducteur d'évaporation d'eau. Lui veut juste rester chercheur, et espère que cette poudre pourra l'aider à financer d'autres projets pour son laboratoire.

LM

La Grande-Bretagne mise sur l'énergie éolienne
Vendredi, 31/03/2006 - 00:00

Un nouveau rapport gouvernemental britannique indique que la Grande-Bretagne est en avance sur son plan de développement de l'énergie éolienne. Selon ce rapport, les parc éoliens terrestres seront en mesure d'assurer dès 2010 à la Grande-Bretagne 3000 MW de puissance, soit 5 % de l'ensemble de sa consommation électrique, l'objectif final étant, pour l'instant, de produire 10 % de l'électricité anglaise grâce aux énergies renouvelables d'ici 2010.

Le porte-parole du Gouvernement anglais a souligné que "L'énergie éolienne terrestre devait jouer un rôle majeur dans la promotion des énergies renouvelables et la lutte contre le réchauffement du climat ». Il a en outre insisté sur l'impact positif, pour l'emploi et l'économie, du développement de l'énergie éolienne.

Un récente enquête d'opinion du « Guardian » a montré que 70 % de la population britannique approuvait la construction de parcs éoliens à proximité de chez eux. La Grande-Bretagne a également l'intention de développer ses parcs éoliens en mer, en dépit d'un coût de construction plus élevé et d'intensifier ses recherches pour mieux exploiter l'énergie des mers, des vagues et des marées.

BBC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Sclérose en plaques : une maladie mieux comprise, des espoirs thérapeutiques
Vendredi, 31/03/2006 - 00:00

En France, on compte 60.000 patients atteints de sclérose en plaques (SEP), une maladie neurologique caractérisée par des lésions disséminées du cerveau et/ou de la moelle épinière. Les progrès enregistrés ces dernières années dans le domaine de la recherche ont permis de mieux comprendre ses mécanismes et de mettre au point de nouveaux traitements. Autant d'avancées présentées à l'occasion du congrès de l'Association pour la recherche sur la sclérose en plaques (ARSEP) qui vient de s'achever à Paris. "La SEP est la seconde cause de handicap acquis du jeune adulte après les accidents de la route. Elle débute entre 20 et 30 ans dans 80 % des cas et touche plus volontiers les femmes (deux femmes pour un homme)", a déclaré le Pr Catherine Lubetzki, neurologue à l'hôpital de la Pitié-Salpétrière et présidente du comité médico-scientifique de l'ARSEP.

"C'est une maladie chronique dont l'évolution et la gravité sont imprévisibles pour un individu donné. On sait toutefois que pour la moitié des patients, une aide à la marche est nécessaire en permanence après 10 à 15 ans d'évolution", a-t-elle précisé.

Ce sont les mécanismes qui permettent à une cellule du système immunitaire présente dans le sang, le lymphocyte, d'être activé (processus inflammatoire) et de pénétrer dans le système nerveux central pour y proliférer et détruire l'enveloppe de protection du nerf, la gaine de myéline, qui sont aujourd'hui mieux compris. "On dissèque mieux tous les mécanismes qui sous-tendent ces différentes étapes. On identifie notamment mieux toutes les molécules impliquées, chacune d'elles représentant une cible thérapeutique potentielle", souligne Catherine Lubetzki.

Une trentaine d'essais thérapeutiques, internationaux pour la plupart, sont actuellement en cours. Parmi les nouvelles molécules, citons le Tysabri, un anticorps qui bloque l'entrée du lymphocyte dans le système nerveux central. Parallèlement à ces avancées thérapeutiques qui ciblent le processus inflammatoire, la recherche s'oriente vers la réparation des lésions du système nerveux central.

AP

Vers un test sanguin pour dépister la maladie d'Alzheimer
Vendredi, 31/03/2006 - 00:00

Le Dr Neil Cashman, qui travaille au Strong Rehabilitation Hospital de Vancouver (Canada), a annoncé avoir mis au point le premier test sanguin capable de détecter l'Alzheimer et d'autres maladies de dégénérescence du cerveau. Le Dr Cashman, un expert international en maladies neurodégénératives, affirme que ce test, développé par la firme canadienne Amorfix sera disponible d'ici un an ou deux. Le test sanguin du Dr Cashman détecte les accumulations de protéines anormales qui révèlent la présence de ces maladies. L'Alzheimer est caractérisé par l'accumulation de protéines amyloïdes dans le cerveau. Elles forment des plaques, dont certains fragments peuvent ensuite se retrouver dans le sang. Le test a pour but de détecter ces fragments qui circulent dans les vaisseaux sanguins.

Actuellement, le dépistage de l'Alzheimer est complexe et pas toujours fiable. Les médecins doivent en effet se fier à des techniques non biologiques comme les tests cognitifs ou encore les tests de mémoire. L'analyse élaborée par le Dr Cashman se voudra aussi une alternative aux ponctions lombaires utilisées pour détecter plusieurs maladies dégénératives du cerveau. En plus d'être douloureuses, les ponctions lombaires ont le désavantage de ne pouvoir confirmer à 100 % le diagnostic. On doit en effet attendre que le patient soit mort et qu'une biopsie de son cerveau soit pratiquée. Outre l'Alzheimer, le test pourra également déceler d'autres maladies de dégénérescence du cerveau.

Il pourra ainsi être utilisé pour détecter les protéines infectieuses responsables de l'encéphalopathie spongiforme bovine, la maladie de la vache folle, et sa variante humaine, la maladie de Creutzfeldt-Jakob. Il pourra aussi détecter le parkinson ainsi que la maladie de Lou Gehrig. Le mois dernier, la compagnie Amorfix, basée à Toronto a obtenu l'approbation de l'agence canadienne de santé publique pour travailler sur la protéine de la maladie de la vache folle. C'est le premier laboratoire privé en Amérique du Nord qui obtient l'autorisation de travailler simultanément sur les formes humaines et animales du prion.

RC

Vancouver Sun

Identification d'un marqueur alimentaire du cancer du sein
Vendredi, 31/03/2006 - 00:00

Des chercheurs français annoncent avoir identifié une population de femmes à risque de cancer du sein, en étudiant l'ensemble des graisses (lipides) de leur tissu adipeux. Leurs travaux sont publiés dans la revue "Cancer Epidemiology Biomarkers & Prevention". Si leurs résultats sont confirmés par d'autres équipes, les chercheurs estiment qu'en rééquilibrant le régime alimentaire, il sera possible de retarder l'apparition d'un cancer du sein. "Nous avons identifié la part alimentaire du risque de cancer du sein", a déclaré Philippe Bougnoux (Equipe Inserm 211 "Nutrition, croissance et cancer, Tours). "Nos cellules vieillissent. Mais on peut retarder le vieillissement par des mesures hygiéniques. Pour le cancer du sein aussi".

Trois cent vingt-neuf femmes présentant une tumeur du sein ont été suivies lors de cette étude. De l'analyse de leur tissu adipeux, il apparaît que la diminution du risque de cancer du sein est associée à un faible rapport entre les taux d'acides gras polyinsaturés oméga 6 et oméga 3 en présence d'un taux élevé d'acides gras monoinsaturés. "Un unique acide gras ne peut, à lui seul, être considéré comme un biomarqueur indépendant de risque de cancer du sein", souligne Philippe Bougnoux. "C'est la prise en compte de l'ensemble de ces lipides (oméga 3, oméga 6 et acides gras monoinsaturés) et de leurs interactions qui est importante".

Si les enquêtes cancer/alimentation ont mis en évidence des profils alimentaires protecteurs (plus de fruits, légumes, poisson, moins de viandes rouges, moins de calories, moins de lipides), ces travaux analysent comment l'équilibre de certains nutriments (les acides gras du tissu adipeux) peut rendre compte des profils alimentaires protecteurs. En conclusion, les chercheurs estiment qu'il est nécessaire, pour valider l'existence d'un lien éventuel entre la présence de ce facteur de risque (mauvais équilibre entre ces différentes graisses) et l'apparition d'un cancer, de mener, en parallèle, des études expérimentales sur l'animal et l'homme.

CEB&P

Une nouvelle thérapie dans le traitement de l'arthrite rhumatoïde
Vendredi, 31/03/2006 - 00:00

Des chirurgiens orthopédiques de Düsseldorf ont découvert une nouvelle classe de composés biologiques pour le traitement de l'arthrite rhumatoïde (AR). Ces composés sont appelés : "exosomes anti-inflammatoires". Ces médecins ont ainsi traité avec succès 66 patients chez lesquels les traitements traditionnels n'avaient donne aucun résultat. L'AR est un désordre sévère du système immunitaire conduisant à une inflammation des articulations. Le système immunitaire attaque le cartilages des articulations ainsi que les cellules des tissus conjonctifs menant peu à peu à la destruction des articulations. Les exosomes, quant à eux, sont des particules cellulaires issues des leucocytes jouant un rôle important dans la régulation du système immunitaire. Ils aident ainsi le système immunitaire à regagner ses fonctions de contrôle et de régulation.

Apres une injection unique d'exosomes dans les articulations les plus touchées, le Dr.Peter Wehling a constaté un bienfait thérapeutique rapide et significatif chez deux tiers des 66 patients. Cette amélioration de l'état de santé des patients a duré, en moyenne, entre 3 et 6 mois après l'injection à la suite desquels une nouvelle injection a été pratiquée. Des diminutions significatives de la douleur et du gonflement au niveau des articulations ainsi que des marqueurs de l'inflammation (CRP, vitesse de sédimentation) ont été observées cliniquement. Le traitement a été répété dès que les conditions de santé des patients se dégradaient et chaque nouvelle injection a donné les mêmes résultats positifs.

BE

Une faible baisse du cholestérol réduit fortement le risque cardiaque
Vendredi, 31/03/2006 - 00:00

Une diminution même modeste, mais durable, du taux de cholestérol, réduit fortement le risque de maladie cardio-vasculaire, selon une étude génétique récemment publiée aux Etats-Unis. Cette recherche conduite sur plus de 12.000 personnes blanches et noires, a montré qu'une réduction de seulement 15 % du taux de cholestérol dit LDL (lipoprotéine) maintenue sur une longue période peut faire baisser très fortement le risque de maladie coronarienne, indiquent des chercheurs américains dont les travaux paraissent dans le New England Journal Of Medicine datée du 23 mars 2006.

Cette diminution du LDL peut facilement être obtenue en prenant de faibles doses de médicaments à base de statines comme le Lipitor, soulignent-ils. Cette étude confirme qu'une réduction modérée du cholestérol a des effets protecteurs même pour les personnes ayant d'autres facteurs de risques cardiovasculaires importants comme le fait de fumer. "Cette étude montre surtout qu'un plus bas niveau de LDL a eu un effet spectaculaire sur l'incidence d'accidents coronariens pendant une période de 15 ans", a souligné le Dr. Helen Hobbs, du "Howard Hughes Medical Institute" de l'université du Sud Texas qui a conduit cette recherche avec un groupe de chercheurs.

L'étude a été conduite "sur des personnes vivant aux mêmes endroits, sujettes à la même intensité de stress et partageant les mêmes risques majeurs de maladies cardiovasculaires comme l'hypertension, le diabète et le fait de fumer", a-t-elle ajouté. Le Dr. Alan Tall, professeur de médecine à l'université Columbia à New York, écrit dans un éditorial du New England Journal of Medicine que, selon les conclusions de cette recherche, "une réduction d'1 % du cholestérol LDL durant le cours de la vie se traduit par une baisse de plus de 2 % du risque de maladie cardiovasculaire".

NEJM

Fumer trois joints équivaut à fumer un paquet de cigarettes
Vendredi, 31/03/2006 - 00:00

La conclusion à laquelle est arrivée le mensuel de l'Institut national de la consommation (INC), 60 millions de consommateurs, étonnera les fumeurs de cannabis, qui se croyaient jusqu'à présent préservés des effets nocifs du tabac. La fumée de cannabis contient « sept fois plus de goudrons et monoxyde de carbone (CO) que celle du tabac », souligne le magazine. L'INC précise avoir « collaboré avec la Mission interministérielle de lutte contre la drogue et la toxicomanie (Mildt) qui a procuré la matière première » et qu'il « a dû obtenir toutes les autorisations pour transporter et détenir les substances nécessaires». Ce test a été fait à partir d'herbe de cannabis et de résine. Pour ce faire, l'INC « a confectionné 280 joints ».

Le mensuel s'est servi d'une machine à fumer pour faire ce test dont le but était de comparer les teneurs en nicotine, goudrons, monoxyde de carbone, benzène et toluène dans les fumées principales de joints de cannabis et de tabac. Le joint de résine et tabac fait inhaler deux fois plus de benzène et trois fois plus de toluène. Même avec un joint d'herbe pure, les quantités de goudrons et de CO dépassent celle d'une cigarette, d'après les mesures. Le mensuel a pris la « Marlboro rouge, la cigarette la plus fumée » comme point de comparaison. « Le cannabis est de loin la drogue illicite la plus consommée en France », souligne le magazine. « Fumer trois joints tous les jours - ce qui devient fréquent- fait courir les mêmes risques de cancers ou de maladies cardio-vasculaires que fumer un paquet de cigarettes », assène le mensuel.

Outre les mesures selon la norme internationale «Iso» prévue pour le tabac, des analyses ont été faites, avec filtre de carton, « selon des paramètres plus proches des conditions réelles » de consommation. « Les teneurs sont plus élevées que celles du fumage selon la norme Iso : deux fois plus environ pour la nicotine et les goudrons, trois fois plus pour le CO », relève le mensuel. En 2005, le nombre de fumeurs de tabac et de buveurs d'alcool a diminué tandis que le nombre d'adeptes du cannabis a augmenté : 31 % des personnes âgées de 15 à 64 ans déclarent en avoir consommé au cours de leur vie. Ils n'étaient que 25 % en 2000.

Figaro

Les cancers professionnels largement sous évalués
Vendredi, 31/03/2006 - 00:00

A pulvériser trop souvent ses plantes vertes, la ménagère s'expose à un cancer du cerveau. C'est, en raccourci, la conclusion d'une nouvelle étude sur les facteurs qui augmentent le risque de développer cette maladie, rare mais en progression constante. Celle-ci provoque en effet deux fois plus de décès qu'il y a vingt ans, avec 3 168 morts recensées en 2000. Au départ, le Dr Isabelle Baldi, chercheuse à l'université de Bordeaux, s'intéresse au rôle des pesticides agricoles. Elle compare l'activité professionnelle et les habitudes de vie de 221 personnes atteintes d'une tumeur cérébrale et de 442 sujets indemnes.

Les statistiques révèlent que les agriculteurs particulièrement impliqués dans le traitement des cultures ont un risque 2,6 fois plus élevé d'être atteints de la maladie. Ainsi que les personnes qui pulvérisent leurs plantes d'intérieur.

Le phénomène provoque 15 000 décès par an, soit trois fois plus que les accidents de la route. Pour mettre fin à l'hécatombe, les scientifiques cherchent à repérer de façon exhaustive, dans les différents métiers, les concentrations anormales de malades. Le premier cancer professionnel à avoir ainsi été identifié fut, en 1775, à Londres, celui de la peau des testicules - le scrotum - qui se déclarait chez les petits ramoneurs. Deux siècles plus tard, les progrès de la recherche ont permis de mettre en cause le benzopyrène, un goudron contenu dans la suie des cheminées.

Express

Faire exploser les cellules cancéreuses avec des nanobombes !
Vendredi, 31/03/2006 - 00:00

Un chapelet de bombes pour vaincre le cancer. Il n'y avait que les Américains pour penser à une méthode aussi... radicale. En l'occurrence, cette stratégie a germé dans la cervelle d'un professeur assistant de l'université du Delaware, Balaji Panchakesan. Spécialiste des nanotubes de carbone, il a découvert par hasard que ceux-ci explosaient lorsqu'ils étaient soumis à un rayon laser. Mais à condition qu'ils soient agglutinés en grappes, pour que la chaleur subite produite par le rayonnement ne pouvant s'échapper provoque l'éclatement de ces microscopiques structures d'atomes de carbone.

Ce comportement explosif donne alors une idée au jeune scientifique : pourquoi ne pas provoquer ces mini-explosions dans les cellules cancéreuses pour les détruire de façon ciblée ? De prime abord, la méthode semble géniale, car la frappe est chirurgicale : à condition d'introduire ces nanobombes dans les seules cellules malades, elles seules sont éliminées. Aucun effet secondaire de la chimiothérapie ! Evacuation immédiate des débris de cellules et de carbone par les macrophages ! Mais le traitement est encore loin d'être au point. Plusieurs années sont nécessaires pour que l'arme astucieuse de Panchakesan fasse partie de l'arsenal militaire des chirurgiens.

LP

Une "neuro-puce" pour communiquer avec le cerveau
Vendredi, 31/03/2006 - 00:00

Une "neuro-puce", capable de communiquer avec les cellules de cerveau a été développée par une équipe de recherche germano-italienne. La puce est capable de recevoir des signaux de plus de 16.000 neurones du cerveau, et peut également envoyer des signaux à plusieurs centaines de cellules cérébrales. Les chercheurs allemands et italiens ont travaillé avec le fabricant de puces Infineon pour intégrer 16.384 transistors et des centaines de condensateurs sur une puce expérimentale de seulement 1mm carré.

Une fois reliés aux neurones, les transistors peuvent recevoir des signaux électriques de ces derniers. Dans l'autre sens, les condensateurs peuvent envoyer des signaux décodables par les neurones. Les transistors et les condensateurs utilisent la différence de concentration ionique des ions de sodium entre l'intérieur et l'extérieur des cellules nerveuses pour recevoir ou émettre des signaux électriques. Les chercheurs ont commencé les expérimentations sur des cellules de cerveau d'escargot avant de passer aux neurones de rat. " Les expérimentations sont plus délicates sur les neurones des mammifères, parce qu'ils sont plus petits et plus complexes," souligne Stefano Vassanellia, biologiste à l'université de Padoue.

Les chercheurs sont parvenus à modifier les neurones eux-mêmes pour améliorer les interconnexions entre cellules et puces. Ils ont notamment génétiquement modifié les neurones et modifié les protéines reliant des neurones dans le cerveau de façon à disposer de canaux supplémentaires de sodium pour communiquer avec les transistors et les condensateurs. Selon Vassanelli, ces recherches devraient permettre de mieux comprendre le fonctionnement des neurones mais également de concevoir des systèmes et interfaces neuroniques qui permettront un jour d'associer mémoires et composants biologiques et électroniques.

NS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un nouveau logiciel permet d'améliorer la fluidité du trafic dans les petites villes
Vendredi, 31/03/2006 - 00:00

Le logiciel "TraSimGo" est un nouvel outil informatique qui permet de modéliser le trafic urbain. Conçu par un groupe de chercheurs de l'institut d'informatique de gestion de l'université Georg-August (Allemagne), il s'adresse particulièrement aux petites villes et communes qui veulent apporter plus de transparence et de fluidité à leur système de transport. Selon le Professeur Biethahn, chef du projet, la compréhension d'un système de transport peut être grandement accrue par l'utilisation de simulations informatiques. L'outil développé permet aux planificateurs de tester différentes configurations, ce qui permet d'améliorer l'efficacité du système et la fluidité du trafic. Chaque ville possède des infrastructures de transports et une distribution du trafic qui lui sont propres. En conséquence, il n'existe pas de solution standard aux problèmes de routage et de contrôle du trafic. Le programme TraSimGo propose un cadre flexible qui s'adaptera facilement à des situations concrètes. Ainsi, le logiciel a été testé avec succès sur un ensemble d'intersections de la ville de Gottingen.

BE Allemagne

UG

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top