RTFlash

RTFLASH Recherche & Technologie
NUMERO 587
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Mars 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
1 Tbit/s : record explosé pour les puces photoniques
Le premier campus numérique d'Europe est en Bretagne
Applications composites, futur des administrations publiques ?
Fibre optique : vers une fracture numérique ?
Des chercheurs bordelais veulent mettre l'ADN dans les smartphones
Avenir
PAL : des solutions robotiques au service des seniors à coûts raisonnables
Nao, le robot humanoïde, est devenu la mascotte du lycée
Ces robots entrent dans nos maisons
Les progrés de la bionique et de la neuronique changent la vie des handicapés
Matière
Recharger sa voiture électrique à l'aide d'une ombrière photovoltaïque, une première !
La "pellicule laser" la plus rapide du monde rend visibles des processus nanométriques ultra-rapides
Un circuit imprimé en nanotubes de carbone
L'hythane, carburant du futur ?
Récupérer les calories issues des eaux usées : une voie prometteuse
Espace
Le satellite TARANIS va étudier la foudre
50 milliards de planètes dans la Voie lactée !
Terre
L’hiver extrêmement froid dans le Midwest américain lié au réchauffement climatique ?
Volcans : les chambres magmatiques plus promptes à se réveiller que prévu
Les coraux disparaîtraient d'ici 40 ans
Vivant
La découverte d'un «interrupteur général» des globules blancs pourrait faciliter le traitement de l'arthrite rhumatoïde
La pollution atmosphérique très mauvaise pour le coeur
La consommation modérée d'alcool bonne pour le coeur
Le cerveau serait synonyme de «machine à tâches»
Les tortues sont les animaux les plus menacés d'extinction
Les étonnantes propriétés des toiles d'araignées enfin expliquées
Diagnostiquer la dyslexie grâce à l'imagerie cérébrale
Cancer : de nouvelles avancées en 2011
Des connaissances nouvelles sur le ribosome pourraient permettre l’apparition d’antibiotiques nouveaux
Le régime végétalien pourrait accroître les risques de maladies cardio-vasculaires
Grippe : bientôt des vaccins sans oeufs
Recherche
Cybergo : un véhicule électrique intelligent
Les modèles à pile à combustible pas plus chers que les hybrides diesels en 2015 selon Mercedes
Edito
"Watson", ultime étape avant l'ordinateur intelligent ?



Le génial mathématicien Alan Turing (1912- 1954) est l'un des pères de l'informatique moderne et avait imaginé, dès 1936, sa fameuse "machine de Turing, concept mathématique utilisant le calcul binaire  et les algorithmes qui a permis la naissance de l'ordinateur dans les années 40. En 1950, Turing imaginait un  test portant son nom dans une publication célèbre "Computing machinery and intelligence" . Ce test consiste à faire converser simultanément un être humain avec un autre être humain et avec un ordinateur à l’aveugle. Si l’homme qui dialogue n’est pas capable de dire qui est l’ordinateur et qui est l’autre homme, on peut alors dire que la machine a passé le test avec succès. 

Pour Turing, il ne faisait aucun doute que les ordinateurs seraient un jour capables de passer le test. Quand ? Selon Turing, en l’an 2000 des machines avec 128 Mo de mémoire seraient capables de tromper un tiers des juges humains durant un test de 5 minutes. 

Turing aurait sans doute été étonné de constater que ses prévisions venaient de se réaliser avec "Watson", le superordinateur d'IBM. Celui-ci vient en effet de remporter aux Etats-Unis, après trois jours de compétition, une victoire nette et sans appel au "Jeopardy", un jeu télévisé très populaire outre Atlantique qui consiste à trouver une question à partir d'une réponse, constituée de mots clés et d'indices délivrés par le présentateur. 

"Watson" a gagné haut la main la finale de ce jeu avec 77.147 dollars contre 24.000 et 21.600 dollars à ses redoutables adversaires humains,  Ken Jennings et Brad Rutter, qui comptaient plus de 100 victoires consécutives à eux deux.

Il est vrai qu'IBM, dont la réputation était en jeu, n'avait pas lésiné sur la préparation minutieuse de cette finale hors norme, tant sur le plan matériel que logiciel. "Watson", qui repose sur un système d'exploitation GNU-Linux, fait partie des 100 machines les plus puissantes du monde. Il est composé de 10 racks contenant chacun 9 serveurs Power 750 montés en réseau. Chaque serveur, dont la valeur se chiffre à environ 300 000 dollars, possède 32 coeurs qui peuvent gérer un total de 128 tâches en parallèle. L'ordinateur dans son ensemble compte 2 880 coeurs, peut effectuer 11 520 tâches en parallèle, possède une mémoire vive de 15 000 gigaoctets (Go) et une puissance totale de 80 téraflops. À titre comparatif, Deep-Blue, qui a vaincu Kasparov aux échecs en 1996, avait une puissance totale de 1 téraflop (avec un téraflop de puissance, un ordinateur peut effectuer mille milliards d'opérations à la seconde).

Mais c'est incontestablement sur le plan de la programmation qu'IBM s'est surpassé. Ses chercheurs ont travaillé sur ce projet depuis quatre ans et ont développé une suite logicielle baptisée "IBM DeepQA" qui, comme le souligne son concepteur, « est capable d’analyser dans un contexte hautement ambigu le langage et les connaissances humaines". Ce qui a permis à "Watson" de gagner c'est sa capacité, après un "entraînement intensif" pour maîtriser toutes les finesses de ce jeu, d’association et de compréhension de mots et de concepts dans un contexte sémantique changeant et subtil.

Le jeu Jeopardy existe depuis 1964 à la télévision américaine et fait appel aux connaissances des joueurs dans de multiples domaines qui vont de la géographie à la politique en passant par l'art, la littérature et le sport. La spécificité de ce jeu est de proposer des réponses, pour lesquelles les joueurs doivent formuler la question correspondante.

Pour ne pas se noyer dans son immense base de données et être capable de trouver puis d'associer les informations nécessaires, "Watson" utilise ce qu'IBM appelle une "technologie de réponse aux questions", pour analyser les problèmes posés, rassembler des indices, les étudier, et ordonner les propositions qui ont le plus de chances d'être les bonnes. Le fait qu'une machine ait pu vaincre les meilleurs candidats humains à ce jeu, qui fait appel à des qualités et des compétences cognitives très variées, constitue une véritable rupture en matière d'intelligence artificielle qui aura rapidement des conséquences concrètes et considérables en matière d'utilisation et d'exploitation de l'immense base de données virtuelle que représente le Web.

En utilisant ces nouveaux outils logiciels, on imagine à peine le niveau d'analyse et de synthèse que pourront atteindre les superordinateurs de prochaine génération qui verront le jour avant la fin de cette décennie et disposeront d'une puissance de calcul qui défie l'entendement : 1000 milliards de milliards d'opérations par seconde ! (Voir mon éditorial "2020 : l’odyssée du superordinateur exaflopique"http://www.rtflash.fr/2020-l-odyssee-superordinateur-exaflopique/article).

De telles machines pourront comprendre et traiter en temps réel la plupart des demandes humaines les plus complexes et les plus ambiguës, ce qui changera radicalement les relations homme-machine et démultipliera nos capacités cognitives et heuristiques à l'infini, provoquant en retour une accélération sans précédent du progrès scientifique et technique. 

Espérons que l'homme saura utiliser et maîtriser pour le bien de tous cette intelligence virtuelle et que celle-ci ne sera pas tentée d'échapper à son créateur comme "HAL" l'ordinateur trop humain imaginé par Arthur C. Clarke dans son célèbre roman "2001, Odyssée de l'Espace", porté magistralement au cinéma par Stanley Kubrick. Ce qui est certain, c’est que l’apparition et le développement de cette intelligence artificielle planétaire ne relève plus désormais de la science-fiction et va changer la nature même de notre civilisation.

René  TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
1 Tbit/s : record explosé pour les puces photoniques
Jeudi, 03/03/2011 - 11:33

Infinira a fait état d’une puce capable de traiter un flux d’information de 1 Tbit/s, dix fois le débit des puces photoniques actuelles.

La photonique, qui consiste à intégrer des fonctions optoélectroniques sur une puce à l’image de ce qui se fait déjà en microélectronique, va de record en record. La société américaine Infinera se prépare ainsi à dévoiler un prototype capable de traiter un flux d’information de 1 Tbit/s, dix fois le débit de ses puces photoniques PIC actuelles. Ce développement sera présenté lors de la Fiber Optic Engineers Conference (OFC/NFOEC), qui se déroulera à Los Angeles (Etats-Unis), du 06 au 10 mars 2011. Cette puce intègre les fonctions de pas moins de 150 composants : des diodes laser, des photodétecteurs, des multiplexeurs de longueur d’onde, etc. Elle combine dix canaux de transmission optique à 100 Gbit/s.

Infinera a été fondée avec l’objectif de devenir ''l’Intel de la photonique'', en proposant des puces optoélectroniques de plus en en plus intégrées pour les systèmes de transmission à fibres optiques. Sa puce PIC actuelle intègre 62 composants optiques et offre une bande passante de 100 Gbits/s. Son utilisation simplifie les équipements de transmission optique en termes d’encombrement, de consommation de courant et de fiabilité.

Infinera a déjà annoncé la prochaine génération de PIC à 500 Gbit/s (elle combine cinq canaux à 100 Gbit/s). Sa commercialisation est programmée pour 2012. La génération d’après à 1 Tbit/s est prévue dans quelques années. Cette progression spectaculaire prouve que l’intégration photonique va se poursuivre sur le modèle de l’intégration électronique.

Article rédigé par  Ridha Loukil pour Industrie & Technologies

Industries & Technologies

Le premier campus numérique d'Europe est en Bretagne
Lundi, 28/02/2011 - 09:18

Le réseau de salles de télé-présence immersives de l’Université Européenne de Bretagne, UEB C@mpus, a été lancé et constitue le pemier campus numérique en Europe. Devant les étudiants, une immense table ovale avec d’un côté, 6 postes de travail avec un PC dont l’écran incliné est en partie encastré dans la table, permettant le partage de documents en direct. De l’autre côté de la table, face à moi se trouvent côte à côte 4 écrans HD incurvés rétro-projetés de 1,20 m par 1,40 m de haut. Chacun de ses écrans correspondant à une salle similaire de 18 places se trouvant dans les trois métropoles bretonnes. A terme chaque écran pourra présenter une mosaïque de 16 salles. Un système de son spatial avec des micros très directifs implantés au plafond assure une qualité sonore de haut niveau, sans que l’on ait besoin de s’en soucier, tandis que de minuscules caméras sont dissimulées au centre des écrans pour retransmettre l’image des participants. Une installation de très haut niveau qui me permet de dialoguer ‘‘comme autour d’une table’’ avec des interlocuteurs à l’échelle un, qui sont pourtant entre 400 et 600 km de moi.

« En 2008, lorsque le Ministère de l’Enseignement Supérieur et de la Recherche lance l’Opération Campus, la Bretagne doit faire face à la dispersion et l’éloignement de ses sites de formation et de recherche. Pour répondre à cette problématique et en cohérence avec les spécificités économiques, culturelles et géographiques de la région, l’UEB a fait du numérique le cœur de sa stratégie de développement et propose maintenant UEB C@mpus », explique Patrice Roturier, vice-président de l’Université Européenne de Bretagne (UEB), chargé du numérique.

La mise en service de 3 salles de télé-présence immersives de très haute qualité audio-visuelle à Rennes, Brest et Lorient constitue la première étape de la réalisation de ce campus numérique multi-sites. L’UEB est le seul réseau d’universités et d’écoles en Europe à utiliser à présent la technologie immersive, après les américaines Georgetown University et Duke University. UEB C@mpus devient le premier campus numérique multi-sites en Europe. A terme, il déploiera une vingtaine de dispositifs de visioconférences de tailles variables (télé-amphis, salles de 8 places et plus...). Leur intégration d’ici 2014 mettra en réseau 72 000 étudiants, 8 900 personnels dans l’enseignement et la recherche, 149 laboratoires et permettra d’ouvrir davantage sur le monde les campus bretons.

« Pour être accessibles au plus grand nombre, nous avons voulu que ces salles qui soient directement prêtes à l’emploi pour les utilisateurs finaux. Pas besoin de mode d’emploi, de câble à brancher, de micro, ni d’une formation 2.0 pour les utiliser. On entre, on s’assoit et cela fonctionne », insiste Christophe Retourna, chef du projet. De fait, une ‘‘conciergerie on-line’’ permet d’allumer et de connecter les salles 15 minutes avant leur utilisation, suivant les connexions demandées lors de la réservation, et une assistance est disponible tout au long de la session. Ces salles immersives sont aussi connectables avec tout autre équipement normalisé de visioconférence traditionnelle.

Autre atout devant favoriser leur utilisation, la large plage horaire de disponibilité. Ces salles sont accessibles du lundi au vendredi (7h-22h) et le samedi (8h-12h). Quelques semaines après leur mise en service pour validation, le taux moyen d’utilisation est déjà de 3 heures par jour. Un taux qui devrait rapidement progresser, car l’utilisation de ces salles va réduire considérablement les déplacements physiques des personnes entre les différentes implantations, faisant ainsi gagner beaucoup de temps de transport tout en réduisant fortement les émissions de CO2.

Ces trois premières salles de télé-présence immersive, ne sont que la phase d’amorçage d’un projet beaucoup plus vaste, qui a quand même représenté un investissement de 1,4 millions d’euros. Il est en effet prévu de disposer à l’horizon 2013/2014 de 7 salles similaires et d’une vingtaine de ‘‘télé-amphis’’ allant de 50 à 180 places. Le tout représente environ 62 millions d’euros d’investissement, financés à parité par le Ministère de l’Enseignement Supérieur et de la Recherche et les collectivités territoriales. 30 M€ vont à la construction de 4 bâtiments dédiés et au réaménagement de 4 autres ; 15 M€ à leur équipement et 15 M€ à leur fonctionnement sur 3 ans. 2 M€ ont été affectés à l’étude du projet.

Ces équipements fonctionnent sur le réseau très haut débit (niveau initial de débit de 10 gigabits par seconde) en service depuis à la rentrée 2010. Ce réseau de fibres optiques, loué à SFR Business Team, est géré par Renater (Réseau National de télécommunications pour la Technologie, l'Enseignement et la Recherche).

Industries & Techniques

Applications composites, futur des administrations publiques ?
Dimanche, 27/02/2011 - 19:33

Pour mieux fonctionner, les services publics pourraient bénéficier d’un allié de taille en s’appuyant à la fois sur les applications mobiles et les "mashup". C’est en tout cas ce qu’affirme l'Institut Fraunhofer (Fokus) pour qui les applications composites pourraient aider à rapprocher les administrations de leurs usagers. "Ces technologies permettent de trouver des solutions pour signaler facilement la présence d’un défaut dans la route ou d’un mobilier urbain endommagé, par exemple", expliquent les chercheurs. L’utilisation du téléphone permet même d’aller plus loin en assignant des coordonnées GPS à une notification. Un tel système pemettrait de fournir une cartographie des différentes requêtes reçues et de voir si plusieurs ont signalé un même problème.

Autres usages possibles : dresser une carte pour que soient visuellement représentés les différents investissements publics ou rendre les statistiques et les données officielles plus accessibles. Ces services peuvent aussi être utiles en interne pour mieux coordonner les services de secours en cas de catastrophe, affirment les chercheurs. "Les applications composites ont un potentiel énorme pour les autorités publiques parce qu’elles lient des données internes et externes rapidement et à peu de frais", expliquent les chercheurs. Il est en effet possible de les mettre en place au sein d’une administration sans avoir de connaissance particulière en programmation. Par ailleurs, ce type d’applications peut être facilement modifié pour s’adapter à de nouveaux besoins.

Le Fokus a d’ailleurs mis en place un projet de recherche dont l’un des objectifs est d’assister le personnel administratif dans l’implantation technique de tels services. Enfin, les chercheurs rappellent que ces projets vont dans le sens de l’open-government que de nombreux pays ont dit vouloir favoriser.

Atelier

Fibre optique : vers une fracture numérique ?
Dimanche, 27/02/2011 - 19:25

Où le groupe France Télécom-Orange va-t-il déployer sa fibre optique ? L'opérateur historique n’a jamais publié de carte précise. Il est pourtant le plus gros acteur du secteur, ses projets sont donc autant d'indicateurs sur l’avenir de la fibre optique en France et sur sa répartition géographique. « Les données détaillées ne sont pas publiques », indique FT-Orange, mais le cabinet de conseil Tactis, spécialisé en stratégie télécoms, fournit à 01net. sa propre cartographie des projections de déploiement de l'opérateur. Une carte basée sur une l’analyse approfondie des annonces faites par FT-Orange entre février 2010 et janvier 2011.

Cette analyse tient notamment compte de la dernière communication : « Apporter la fibre optique d’ici à 2015 dans 3 600 communes réparties dans 220 agglomérations incluant l’ensemble des grandes villes et des villes moyennes, avec une couverture de 10 millions de foyers en 2015 et de 15 millions en 2020, soit 60 % des foyers français ».

Cela se traduit  par une concentration des projets en zones urbaines. Les zones rurales restent largement en dehors de tout projet d’accès au très-haut-débit. Les régions les plus ciblées par FT sont l’Ile-de-France et la Provence-Alpes-Côte d’Azur, suivie par le Nord-Pas-de-Calais. Rappelons que le choix des localisations de projets fibre tient principalement compte du coût de revient du déploiement. Il est inférieur en zones à forte densité de population, car techniquement l’installation de la fibre est facilitée : utilisation des fourreaux existants, des égouts, etc. De plus, un plus grand nombre de clients potentiels peuvent être raccordés avec un moindre investissement (habitat collectif dense).

La carte présente donc une large fracture numérique sur le très-haut-débit. Il y a de grandes chances que les annonces de FT présentent un scénario très optimiste. Pour couvrir 3 600 communes en 2015, l'opérateur prévoit un budget de 2 milliards d'euros. « L’ambition renforcée de France Télécom est une bonne chose, mais le montant de l’investissement est très surprenant », estime Tactis. « FT présente un budget inchangé par rapport aux annonces de février 2010, qui couvraient alors environ 500 communes, soit 40 % de la population. Comment expliquer que l’on puisse couvrir 7 fois plus de communes et 50 % de population en plus pour un même montant ? »

Selon les estimations du cabinet, c’est environ 6 à 7 milliards d’euros qu'il faut mobiliser pour financer le FTTH sur les 3 600 communes ciblées par FT et 30 milliards d’euros pour couvrir l’ensemble du territoire métropolitain. Avec le budget présenté par l’opérateur, le déploiement risque d’être partiel, avec par exemple un nombre très limité de points d’accès par commune.

Il nécessiterait un cofinancement de la part d’au moins deux autres opérateurs à un niveau équivalent de celui de FT, ce qui est loin d’être acquis. Les parts de marché des autres opérateurs dans la plupart des zones sont largement inférieures à celles d’Orange. Or, ses concurrents ont volonté à investir proportionnellement à leurs parts de marché. Difficile donc d’envisager des investissements équivalents à ceux de l’opérateur historique. Contacté par 01net., Orange donne quelques éléments d’explications sur le maintien de son budget pour un déploiement plus important. « Nous tablons sur des économies d’échelle, sur l’amélioration des technologies de déploiement et sur d’avantage de recours au cofinancement », précise un porte-parole. De plus, les 3 600 communes ne seront pas toutes à 100 % « fibrées » en 2015, indique l’opérateur.

Pour Stéphane Lelux, président de Tactis, « des incertitudes pèsent sur la disponibilité réelle d’une offre commerciale d’accès au très-haut-débit dans ces communes d’ici à cinq ans. Il faut veiller à ce que les intentions des opérateurs se précisent pour ne pas pénaliser les collectivités locales dans l’élaboration de leur stratégie de déploiement de la fibre optique et dans l’accès aux financements de l’Etat ». Rappelons que là où un opérateur déclare déployer un réseau fibre, la collectivité ne bénéficie plus des aides de l’Etat dans ce domaine.

01Net

Des chercheurs bordelais veulent mettre l'ADN dans les smartphones
Dimanche, 27/02/2011 - 18:42

Dans son bureau de la plate-forme technologique d'innovation biomédicale (PTIB) du CHU de Bordeaux, Patrick Merel sirote son café. "Depuis que je sais que j'ai une prédisposition au diabète, je ne sucre plus", sourit ce docteur en biologie moléculaire. Après avoir vainement ferraillé en France, où son idée n'a rencontré qu'indifférence ou hostilité, il vient de créer en Californie avec deux biologistes et une bio-informaticienne bordelais la société Portable Genomics.

Le projet, élaboré "bénévolement" et sur des fonds privés, vise à "produire un logiciel qui +digère+ les données issues du séquençage du génome (ndlr : le matériel génétique codé dans l'ADN) pour les transporter" sur des "plates-formes mobiles", type iPhone ou iPad, explique M. Merel. Moyennant quelques centaines de dollars, des firmes, essentiellement américaines, proposent déjà aux particuliers de séquencer les données contenues dans leur ADN. Le principe est simple : il suffit de cracher dans un tube puis de l'expédier à la société. Un labo décrypte l'ADN et en quelques clics, le curieux a accès à certaines informations de son ADN via un site sécurisé : il peut savoir, par exemple, s'il est porteur de gènes favorisant tel ou tel cancer.

Ces tests, interdits en France hors du cadre médical, "explosent dans le monde" et leur coût ne cesse de baisser, explique M. Merel. Concrètement, le logiciel conçu par les chercheurs bordelais présentera les 3 gigaoctets du séquençage de façon claire et ergonomique sur l'appareil. Une mention "cancer du sein" accompagnée d'une icône rouge soulignera par exemple une prédisposition à cette maladie tandis qu'une icône verte indiquera l'absence de risque. Des données que le patient, smartphone en poche, pourra présenter à son médecin, poursuit le chercheur qui voit dans son application un outil de "prévention et de vigilance". Le logiciel pourra aussi afficher les symptômes et les gènes en cause et proposera diverses applications périphériques (géolocalisation de spécialistes, stockage du dossier médical...)

Portable Genomics serait ainsi pionnier dans le basculement vers la "génomique portable". Actuellement, "aucun acteur de la génomique personnelle n'a de solution pour les plates-formes mobiles", soutient M. Merel, qui pense à un partenariat avec des sites de musique en ligne, comme Deezer ou Spotify, où l'ADN décrypté côtoierait Miles Davis, Radiohead ou Chopin.

"Ne va-t-on pas inquiéter inutilement des personnes qui ne vont pas forcément déclarer ces maladies ?", questionne Patrick Gaudray, membre du Conseil consultatif national d'éthique (CCNE) et directeur de recherche au CNRS. Ces firmes "créent un besoin" en faisant "croire que les résultats", dont la "fiabilité est difficile à déterminer," vont "rendre service", ajoute ce généticien en cancérologie qui juge "l'intérêt médical" des tests génomiques "extrêmement limité" et plaide pour que le CCNE se saisisse de ces questions. "Réduire l'homme à ses gènes est une restriction considérable", estime-t-il, jugeant que "l'homme mérite mieux que son ADN".

Orange

^ Haut
Avenir
Nanotechnologies et Robotique
PAL : des solutions robotiques au service des seniors à coûts raisonnables
Lundi, 28/02/2011 - 13:01

A l'horizon 2050, la France comptera 11 millions de seniors de plus de 75 ans, dont 5 millions dépasseront les 85 ans. Dans ce contexte, les chercheurs travaillent de plus en plus au développement de technologies aptes à favoriser le plus longtemps possible le maintien à domicile et l'autonomie des personnes âgées. C'est ainsi que l'Inria a récemment lancé le projet Personally Assisted Living (PAL), dont la principale préoccupation est d'offrir ce type de solutions à des coûts raisonnables. "Action d'envergure", ce projet rassemble neuf de ses équipes de recherche et de nombreux partenaires dont le Centre Scientifique et Technique du Bâtiment (CSTB) et le CHU de Nice.

Premier parti pris par les responsables de ce projet, développer des outils bon marché et de conception simple afin qu'un plombier ou un électricien soient capables de les installer et de les réparer. Deuxième parti pris, c'est le robot qui doit s'adapter aux utilisateurs et à leur environnement, non l'inverse. Par exemple, les robots d'assistance sont lourds, environ 280 kg, et encombrants. En revanche, le système développé dans le cadre du projet PAL est doté de câbles et fonctionne comme une grue. En outre, il peut être installé dans toutes les pièces pour aider au lever, au maintien à la position debout, à la marche ...

Autre nécessité, les interfaces doivent êtres faciles à manipuler pour des personnes peu familiarisées avec les souris d'ordinateur, des interfaces qui pourraient être utilisées également pour détecter une détérioration de l'état du sujet indique-t-on du côté des responsables de ce projet. Une première expérience grandeur nature de ce type d'application sera menée en 2011, auprès d'une cinquantaine d'utilisateurs en collaboration avec le professeur Philippe Robert du CHU de Nice.

Bulletins électroniques

Nao, le robot humanoïde, est devenu la mascotte du lycée
Lundi, 28/02/2011 - 12:50

« Je vais aller me reposer. » Cette phrase, prononcée dans une salle du lycée Dhuoda, pourrait sembler ordinaire. Elle est en réalité tout le contraire car celui qui la prononce se nomme Nao, mesure moins d’un mètre et est devenu la nouvelle mascotte de l’établissement nîmois : un robot humanoïde. Nao, avec un design qui le rend presque sympathique, est capable de parler, se gratter, bouger ses doigts, danser, faire rire les adultes comme les intimider. Dhuoda est l’un des trois lycées de l’académie à s’être offert ce « bijou de technologie », qui possède une carte sim dans la tête, est équipé de plusieurs caméras, d’un programme multimédia hypersophistiqué, d’un système de reconnaissance vocale et de capteurs sous les pieds.

Depuis son succès à la coupe du monde de robotique en 2007 où il a devancé Sony, Nao, véritable phénomène, est en pleine expansion. Présenté lors de la dernière exposition universelle à Shanghai, il a séduit les responsables de l’université de Tokyo qui ont craqué pour une trentaine d’exemplaires. Le lycée Dhuoda aussi, qui achète un modèle. « Il est destiné à l’ensemble des élèves, de la seconde aux BTS, qui auront pour mission de le programmer, explique le proviseur Gérard Bouilhol. Cela peut aller d’un simple programme pour faire lever le robot ou plus complexe, pour le faire danser, avancer... L’idée est d’inventer les comportements de Nao. C’est ce qu’on appelle de la pédagogie active. »

La démonstration reprend : « Que veux-tu que je fasse ? », interroge la machine qui semble presque un être humain. Mais le responsable des lieux précise tout de suite : « Il s’agit juste de biométrie. Ça reste une machine. » Anecdotique ? Pas vraiment. Nao sera à Dhuoda un objet d’étude. « Ce n’est pas un jouet, ça vaut le prix d’une voiture. » Pour cette acquisition, le lycée a dépensé 12 000 €. Un investissement que le chef d’établissement estime nécessaire : avec la réforme du lycée et une seconde généralisée à tous les établissements, le lycée technologique de Nîmes va devoir se battre pour conserver des effectifs stables l’an prochain.

Midi Libre

Ces robots entrent dans nos maisons
Lundi, 28/02/2011 - 09:29

Le Laboratoire toulousain d'architecture et d'analyse des systèmes vient d'être intégré au réseau Robotex. Il va élargir sa famille de robots, composée aussi d'androïdes.

Il s'appelle Romeo, mesure 1,20 m et pourra bientôt voler au secours des personnes âgées ou malades. L'androïde au cœur d'acier développé par une start-up, la société Aldebaran Robotics, s'apprête à rejoindre le réputé Laboratoire d'analyse et d'architecture des systèmes (LASS) situé à Toulouse. Romeo, outil déjà très perfectionné, devrait voir ses neurones dopés. Les ingénieurs comptent bien accroître ses fonctions dans le domaine de la reconnaissance et de l'aide à la décision. Il fallait un tel outil aux allures humanoïdes pour aider au quotidien une personne dépendante.

Pour conduire ces recherches et renforcer ses capacités de labo, le LAAS avait besoin d'argent. ça tombe bien. Grâce au Grand Emprunt national, le labo qui dépend du CNRS, intègre le projet Robotex et se voit allouer une subvention de 900 000 euros qui lui permet d'acheter de nouveaux robots. Robotex, réseau d'excellence unique au monde, relie actuellement les meilleures équipes françaises en robotique. Le LAAS est notamment impliqué dans des thèmes associés à la robotique mobile et la robotique humanoïde, où il a acquis une expérience reconnue.

Romeo prendra ainsi le relais de son petit frère, un certain Nao, à peine 4,3 kg et 53 cm de haut. Le petit pensionnaire du LAAS est un robot de compagnie, tout à la fois partenaire de jeu et garde-malade, objet communicant capable aussi de jouer au foot. Il est équipé de capteurs à ultrason, de capteurs de pressions sous les pieds, de caméras pour la synthèse vocale, la localisation de sons dans l'espace et la reconnaissance de visages ou d'objets.

En 2006 déjà, les Japonais, passés maîtres dans le domaine de l'intelligence artificielle, étaient entrés en relation avec le LAAS, labo qu'ils plaçaient au cœur de leur dispositif de recherche. Les ingénieurs nippons n'étaient pas arrivés seuls. Dans leur bagage, un certain HRP-2, un humanoïde construit par Kawada Industries à quatorze exemplaires et confié à des spécialistes en robotique pour améliorer ses performances. Tous les jours, les chercheurs toulousains boostent le quotient intellectuel de ce Goldorak. « HR-2 fait toujours l'objet d'un partenariat avec l'université de Tokyo. Notre travail est d'y intégrer de nouvelles fonctions de perception, de reconnaissance et de décision », explique Jean-Louis Sanchez, le nouveau directeur du Laas qui a bien d'autres cordes à son arc dans le domaine numérique.

La Dépêche

Les progrés de la bionique et de la neuronique changent la vie des handicapés
Dimanche, 27/02/2011 - 19:45

Ce champ de recherche a fait l'objet de plusieurs présentations à la conférence annuelle 2011 de l'Association américaine pour la promotion de la Science (AAAS), plus grand symposium scientifique généraliste qui s'est tenu du 17 au 21 février à Washington. Le bras bionique, une prothèse de haute-technologie inventée en 2002 par le Dr Todd Kuiken, directeur du Centre de médecine bionique au Rehabilitation Institute of Chicago (RIC), présenté à l'AAAS, est le parfait exemple des "interfaces cerveau-machine" émergentes. Il recourt à une technique de réinnervation musculaire ciblée qui capte les impulsions électro-musculaires, traduisant l'intention de mouvement de l'amputé, pour les transcrire en commandes mécaniques grâce à des électrodes placées sur la peau.

Il est ainsi possible de capter les impulsions produites par les nerfs qui transmettent la commande motrice, permettant aux amputés, après un apprentissage, de contrôler leur bras artificiel par la seule force de l'esprit. En bref, transformer la pensée en mouvement. "Nous nous servons des nerfs restant dans le membre sectionné et utilisons les muscles comme un amplificateur biologique", a expliqué le Dr Kuiken lors d'une conférence de presse. Il était accompagné d'un de ses patients, Glen Lehman, un ancien sergent de l'Armée de Terre américaine qui a perdu son bras droit en Irak dans l'explosion d'une grenade. Celui-ci a fait une démonstration pour la presse du fonctionnement du bras bionique. "C'est génial, c'est très intuitif et nettement mieux que la prothèse que j'ai maintenant, seulement contrôlée par des contractions des muscles", a-t-il expliqué. "J'ai l'impression d'avoir ma propre main".

Le Dr Kuiken a cependant expliqué qu'il serait plus compliqué d'appliquer cette même technologie à une jambe bionique. L'ordinateur programmé pour apprendre à lire les intentions des humains est une autre approche devant permettre un jour aux paralysés, à la suite notamment d'une blessure à la moelle épinière, d'avoir une plus grande autonomie. Le prototype d'un tel ordinateur associé à des puces disposées à la surface du cerveau pour interpréter l'activité cérébrale, a été présenté à la conférence de l'AAAS par José del R. Millan, de l'Ecole Polytechnique Fédérale de Lausanne. Ce système fonctionne un peu comme "la reconnaissance vocale" et permet au paralysé de manoeuvrer plus aisément son fauteuil roulant.

Enfin, Andrew Schwartz, professeur de neurobiologie à la faculté de médecine de l'Université de Pittsburgh (Pennsylvanie, est) a montré une technologie consistant à implanter des électrodes à des singes pour lire les activités de leurs neurones. Les signaux sont traités par ordinateur et relayés pour faire manoeuvrer un bras artificiel simple par l'animal. "Nos études animales ont montré qu'il est possible d'interpréter les messages émis par le cerveau et faire manoeuvrer un bras robotique simple", a dit ce chercheur.

Orange

^ Haut
Matière
Matière et Energie
Recharger sa voiture électrique à l'aide d'une ombrière photovoltaïque, une première !
Jeudi, 03/03/2011 - 11:51

Son nom, SUDI pour Sustainable Urban Design & Innovation. Fruit d'un partenariat entre trois acteurs français, le Pôle Energie Service du Groupe Hervé, l'agence de Design RCP Design Global et le navigateur Raphaël Dinelli et sa fondation de recherche OCEAN VITAL, cette ombrière photovoltaïque est une station autonome et mobile d'énergie pour véhicules électriques. Une semaine suffit à monter cet équipement urbain durable performant qui permet d'alimenter simultanément deux véhicules électriques, tout en les protégeant des intempéries. Un écran tactile de commande permet de connaître l'état d'avancement de la recharge du véhicule, cet écran pouvant aussi servir à afficher des informations municipales ou à intégrer un système de paiement pour la zone de stationnement.

Bulletins Electroniques

La "pellicule laser" la plus rapide du monde rend visibles des processus nanométriques ultra-rapides
Jeudi, 03/03/2011 - 11:43

Quand au 19ème siècle Edward J Muybridge a réussi à montrer, avec une séquence de photos munies de flash, comment se décomposait le mouvement d'un cheval au galop, cela sembla révolutionnaire. D'une manière aussi spectaculaire, des chercheurs de l'Université Technique de Berlin et de l'Université de Munster (Rhénanie-du-Nord - Westphalie) ont réussi à enregistrer à l'aide de rayons X une séquence d'images d'une rapidité inégalée.

Ce procédé peut alors observer et représenter des objets nanométriques à deux intervalles de temps extrêmement courts, de l'ordre de 50 femtosecondes. Une femtoseconde correspond à un billiardième de seconde (10^ -15), soit le millionième d'un milliardième de seconde. Les pulsions ultra-rapides d'un laser à rayons X permettent ainsi de représenter, de manière holographique et précise, l'état et le mouvement des particules observées. Ce procédé peut ainsi aider les chercheurs, par exemple, à mieux comprendre les causes et antécédents de certaines réactions physiques ou chimiques encore méconnues.

Bulletins Electroniques

Un circuit imprimé en nanotubes de carbone
Lundi, 28/02/2011 - 13:29

Une équipe de chercheurs de l'Université de Nagoya (Japon), en collaboration avec une équipe de chercheurs de l'Université d'Aalto (Finlande), a réussi à fabriquer sur un substrat plastique un circuit imprimé en nanotubes de carbone.

Le développement de circuits imprimés souples suscite un grand intérêt de la part des industriels, notamment pour la fabrication de papier électronique. Plusieurs techniques pour fabriquer des TFT (transistors à couches minces) souples existent à ce jour. L'une consiste à utiliser des semi-conducteurs en silicium ou en oxyde de zinc, mais les procédés de fabrication sont complexes (traitement thermique, procédé sous vide). L'utilisation de matériaux organiques est également à l'étude mais ces derniers présentent encore une faible mobilité des électrons. Une autre solution très prometteuse est l'emploi de nanotubes de carbone, connus pour leur haute mobilité des électrons.

Jusqu'à présent, les scientifiques pouvaient produire des transistors avec des nanotubes de carbone par une méthode d'enrobage, à partir d'une solution liquide de nanotubes. Il est néanmoins difficile, selon les chercheurs, d'obtenir par cette méthode de fines couches uniformes. De plus, il est difficile de se débarrasser entièrement du solvant.

L'équipe nippo-finlandaise a donc développé un nouveau procédé de fabrication de nanotubes de carbone par dépôt chimique en phase vapeur. Ils sont ensuites filtrés puis transposés sur le substrat plastique. Cette technique permet d'obtenir des couches uniformes et pures (sans solvant). De plus, elle peut être utilisée dans un procédé roll-to-roll, une méthode rapide et économique d'impression de circuits électriques sur un substrat flexible, qui consiste à déposer un circuit électrique sur un substrat enroulé sous forme de bobine que l'on déroule au fur et à mesure de l'opération.

Les transistors obtenus par cette méthode présentent de meilleures caractéristiques que ceux obtenus par la méthode par enrobage. Ainsi, dans le procédé habituel par enrobage, les nanotubes de carbone sont dispersés par ultrason, ce qui a tendance à réduire leur taille. De plus, la présence du solvant augmente la résistance électrique au niveau des connections entre les nanotubes. La mobilité des électrons dans les TFT obtenus s'en retrouve réduite (1 cm2/V.s). Avec la nouvelle méthode, les nanotubes de carbone, purs, conservent une taille plus longue. Les chercheurs ont ainsi obtenus une mobilité de 35 cm2/V.s. De même, les transistors se caractérisent par un rapport Ion/Ioff plus élevé (6.10^6) que celui de ceux fabriqués en utilisant la méthode précédente (10^4 à 10^5).

Bulletins électroniques

L'hythane, carburant du futur ?
Vendredi, 25/02/2011 - 10:36

Au terme de plusieurs années de tests, GDF SUEZ et la Communauté Urbaine de Dunkerque ont dressé un bilan de l’utilisation de l’hythane, un carburant composé à 80 % de gaz naturel et à 20 % d’hydrogène. Une réponse possible aux questions d'indépendance énergétique, de réduction des émissions de gaz à effet de serre et de pollution locale.

Agissant pour l’émergence de transports propres et pour l’intégration des énergies renouvelables à ce secteur, la direction Recherche de GDF SUEZ et la Communauté Urbaine de Dunkerque ont, en 2005, avec l’appui de l’ADEME (Agence de l'Environnement et de la Maîtrise de l'Énergie), lancé le projet Althytude (L’Alternative Hydrogène dans les Transports Urbains à Dunkerque).

Cette expérimentation qui a consisté  à faire circuler deux bus DK’Bus Marine du réseau dunkerquois, circulant habituellement au gaz naturel, avec un carburant innovant composé à 80 % de gaz naturel et à 20 % d’hydrogène (hythane), s’est achevé en septembre 2010. Elle a permis de tester et de suivre le fonctionnement des équipements sur toute la chaîne, depuis la production de l’hydrogène jusqu’à son utilisation. Une première en France. Au total, les véhicules ont parcouru 40 000 kilomètres chacun et transporté des passagers pendant un an.

Après cinq ans de tests, la Communauté Urbaine de Dunkerque et GDF SUEZ, associés à leurs partenaires (ADEME, GNVert, Irisbus Iveco, Véolia Transport, École Centrale de Marseille, Hydrogenics) viennent de présenter  les résultats de l’expérimentation. Ceux-ci montrent que ce carburant permet d’obtenir des bénéfices immédiats pour l’environnement.

En effet, l’hydrogène améliore la combustion de gaz naturel, ce qui permet d’atteindre de meilleures performances techniques et de réduire les émissions de gaz à effet de serre (diminution d’environ 8 % par rapport au GNV) et les émissions de polluants locaux (réduction des NOx de 10 % par rapport au GNV). Le bilan carbone est d’autant plus amélioré que l’hydrogène est produit sur site : l’électrolyseur qui décompose l’eau et produit l’hydrogène peut être alimenté en électricité d’origine renouvelable (éolien, biomasse…). Le carburant hythane permet de réduire la consommation énergétique et apporte un agrément de conduite reconnu par les conducteurs de bus.

Le mélange de gaz naturel et d'hydrogène a des propriétés voisines de celles du gaz naturel dont les risques sont connus et maîtrisés. À ce jour, aucun accident, mineur ou  majeur, n'a été référencé ... dans le cadre des démonstrations, passées ou en cours, menées à l'étranger (Montréal et Vancouver au Canada, Palm Springs et Las Vegas aux USA, Malmö en Suède). Aucun incident de fonctionnement de bus hythane, ou accident dont l’origine serait spécifique à ce carburant, n’a été signalé. Cette expérimentation pourrait ouvrir la voie à une éventuelle introduction commerciale de l’hythane dans les transports publics français.

Techniques de l'ingénieur 

Récupérer les calories issues des eaux usées : une voie prometteuse
Vendredi, 25/02/2011 - 10:20

La société Biofluides Environnement, spécialisée dans la fabrication de matériels et produits de traitement d’eau, a présenté une nouvelle technologie permettant la récupération de la chaleur sur eaux grises. L’ERS (Energy Recycling System) est capable d’extraire l’énergie calorifique rejetée dans les canalisations d’eaux usées, en provenance des baignoires, douches, lavabos, éviers et machines à laver, sans perturber leur évacuation vers le réseau public. Face aux pertes de chaleur importantes et quotidiennes évacuées à l’égoût, le pôle de Recherche et Développement de Biofluides Environnement a développé la technologie TREC (Technologie de Recyclage Calorifique), dont le principe consiste à recycler les calories perdues des fluides caloporteurs au service de tout autre process.

L'Energy Recycling System, issu de cette technologie, est un dispositif d’extraction de la chaleur contenue dans les eaux usées, non chargées, provenant d’usages domestiques (douches, baignoires, lave-linge, lave-vaisselle...), ou industriels (condensats de vapeur d’eau, eaux de lavage, et autres points d’eau chaude). Cette chaleur recyclée permet d’alimenter des installations de production de chauffage, d’eau chaude sanitaire ou de traitement d’air. L'ERS est associé à une pompe à chaleur combinée, spécialement développée pour cette application.

Une installation positionnée dans le prolongement de l'écoulement des eaux usées, qui ne perturbe pas leur évacuation vers le réseau public et qui est constituée d'un échangeur inox grande surface à forte inertie et à très faible perte de charge, associé à une pompe à chaleur spécifique. Le process consiste à récupérer les eaux usées à des températures comprises entre 25 et 35°C vers l’échangeur puis rejetées vers les égouts.

Les calories sont récupérées dans la cuve et transférées à la pompe à chaleur, laquelle s’adapte au flux d’évacuation. Parallèlement, l'eau provenant d'un ballon de préchauffage passe, via le circuit condenseur de la pompe à chaleur, de 8 à 55°C (coefficient de performance (COP) de la PAC (pompe à chaleur) de 4,2 à la mise en service). Une chaufferie se charge, en cas de besoin (maintenance), de maintenir l'eau à 55°C, température nécessaire pour l'eau chaude sanitaire.

L'Energy Recycling System apporte une véritable valeur ajoutée, là où la performance énergétique est devenue un critère dominant, notamment dans les projets de construction affichant des objectifs ambitieux ou visant des labels de qualité environnementale sous l’appellation « bâtiment basse consommation » ou « bâtiment à énergie positive ».

L'ERS est une nouvelle clé, encore peu exploitée, pour répondre aux exigences de la nouvelle réglementation thermique relative au parc existant. Elle constitue une réponse quant au plan d’efficacité énergétique et dans le cadre du Grenelle de l'Environnement fixant les objectifs pour 2020, et notamment à travers le plan climat adopté par la ville de Paris qui vise une réduction de 30 % des émissions de gaz à effet de serre et une consommation annuelle de 80 kWh/m² de surface habitable de son parc existant. Outre son application dans les bâtiments tertiaires ou à usage d’habitation, l'ERS trouve un intérêt complémentaire dans l’industrie utilisant des process à forte consommation d’eau chaude ou de vapeur à condensats non recyclés.

Techniques de l'ingénieur

^ Haut
Espace
Espace et Cosmologie
Le satellite TARANIS va étudier la foudre
Jeudi, 03/03/2011 - 10:52

Pour la 1ere fois, un engin spatial du CNES va observer les spectaculaires phénomènes lumineux qui se déploient dans la haute atmosphère terrestre.

Si la mission TARANIS porte le nom du dieu celte du tonnerre, ce n’est pas tout à fait un hasard : les phénomènes qu’étudiera ce satellite, sortes de gigantesques éclairs se propageant du sommet des nuages vers la haute l’atmosphère, se produisent en effet au-dessus des plus gros orages, en particulier ceux qui se produisent dans la ceinture intertropicale. Qu’on les appelle « elfes », « sprites » ou encore « blue jets », ces phénomènes se caractérisent à la fois par leur brièveté et par l’intensité des rayonnements qu’ils émettent, principalement X et gamma, en direction de l’espace. À 700 km d’altitude, le satellite TARANIS sera idéalement placé pour les observer et étudier leur influence sur les couches supérieures de l’atmosphère, voire la météo.

Les événements que TARANIS observera s’accompagnent de flashes de rayonnements gamma semblables à ceux relevés lors d’explosions nucléaires. Ces phénomènes très énergétiques sont susceptibles d’affecter les propriétés de l’ionosphère, au delà de 50 km d'altitude, dont l’état conditionne directement la propagation de certaines fréquences radio utilisées par les civils et les militaires.

1ere mission spatiale dédiée à l’étude de ces phénomènes, TARANIS est très attendue par une large communauté scientifique à travers le monde, avec notamment des collaborations américaines, japonaises, polonaises et tchèques. Grâce à la décision d’engagement prise le 9 décembre dernier par le Conseil d’Administration du CNES, l’équipe projet vise un système prêt au lancement pour la fin 2014. Le lancement devrait s’effectuer depuis le port spatial européen de Kourou, vraisemblablement à bord d’une fusée Soyouz.

CNES

50 milliards de planètes dans la Voie lactée !
Vendredi, 25/02/2011 - 11:11

Au moins 50 milliards de planètes flottent dans notre galaxie, la Voie lactée, selon le premier recensement du genre effectué par des scientifiques de la NASA. Selon ces estimations, au moins 500 millions d'entre elles se situeraient dans des zones ni trop chaudes, ni trop froides, et pourraient donc abriter une forme de vie. Ces données sont issues d'une extrapolation des recherches préliminaires effectuées grâce au télescope spatial Kepler. Les travaux viennent d'être présentés dans le cadre de la rencontre annuelle de l'Association américaine pour l'avancement de la science (AAAS), à Washington.

L'équipe de William Borucki a pris en compte le nombre de planètes découvertes pendant sa première année de recherche pour ensuite estimer le nombre de planètes qui tournent autour de chaque étoile dans la galaxie. Jusqu'à maintenant, Kepler a trouvé 1235 planètes, dont 54 se trouvent dans une zone où la vie pourrait exister. Kepler détecte les planètes lorsqu'elles passent entre leur étoile et la Terre.

Selon M. Borucki et son équipe, 1 étoile sur 2 a une planète dans son orbite et les planètes de 1 étoile sur 200 se trouvent dans une zone propice à l'éclosion d'une forme de vie. Il s'agit de chiffres prudents, car certaines étoiles peuvent, comme le Soleil, avoir plus d'une planète. De plus, le télescope Kepler n'a pas encore la portée nécessaire pour détecter les planètes qui se situent loin de leur étoile. Pendant plusieurs années, les scientifiques estimaient à 100 milliards le nombre d'étoiles brillant dans notre galaxie. L'an dernier, un expert de l'Université Yale a placé son estimation à 300 milliards d'étoiles. Par ailleurs, les chercheurs croient qu'il existe quelque 100 milliards de galaxies dans l'Univers. William Borucki soutient que les nouveaux calculs de son équipe soulèvent de nombreuses questions à propos de l'existence de la vie ailleurs dans le cosmos.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L’hiver extrêmement froid dans le Midwest américain lié au réchauffement climatique ?
Jeudi, 03/03/2011 - 15:49

Les chutes de neige et les tempêtes extrêmes de cet hiver pourraient bien être liées à l’augmentation du taux d’humidité dans l’air, elle-même associée au changement climatique mondial, d’après ce qu’a indiqué un groupe de scientifiques récemment dans un communiqué. Cette humidité supplémentaire entraînera probablement des inondations spectaculaires à la veille du printemps dans l’Hémisphère nord, alors que la neige fondra et que les pluies abondantes attendues s’ajouteront aux précipitations de saison, d’après ce que les scientifiques ont ajouté. Alors que la planète se réchauffe, davantage d’eau provenant des océans s’évapore dans l’atmosphère, d’après ce qu’a expliqué Todd Sanford, un scientifique climatique de l’Union of Concerned Scientists. Simultanément, du fait que l’atmosphère se réchauffe, il peut retenir davantage d’humidité qu’il n’en absorbe. Les tempêtes intenses ont souvent lieu lorsque l’atmosphère atteint un point de saturation.

Cette année, une série de tempêtes majeures depuis le Midwest américain jusqu’au Nord-est du pays ont conduit à des chutes de neige 400 % supérieures à la normale dans certains endroits des Etats-Unis, d’après Jeff Masters directeur de la météorologie pour le groupe Weather Underground. La quantité d’eau contenue dans ces chutes de neige est une des plus importantes jamais enregistrées d’après lui. «  Si vous preniez toute cette eau et que vous la faisiez fondre, cela équivaudrait à faire tomber 152 millimètres de pluie sur de grandes parties de la région » a ajouté Jeff Masters. « Si toute cette eau était relâchée en même temps, avec un réchauffement soudain, et des précipitations violentes dans la région, nous connaitrions alors des inondations records le long du fleuve Mississippi et du Fleuve Rouge dans le Nord Dakota ». Ces prévisions correspondent à celles du Service National de Météorologie des Etats-Unis, qui ont indiqué le mois dernier qu’une grande partie du centre nord des Etats-Unis était menacée d’inondations majeures à modérées ce printemps. Les inondations de printemps pourraient par ailleurs être exacerbées si le printemps commence plus tôt que prévu. « Nous avons observé dans les montagnes de l’ouest américain que les fontes de printemps ont aujourd’hui lieu une à trois semaines plus tôt qu’il y a 60 ans » a indiqué Jeff Masters. « Et cela est lié aux températures plus élevées qui ont tendance à faire fondre la couverture de neige de plus en plus tôt ».

Au cours du siècle dernier, les températures moyennes mondiales ont augmenté de 0,8°C. L’an dernier a été l’une des années les plus chaudes jamais enregistrées. L’Arctique, qui a un grand impact sur la météo dans l’Hémisphère Nord, a été particulièrement affecté par ce réchauffement, d’après Marc Serreze, directeur du Centre National des Etats-Unis pour les Données sur la Neige et la Glace. L’un des facteurs du « climat fou » de cet hiver, d’après lui, est un régime atmosphérique appelé Oscillation Arctique, qui est désormais dans une phase négative. Cette phase signifie qu’une pression élevée s’exerce sur l’Arctique et qu’une pression faible s’exerce sur les latitudes moyennes, ce qui rend l’Arctique relativement chaud mais conduit au sud l’air froid de l’Arctique dans des endroits tels que le Midwest américain. Cette phase négative du phénomène d’Oscillation Arctique est visible depuis deux années consécutives, qui ont été marquées par deux hivers rudes et froids.

Article rédigé par Sandra Besson

Actualités News Environnement

Volcans : les chambres magmatiques plus promptes à se réveiller que prévu
Jeudi, 03/03/2011 - 10:26

On pensait que la chambre magmatique d'un volcan, une fois refroidie, restait des siècles en sommeil avant de pouvoir être ranimée par de la lave fraîche. Un modèle théorique, développé par Alain Burgisser de l'Institut des Sciences de la Terre d'Orléans (CNRS/Universités d'Orléans et de Tours) avec un chercheur américain, et testé sur deux éruptions majeures, vient contredire complètement cette hypothèse : le réveil d'une chambre pourrait s'opérer en seulement quelques mois. Ces recherches vont conduire à réévaluer la dangerosité de certains volcans endormis. Elles sont publiées dans la revue Nature du 3 mars 2011.

Une chambre magmatique est le grand réservoir de lave, enfoui à plusieurs kilomètres de profondeur sous un volcan, qui l'alimente en roche en fusion. Que devient cette chambre lorsque le volcan ne fait pas éruption ? Jusqu'à présent, les volcanologues imaginaient qu'elle se refroidissait en une pâte extrêmement visqueuse, jusqu'à ce qu'une nouvelle lave montant des entrailles de la Terre la « réveille », c'est-à-dire la fluidifie en la chauffant par contact thermique. La taille importante d'une chambre magmatique (de quelques dixièmes à plusieurs centaines de kilomètres cube) expliquait pourquoi, selon cette hypothèse, il fallait plusieurs centaines voire plusieurs milliers d'années pour que la chaleur se transmette à l'intégralité du réservoir, sortant le volcan de sa léthargie.

Selon le modèle mathématique mis au point par Alain Burgisser et son collaborateur américain, le réchauffement se déroule en trois étapes. Lorsque de la lave fraîche et chaude remonte des profondeurs et arrive sous la chambre, elle fait fondre la lave visqueuse qui constitue les racines du réservoir ; cette lave nouvellement fondue devient alors légère et entame une ascension à travers la chambre, forçant le reste de la pâte visqueuse à se mélanger. C'est ce processus de mélange qui permet à la chaleur de diffuser cent fois plus vite dans la chambre que les volcanologues ne le prévoyaient. En fonction de la taille de la chambre et de la viscosité des roches qu'elle contient, quelques mois peuvent alors suffire à raviver son activité.

Les deux chercheurs ont vérifié la validité de leur modèle sur l'éruption du Pinatubo aux Philippines, en mars 1991, qui avait causé 1000 morts et l'évacuation de deux millions de personnes, et celle, en cours, du volcan de Montserrat, dans les Caraïbes. Dans les deux cas, des secousses sismiques précédant l'éruption avaient indiqué l'arrivée de lave fraîche sous le réservoir refroidi. En tenant compte de divers paramètres physiques connus des deux volcans concernés (température des laves en jeu, taille du réservoir, concentration en cristaux déduite de l'étude des laves...), les deux scientifiques ont réussi à reproduire approximativement les durées entre ces signaux d'alarme et les éruptions. Par exemple, pour le Pinatubo, le modèle mathématique a prédit que 20 à 80 jours suffisaient pour remobiliser la chambre sous-jacente, alors que la théorie classique envisageait, elle, 500 ans. Dans la réalité, deux mois avaient séparé les tremblements de terre de l'explosion de ce volcan.

Ces recherches vont certainement pousser la communauté des volcanologues à s'intéresser davantage aux paramètres physiques des chambres magmatiques. En déterminant ces paramètres, on pourra en effet peut-être un jour, grâce à ce nouveau modèle, estimer combien de temps après avoir frissonné, un volcan va se réveiller.

CNRS

Les coraux disparaîtraient d'ici 40 ans
Vendredi, 25/02/2011 - 11:19

Les récifs de corail pourraient disparaître du fond des océans d'ici 2050 si aucune action n'est entreprise pour mettre fin aux activités qui menacent cette « forêt tropicale de la mer », prévient un rapport récemment publié.

Le réchauffement des mers lié aux changements climatiques, l'acidification des océans provoquée par les émissions de dioxyde de carbone, la navigation maritime, la surpêche et l'urbanisation des côtes menacent les coraux, dont dépend la vie de centaines de millions de personnes, indique le rapport du World Resources Institute (WRI), un centre de réflexion américain indépendant. La disparition des récifs représente aussi une énorme perte de biodiversité, puisqu'ils abritent environ le tiers des espèces marines répertoriées aujourd'hui à la surface du globe. Si la tendance se maintient, « plus de 90 % des récifs seront menacés d'ici 2030 et à peu près tous les récifs le seront d'ici 2050 », indique le rapport, qui compile des dizaines d'études.

Des activités locales comme la pêche intensive, l'urbanisation des côtes et la pollution constituent les menaces les plus directes sur les coraux, mettant directement en danger à court terme plus de 60 % de ces forêts aquatiques, peut-on lire dans le document.

Le réchauffement climatique a déjà causé des dégâts massifs, la hausse des températures provoquant un blanchiment des coraux, poursuit le rapport. Par ailleurs, l'acidification, qui est une conséquence des rejets accrus de CO2 dans l'atmosphère, menace la croissance des coraux et leur structure même, indique le rapport.

Radio Canada

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La découverte d'un «interrupteur général» des globules blancs pourrait faciliter le traitement de l'arthrite rhumatoïde
Jeudi, 03/03/2011 - 16:29

Des scientifiques au Royaume-Uni ont découvert une protéine qui agit comme un «interrupteur général» dans certains globules blancs pour déterminer s'ils favoriseront ou inhiberont l'inflammation. Les chercheurs pensent que ces résultats, publiés dans la revue Nature Immunology, pourraient contribuer au traitement de certaines maladies qui, comme l'arthrite rhumatoïde, se caractérisent par une inflammation excessive. Cette étude était partiellement financée par le projet MODEL-IN («Genomic determinants of inflammation: from physical measurements to system perturbation and mathematical»), qui a reçu plus de 2,9 millions d'euros au titre du septième programme-cadre (7e PC) de l'UE.  La réaction inflammatoire est un moyen important de défense que le corps utilise contre des stimuli nocifs tels que des infections ou des tissus endommagés. Cependant, dans bien des cas, une réaction excessive d'inflammation peut être nuisible. C'est ainsi que l'arthrite rhumatoïde se traduit par des articulations gonflées et douloureuses. Les causes de ce phénomène ne sont pas encore bien connues.

L'équipe de chercheurs de l'Imperial College London au Royaume-Uni souligne que les macrophages, des cellules du système immunitaire, peuvent stimuler l'inflammation ou l'inhiber en libérant des signaux chimiques qui modifient le comportement d'autres cellules. Les chercheurs ont montré que la protéine IRF5 agit comme un interrupteur moléculaire qui contrôle le caractère inhibiteur des macrophages. Ces résultats suggèrent que le fait de bloquer la production d'IRF5 dans les macrophages pourrait être un traitement efficace pour une large gamme de maladies auto-immunes comme l'arthrite rhumatoïde, l'affection abdominale inflammatoire, le lupus et la sclérose en plaques. Les chercheurs expliquent également qu'en augmentant le taux d'IRF5, on pourrait soigner des malades dont l'ensemble du système immunitaire est déficient.

Le Dr Irina Udalova, chercheur principal au Kennedy Institute of Rheumatology à l'Imperial College London déclare : «Certaines maladies peuvent modifier les gènes activés ou non dans certains types de cellules. Pour concevoir des stratégies afin d'inhiber les réponses cellulaires indésirables, il faut comprendre comment cette activation est régulée.» Le Dr Udalova poursuit : «Nos résultats montrent que la protéine IRF5 est l'interrupteur principal pour un ensemble clé de cellules immunitaires, déterminant les gènes qui sont activés dans ces cellules». Elle décrit cette découverte comme étant «très intéressante car si nous arrivons à mettre au point des molécules qui interféreront avec la fonction d'IRF5, nous aurons de nouveaux traitements anti-inflammatoires pour une large variété de cas».

Des chercheurs de l'Imperial College London ont déjà mis au point des traitements anti-TNF (facteur de nécrose tumorale), une catégorie de médicaments largement utilisés pour soigner l'arthrite rhumatoïde. Ces médicaments visent le TNF, un médiateur important libéré par les cellules immunitaires pour stimuler la réponse inflammatoire. Cependant, environ 30 % des patients sont insensibles à ces traitements et il est donc très important de trouver d'autres thérapies, plus largement efficaces.

Les études génétiques ont associé des variantes du gène codant pour l'IRF5 à un risque accru de maladies auto-immunes. Par conséquent, le Dr Udalova étudie le rôle de cette protéine dans le contrôle de l'inflammation. Elle a utilisé des virus modifiés pour introduire des copies surnuméraires du gène IRF5 dans des macrophages humains cultivés en laboratoire, intensifiant leur production d'IRF5. Lorsqu'elle a appliqué cette procédure à des macrophages aux propriétés anti-inflammatoires, ils se sont mis à favoriser l'inflammation. À l'inverse, le fait de bloquer la production d'IRF5 dans des macrophages favorisant l'inflammation, à l'aide de molécules synthétiques, a réduit la production cellulaire de signaux induisant l'inflammation. Elle a également étudié des souris génétiquement modifiées et incapables de produire de l'IRF5 : elles produisent moins de signaux qui stimulent l'inflammation. Le Dr Udalova en a conclu que l'IRF5 semble agir en activant des gènes qui stimulent la réponse inflammatoire et en désactivant des gènes qui l'inhibent. Pour cela, elle peut agir directement sur l'ADN, ou indirectement en interagissant avec d'autres protéines qui contrôlent quels sont les gènes activés. L'équipe étudie maintenant le fonctionnement de l'IRF5 au niveau moléculaire et si elle interagit avec d'autres protéines, pour trouver comment bloquer ses effets.

Cordis

La pollution atmosphérique très mauvaise pour le coeur
Jeudi, 03/03/2011 - 16:15

Une étude menée par Tim Nawrot de l'université Hasselt à Diepenbeek (Belgique) et publiée par la revue scientifique The Lancet a montré que, si l'on tient compte de la fréquence réelle des risques dans la vie quotidienne, l'exposition à la pollution induite par la circulation routière est la première cause d'infarctus avec 7,4 % des infarctus. Viennent ensuite l'effort physique (6,2 %), l'alcool (5 %), le café (5 %) la pollution atmosphérique (4,8 %), les émotions négatives (3,9 %) et la colère (3,1 %). "Notre travail montre que de faibles risques présents tout le temps peuvent avoir une importance considérable en termes de santé publique", notent les auteurs, en ajoutant que "l'amélioration de la qualité de l'air est un objectif très pertinent pour réduire l'incidence de cette maladie dans la population générale".

Déjà, une récente étude nord-américaine avait conclu qu'une augmentation de l'exposition de 10 µg/m³ aux particules de 10 microns ou moins se traduit, au bout d'un an, par un accroissement de 43 % du taux de mortalité par infarctus.

En 2010, une équipe CNRS/Inserm de Montpellier dirigée par Sylvain Richard et travaillant en collaboration avec des chercheurs d'Avignon avait publié dans la revue American Journal of Respiratory and Critical Care Medicine les preuves d'un effet direct de la pollution urbaine sur la fonction cardiaque, mais chez le rat en bonne santé. Leurs travaux portaient sur une exposition prolongée au monoxyde de carbone (CO), dans des conditions mimant la pollution citadine. Ils montraient qu'il provoquait une augmentation de la taille du ventricule gauche, source potentielle d'insuffisance cardiaque, ainsi qu'une altération de la contraction des cardiomyocytes pouvant entraîner des troubles du rythme cardiaque.

The Lancet

La consommation modérée d'alcool bonne pour le coeur
Jeudi, 03/03/2011 - 16:06

Le British Medical Journal a publié des méta-analyses (ces analyses qui regroupent et recoupent plusieurs études indépendantes sur un même sujet) concernant le lien entre alcool et santé. Ainsi, une nouvelle fois, il a été prouvé que boire de l'alcool avec modération, à raison d'un verre par jour, pourrait être très bénéfique pour le coeur humain, et diminuerait les risques du consommateur de décéder un jour d'une maladie cardiaque.

Au total, ce sont 84 études sur le sujet coeur/alcool qui ont été passées au peigne fin pour la principale méta-analyse par les chercheurs de l'Université de Calgary, située au Canada. Le lien établi entre ces études est que la consommation d'un verre de vin pour les femmes, et deux verres pour les hommes, par jour, contribuerait à augmenter le niveau de "bon" cholesterol qui protège alors le coeur.

En suivant ce principe, nous aurions alors de 14 à 25 % moins de risques de mourir d'une maladie cardiaque par rapport à quelqu'un qui ne consomme absolument pas d'alcool. Une autre méta-analyse expliquerait également que si le vin rouge est souvent mis en avant pour ses bénéfices sur le coeur, l'alcool importerait peu finalement, pour peu que l'on respecte la limite de 15 grammes d'alcool pour les femmes et 30 pour les hommes.

BMJ

BMJ

Le cerveau serait synonyme de «machine à tâches»
Jeudi, 03/03/2011 - 11:21

D'après une nouvelle recherche, la portion du cerveau responsable de la lecture visuelle ne requiert aucune vision. Présentée dans la revue Current Biology, les scientifiques en sont arrivés à cette conclusion suite à des études d'imagerie cérébrale de personnes aveugles ; ces derniers lisaient des mots en Braille et ont présenté une activité précisément dans la même partie du cerveau qui s'active chez un lecteur voyant. Ils affirmaient que leurs résultats allaient à l'encontre de la notion classique qui veut le cerveau soit divisé en régions spécialisées dans le traitement des informations qui arrivent d'un côte ou de l'autre. «Le cerveau n'est pas une machine sensorielle, bien que souvent il y ressemble ; c'est une machine à tâches», affirme le Dr Amir Amedi, maître de conférences à l'Université hébraïque de Jérusalem, qui a conduit l'étude. «Une zone du cerveau peut accomplir une fonction unique, dans le cas de la lecture, indépendamment de la forme des données sensorielles.»

À la différence des autres tâches qu'effectue le cerveau, la lecture est une récente invention - âgée que de quelque 5 400 ans - et le Braille est utilisé depuis moins de 200 ans. «Cela ne suffit pas pour que l'évolution ait formé un module cérébral dédié à la lecture», explique le Dr Amedi. Des études précédentes menées par le co-auteur Laurent Cohen de l'université Pierre et Marie Curie en France a montré qu'une partie spécifique du cerveau de lecteurs voyants, connu en tant que zone visuelle de forme lexicale (VWFA, de l'anglais visual word form area), a été co-optée à cette fin. Mais personne ne savait ce qui se passait dans les cerveaux des personnes aveugles qui avaient appris à lire sans aucune expérience visuelle.

L'équipe du Dr Amedi a utilisé l'imagerie par résonance magnétique fonctionnelle (IRMf) pour mesurer l'activité neurale chez huit personnes aveugles de naissance alors qu'ils lisaient des mots en Braille ou du Braille dépourvu de sens. Selon le Dr Amedi, si le cerveau était organisé à partir du traitement des informations sensorielles, la lecture du Braille dépendrait probablement des régions dédiées au traitement des informations tactiles. Si, au contraire, le cerveau était plutôt concentré sur la tâche, le pic d'activité devrait se situer dans tout le cerveau dans la VWFA, au même endroit que chez les lecteurs voyants. C'est précisément ce qu'ont découvert les chercheurs.

Une comparaison plus approfondie de l'activité cérébrale chez les lecteurs aveugles et voyants a montré que les schémas dans les VWFA étaient indifférenciables entre les deux groupes. «Les principales propriétés fonctionnelles de la VWFA comme identifiées chez les voyants sont également présentes chez les aveugles, mais sont indépendantes de la modalité sensorielle de lecture, et à notre grande surprise ne requièrent aucune expérience visuelle», écrivent les chercheurs. «Nous estimons que cela fournit les preuves les plus solides jusqu'à présent de la théorie métamodale [de la fonction cérébrale]», autrement dit, les régions cérébrales sont définies par les tâches qu'elles effectuent. «Par conséquent, la VWFA devrait également être décrite en tant que zone tactile de forme lexicale, ou plus généralement en tant que zone de forme lexicale (métamodale).»

Les chercheurs suggèrent que la VWFA est une zone d'intégration multi-sensorielle qui relie des caractéristiques simples dans des descriptions de forme plus élaborées, ce qui est idéal pour la relativement récente tâche de lecture. «Son site anatomique spécifique et sa forte connectivité aux zones du langage permettent de relier la représentation lexicale perceptuelle à haut niveau et les composants liés à la langue de lecture», écrivent-ils. «Cela en fait la région la plus adaptée à la tâche d'acquisition de la lecture, même lorsque cette dernière est acquise à travers le toucher sans expérience visuelle préalable.»

Le Dr Amedi a affirmé que les chercheurs prévoient maintenant de se pencher sur l'activité cérébrale lorsque des personnes apprennent à lire grâce à la méthode Braille pour la première fois, afin de découvrir à quel rythme cela a lieu. «Comment le cerveau transforme-t-il les informations en mots?», s'interroge-t-il. «Est-ce instantané ?»

Cordis

Les tortues sont les animaux les plus menacés d'extinction
Jeudi, 03/03/2011 - 11:07

A l’instar des tigres et des pandas, les tortues sont elles aussi menacées d’extinction. Sur les 328 espèces connues, la moitié est en grand danger, indique un rapport de l’IUCN (Union internationale pour la conservation de la nature).

Un rapport de l’IUCN indique que les tortues sont extrêmement menacées et que, si rien n’est fait, 25 espèces sur les 328 existantes auront à tout jamais disparu d’ici quelques années. L’espèce la plus menacée de toutes est la tortue Pinta, une sous-espèce de la tortue géante des Galapagos, rapporte l'AFP. Il ne reste qu’un seul individu de cette espèce surnommée "Lonesome Georges". Avec la mort de "Georges" l’espèce des tortues Pinta s’éteindra. La seconde espèce la plus menacée est la tortue géante à carapace molle du Yangtze qui habite les zones de la Chine et du Vietnam. Avec l’urbanisation galopante de ces régions du globe, leur habitat a été totalement détruit et on ne compte que quatre survivantes dans les zoos chinois. Comme pour les tortues Pinta, les scientifiques ne parviennent pas à les faire se reproduire.

Médecine traditionnelle et fêtes religieuses en ligne de mire

Les plus grands fléaux pour les tortues sont certainement les fêtes religieuses et la médecine traditionnelle chinoise. "Dans un seul marché de Dhaka, au Bangladesh, près de 100.000 tortues sauvages sont capturées et vendues pour être mangées à l’occasion d’une journée de fête religieuse, une fois par an", indique l’IUCN. Quant à la Chine, la médecine traditionnelle les utilise régulièrement quand elles ne sont pas vendues comme animal domestique. On estime également que huit millions de tortues sont restées prises au piège et tuées dans les filets de pêche vietnamiens depuis 1990. Certaines organisations mettent en place le TSA (l’alliance pour la survie des tortues) qui cherche à rapprocher les mâles et les femelles d’une même espèce pour leur assurer une descendance et qui, en plus de sensibiliser les populations locales, permet aux braconniers de se reconvertir (en Inde notamment). Mais la lutte est difficile car plus le tortues se font rares, plus leur prix de vente grimpe et certaines espèces très recherchées peuvent se monnayer plusieurs centaines de milliers de dollars, rapporte l’IUCN.

Maxisciences

Les étonnantes propriétés des toiles d'araignées enfin expliquées
Jeudi, 03/03/2011 - 11:00

Une récente étude allemande s'est penchée sur la structure des fibres de soie fabriquées par les araignées afin de tenter d'expliquer leurs remarquables caractéristiques mécaniques.

Utilisées pour tisser des toiles ou se suspendre, les fibres de soie produites par les araignées fascinent depuis longtemps les chercheurs. Très solides et très élastiques, elles sont aussi extrêmement légères et bien moins denses que du coton ou du nylon. Pour expliquer de telles performances, de nombreuses études scientifiques se sont intéressées à leur fabrication et leur composition. Mais les fibres restaient encore assez mystérieuses, du moins jusqu'ici.

En effet, une étude publiée ce mois-ci dans la revue Biophysical Journal, révèle de nouveaux éléments sur l'architecture et la structure moléculaire de la soie des araignées. On savait déjà que les fibres étaient constituées de deux types de composants : un mou et amorphe et un second, solide et cristallin. Pour mieux comprendre leurs propriétés mécaniques, les chercheurs de l'Institute for Theoretical Studies de Heidelberg, en Allemagne, ont donc mis au point des simulations informatiques de la structure des fibres et de leurs deux composants. Ils ont alors découvert que les segments mous et amorphes étaient responsables de l'élasticité de la soie et que ceux-ci aidaient à répartir la tension sur les fibres. De même, il semblerait que la solidité dépende de la quantité de composant cristallin. Ainsi, les chercheurs ont pu tester les capacités mécaniques de différentes architectures : "Nous avons déterminé qu'un arrangement en disques des sous-unités amorphe et cristalline était plus performant qu'un arrangement en parallèle ou au hasard, suggérant un nouveau modèle structurel pour la soie", a expliqué le Dr Frauke Gräter, principal auteur de l'étude.

Jusqu'ici, les fibres naturelles parvenaient encore à surpasser leurs homologues artificiels mais ces découvertes pourraient permettre de fabriquer de la soie synthétique aussi performante que celle des araignées.

Maxisciences

Diagnostiquer la dyslexie grâce à l'imagerie cérébrale
Dimanche, 27/02/2011 - 21:55

Selon des  chercheurs de l'École de médecine de Stanford en Californie, l'imagerie cérébrale d'adolescents dyslexiques est le meilleur moyen actuel de détecter ceux qui arriveront à corriger leur handicap. Les chercheurs ont d'abord enregistré par IRM fonctionnelle l'activation au cours de la lecture du cerveau d'adolescents de 14 ans dyslexiques, puis renouvelé la mesure deux ans et demi plus tard. Les enfants qui avaient le plus progressé dans la lecture étaient ceux qui sollicitaient le plus une région de leur cerveau droit, le gyrus frontal inférieur, et qui présentaient aussi les meilleures connexions entre cette région et celles de l'audition. Lorsque ces deux critères sont remplis, Fumiko Hoeft et ses collègues arrivent à prédire une amélioration de la lecture chez plus de 70 % des adolescents dyslexiques, et même chez 90 % d'entre eux si l'ensemble des données cérébrales sont prises en compte.

Le gyrus frontal inférieur droit était déjà connu pour être recruté par les dyslexiques lors de la lecture, et cela d'autant plus qu'ils sont âgés alors que l'activité de l'hémisphère gauche est déterminante chez les lecteurs normaux. L'étude montre ainsi l'importance de l'hémisphère droit dans les mécanismes de compensation mis en place chez les dyslexiques. Ces résultats confirment aussi qu'une stratégie cérébrale alternative de la lecture peut se développer chez certains enfants dyslexiques et les auteurs suggèrent que d'autres méthodes d'apprentissage de la lecture pourraient leur être plus profitables.

Cette étude intéressante n'ouvre pas pour autant la voie vers l'utilisation systématique de l'IRM pour tous les enfants dyslexiques car chaque enfant est unique et la dyslexie un phénomène complexe qui résulte de multiples facteurs. Une difficulté à distinguer certains sons semble cependant un facteur de risque important pour l'apparition ultérieure de la dyslexie et pourrait être détectée à la naissance dans des familles particulièrement touchées. Ce type d'étude reposant sur l'imagerie cérébrale peut aussi nous donner des pistes à explorer pour aider les enfants à compenser leur déficit.

En France, la dyslexie concerne environ 5 % des enfants et se manifeste dès le CP par une difficulté à associer lettres et sons, surtout pour des sons brefs comme p, t, b. Le diagnostic, porté par le médecin traitant, peut conduire à des exercices spécifiques qui permettront de la corriger au moins en partie. Ce trouble de l'apprentissage a une composante génétique, des antécédents familiaux existant dans près de 70 % des cas. Il peut être aggravé par un faible entraînement à la lecture, ce qui explique en partie pourquoi les milieux sociaux défavorisés sont les plus touchés.

PNAs

Cancer : de nouvelles avancées en 2011
Dimanche, 27/02/2011 - 19:03

Par Sabine de la Brosse - Paris Match

Le Professeur Jean-Charles Soria, (Chercheur à l’Institut Gustave-Roussy de Villejuif), cancerologue, commente les dernières études internationales qui démontrent l’efficacité des nouveaux traitements ciblés.

Paris Match. Quels cancers avancés sont concernés par les dernières publications du “New England Journal of Medicine” sur les nouveaux traitements personnalisés ? Pr Jean-Charles Soria. A ce stade métastasé où d’autres organes ont été atteints, trois en bénéficieront : le mélanome, le cancer de la prostate et une forme particulière du cancer du pancréas.

Jusqu’à présent comment prend-on en charge ces formes évoluées ? Les mélanomes sont traités par chimiothérapie (par exemple, le cisplatine...). Pour les cancers de la prostate, on prescrit la prise d’antihormonaux et, en cas de résistance au traitement, on administre une chimiothérapie (notamment avec du Taxotere). Les tumeurs pancréatiques neuroendocrines sont également traitées par chimiothérapie.

Dans ce combat contre la maladie, quels effets secondaires les patients doivent-ils supporter ? Ces chimiothérapies, qui attaquent non seulement les cellules cancéreuses mais aussi les saines, entraînent une fati­gue, une baisse des globules blancs... et très souvent une perte de cheveux ainsi qu’une altération des cils et des ongles. Les produits antihormonaux, moins toxiques, induisent cependant une perte de la libido.

Quels sont ces nouveaux traitements qui arrivent sur le marché en 2011 ? Des thérapies personnalisées viennent bouleverser le pronostic de ces formes de cancer évolué ! Il ne s’agit plus de science-fiction, mais de réelles avancées thérapeutiques. Ces nouveaux protocoles appartiennent à un groupe de médicaments, dits ciblés, car leurs molécules s’attaquent spécifiquement à des anomalies propres aux cellules cancéreuses. Dans le cas du mélanome, il existe deux nouveaux traitements. En ce qui concerne le premier, une molécule (PLX4032) va viser spécifiquement un gène particulier qui, par sa transformation, est responsable de la prolifération anarchique des cellules malignes. Résultat : la mutation du gène est bloquée et la maladie semble régresser.

Et quel est le mécanisme d’action du deuxième nouveau traitement ? Il est destiné cette fois à stimuler le système immunitaire pour combattre les cellules cancéreuses. Il va également être commercialisé cette année. Il s’agit de la molécule ipilimumab qui, lors d’un essai international conduit sur 676 patients, a révélé une efficacité jusque-là jamais atteinte !

En ce qui concerne cette fois les cancers de la prostate, quelle est l’avancée thérapeutique ? Il s’agit d’un nouveau produit antihormonal : l’abiraterone dont le but est de lever la résistance qui apparaît fréquemment avec les classiques anti-hormonaux. Une très vaste étude, conduite par le Pr Fizazi de notre Institut Gustave-Roussy, a permis d’observer une amélioration spectaculaire des métastases osseuses et de leurs douleurs.

De quels progrès bénéficieront les malades atteints de la forme neuroendocrine de cancer du pancréas ? Deux molécules vont transformer leur pronostic ; la première, le sunitinib, asphyxie la tumeur en détruisant ses vaisseaux nourrissiers. La deuxième molécule (évérolimus) coupe le signal de prolifération des cellules malignes en agissant sur une protéine spécifique.

Quels sont les effets secondaires de ces nouveaux traitements ? Ils sont généralement beaucoup moins lourds que ceux des thérapies conventionnelles car ils permettent une bien meilleure qualité de vie.

Et pour 2012 où se situeront les plus grands progrès ? Pour les cancers avancés du poumon, porteurs d’un gène spécifique, un nouveau traitement oral (avec le crizotinib) permettra la disparition rapide des métastases. Et pour une forme particulière du cancer du sein, trois nouvelles molécules sont fortement attendues.

Paris Match

Des connaissances nouvelles sur le ribosome pourraient permettre l’apparition d’antibiotiques nouveaux
Vendredi, 25/02/2011 - 11:58

Des chercheurs de l'Université de l'Illinois à Chicago ont découvert un mécanisme de signalisation dans le ribosome bactérien, qui détecte les protéines qui elles-mêmes activent des gènes de résistance aux antibiotiques.

"Le ribosome est un des mécanismes moléculaires parmi les plus complexes dans la cellule», a déclaré Alexander Mankin, professeur de l'UIC et directeur du Centre pour la Biotechnologie pharmaceutique. Le ribosome est responsable de la production de toutes les protéines dans la cellule, et dans les bactéries, il est l'un des objectifs essentiels des antibiotiques. Comprendre comment les signaux sont générés et transmis au sein du ribosome, dit Mankin, pourrait un jour conduire à de meilleurs antibiotiques.

Le compte-rendu des travaux d’Alexander Mankin, financés par la National Science Foundation, a été publié dans la revue Molecular Cell .

Le ribosome est responsable de l'activation des gènes de résistance aux antibiotiques. Pour que cela se produise, des capteurs spéciaux dans le ribosome doivent reconnaître les signaux cellulaires et la structure de la protéine de régulation. Une fois que le signal est détecté, il est ensuite transmis aux centres fonctionnels qui modifient le fonctionnement du ribosome. Or, Alexander Mankin a trouvé au moins une des voies de signalisation dans le ribosome. Lui et ses collègues de travail ont constaté que la présence de la protéine de régulation change les propriétés du centre catalytique du ribosome.

Dans des conditions normales, le centre catalytique du ribosome peut accepter l’ensemble des 20 acides aminés naturels, qui sont ensuite ajoutés à la chaîne protéique en croissance. Toutefois, si le ribosome a synthétisé la protéine de régulation en présence d'un antibiotique, le centre catalytique rejette une partie ou même tous les acides aminés. En conséquence, la synthèse de la protéine régulatrice s'arrête, et les gènes de résistance aux antibiotiques sont activés. «C'est l'une des stratégies utilisées par des bactéries pathogènes exposées à des antibiotiques pour réguler l'expression des gènes de résistance aux antibiotiques», a déclaré Alexander Mankin.

Alexander Mankin et son équipe de recherche - Haripriya Ramu, Nora Vazquez-Laslop et Dorota Klepacki – ont été assistés par Dai Qing et Joseph Piccirilli, de l'Université de Chicago et Ronald Micura de l'Université d'Innsbruck en Autriche.

Science Daily 

Le régime végétalien pourrait accroître les risques de maladies cardio-vasculaires
Vendredi, 25/02/2011 - 11:41

Selon une étude chinoise publiée dans le Journal of Agriculture and Food Chemistry le mois dernier, le régime végétalien pourrait accroître les risques de caillots sanguins et de durcissement des artères, pouvant causer des crises cardiaques et des attaques.

L'étude menée à Hangzhou (Chine) s'est basée sur l'analyse de dizaines d'articles sur la biochimie de ce type de régime publiés au cours des 30 dernières années.

Alors que les mangeurs de viande ont des facteurs de risques cardio-vasculaires significativement plus élevés que les végétaliens, l'étude montre que les végétaliens tendent à avoir des taux élévés d'homocystéine dans le sang, un acide aminé lié aux maladies coronariennes, et des niveaux plus bas de HDL, aussi appelé "bon" cholestérol.

Le régime végétalien, qui élimine la viande et tout produit animal comme les oeufs et le fromage, manque de certains nutriments-clés comme le fer, le zinc, la vitamine B12 et les oméga-3, qui peuvent faire baisser les risques de maladies cardio-vasculaires. Les acides gras Oméga-3 font baisser les risques d'arythmie (des battements de coeur anormaux), ralentissent la formation de caillots sanguins et permettent de faire baisser la pression sanguine.

L'étude recommande aux végétariens et aux végétaliens d'accroître leur consommation de ces nutriments. On trouve des oméga-3 dans le saumon et les noix, et de la vitamine B12 dans les crustacés, les oeufs et les laits enrichis (comme celui de soja).

Résumé de l'étude
Le Parisien

Grippe : bientôt des vaccins sans oeufs
Vendredi, 25/02/2011 - 11:02

Sera-t-il possible demain d'utiliser exclusivement des vaccins produits autrement que sur des oeufs de poules embryonnés ? Une nouvelle étude publiée dans The Lancet, laisse en effet entendre que les vaccins issus de la culture cellulaire seraient aussi efficaces que les autres.

Le principal défaut de la méthode de production actuelle, par ailleurs largement éprouvée, réside dans les délais de fabrication qu'elle impose. Ils s'étalent généralement sur une période de 4 à 6 mois. Et pour cause : d'après une étude américaine de 2006, plus de 4 milliards d'oeufs embryonnés sont nécessaires à la production de 1,2 milliard de doses de vaccins. En période de pandémie comme en 2009/2010, ces délais représentent un véritable obstacle à la réactivité des producteurs. Se pose également le problème des personnes allergiques à la protéine d'œuf, dont la vaccination est difficile ou impossible.

C'est pourquoi depuis quelques années, certains fabricants se sont lancés sur la piste de la culture cellulaire. Le vaccin est alors multiplié en laboratoire, sans recours aux œufs embryonnés. En 2009, lors de la pandémie grippale, un vaccin produit de cette manière avait d'ailleurs été autorisé par les autorités sanitaires européennes. Il s'agit du Celvapan® de l'Américain Baxter.

Au cours d'une nouvelle étude, le Dr Noel Barrett et son équipe de Baxter Bioscience (Vienne Autriche) ont évalué l'efficacité d'un autre vaccin issu de la culture sur cellule Vero. « Ce travail n'a rien à voir avec le Celvapan® », nous a indiqué le Dr Barrett. « Le vaccin en question porte le nom de Preducel®. Il cible la grippe saisonnière, et contient les trois souches inactives suivantes : H1N1, H3N2 et B ».

Au total, 7 250 sujets ont participé à cette étude de phase 3. A partir de la réponse en anticorps qu’ils ont observée, les auteurs expliquent que le vaccin a conféré une protection dans 78,5 % des cas. Un score comparable selon eux à celui des autres vaccins antigrippaux (73 %). Le vaccin produit à partir de la culture cellulaire serait donc tout aussi efficace que le produit traditionnel.

Destination santé

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Cybergo : un véhicule électrique intelligent
Lundi, 28/02/2011 - 13:40

L’entreprise française Induct va expérimenter à La Rochelle un véhicule électrique intelligent, Cybergo, disposant d’un habitacle pouvant accueillir 6 à 8 personnes. Cette navette fonctionnera de façon autonome, sans chauffeur et sans pilotage extérieur, grâce à quatre lasers positionnés aux quatre coins et permettant d’avoir un angle de perception de 90 degrés chacun.

Dans un premier temps, la vitesse maximale sera de 18 km/h. Cybergo peut être équipé d’une batterie lithium-polymère, mais ce système nécessite une recharge régulière. C’est pourquoi, une deuxième solution est étudiée, consistant à recharger le véhicule par induction. La navette cachera sous son plancher une plaque reliée à des batteries de super capacité, type condensateurs. Des plaques similaires reliées à une borne, elle-même connectée au réseau, seront posées sur le sol. Lorsque la navette passera dessus, elle s’alimentera automatiquement en électricité, sans aucun contact. Ce système nécessite une infrastructure dédiée et, selon les études, équipée de plaques tous les 500 mètres, afin de permettre à la navette de fonctionner jour et nuit sans interruption.

La règlementation interdit aujourd’hui la circulation de ce type de véhicules sur les routes classiques, mais la ville de La Rochelle a voté un arrêté municipal autorisant Cybergo et aménagera l’environnement physique nécessaire. Le tarif de commercialisation de base pourrait être de 150 000 euros, mais la première expérimentation mondiale qui devrait se dérouler dans le courant du premier semestre 2011 permettra d’affiner ces estimations.

Cybergo

Les modèles à pile à combustible pas plus chers que les hybrides diesels en 2015 selon Mercedes
Vendredi, 25/02/2011 - 10:50

Les constructeurs engagés sur la voie du véhicule à pile à combustible font preuve d’un certain optimisme de façade. Après Honda, qui avait exprimé en 2009 l’objectif de livrer en 2020 des modèles hydrogène au prix de ceux essence, après Toyota qui envisageait en 2010 un tarif de 50 000 dollars pour son modèle hydrogène de 2015, c’est au tour de Mercedes de s’aventurer à promettre un tarif accessible pour son premier modèle de série.

D’après Herbert Kohler, responsable de la branche « e-Drive » du constructeur allemand, cité par Automotive News, « d’ici 2015, une voiture à pile à combustible ne coûtera pas plus cher qu’une hybride diesel conforme à la norme Euro 6 ». Et d’ajouter qu’à ce moment-là, les voitures électriques coûteront sans doute plus cher que les voitures à hydrogène.

Pour cette ordre de grandeur de tarif, M. Kohler ne parle pas de la génération actuelle de voitures à pile à combustible, comme sa Classe B louée 849 dollars par mois aux Etats-Unis. Il parle de la génération suivante, qui apparaîtra vers 2013 ou 2014, et pour laquelle les coûts de recherche sur les composants auront été un peu plus amortis. Des économies d’échelle sont également envisageables puisque des versions hydrogène de la Classe C et de la Classe E devraient également voir le jour.

Cartech

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top