RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 423
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Mars 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un ordinateur quantique commercialisé dès 2008
La lumière exploitée pour faire tourner un ordinateur
Japon : un système pour analyser l'impact émotionnel d'une émission de TV
Les 10 technologies émergentes en 2007 selon le MIT
La Grande-Bretagne mise sur la photonique
Avenir
Des robots volants qui ont pour modèle la mouche
Six nanotechnologies pour réduire les émissions de carbone
Matière
La France se dote d'un outil de recherche nucléaire unique au monde
Endesa inaugure son premier parc éolien en France, dans l'Aisne
L'Europe mise sur l'alliance de l'hydrogène et du moteur à combustion
Terre
L'hiver le plus doux en Europe depuis un siècle
Les séismes violents pourraient être prévus
Vivant
Des chercheurs créent un moustique transgénique résistant au paludisme
Un peu d'exercice aide à arrêter de fumer
Des essais cliniques prometteurs pour l'Interleukine-7
Edito
Edito : Que doit-on faire pour que chaque Français dispose du très haut débit avant 15 ans ?



Chacun devrait être convaincu par une évidence que je proclame dans ces colonnes depuis de très nombreuses années (voir mes éditos n° 228 et n°235 de mars 2003).

Dans les 15 ans qui viennent, le très haut débit (100 Mégabits symétriques au minimum) sera aussi nécessaire pour la vie de tous les jours que l'eau au robinet ou l'électricité domestique. Or, tous les travaux de recherche et développement depuis plus de 20 ans affirment et maintenant confirment que seules les technologies optiques permettront de connecter ainsi tous les foyers au très haut débit.

Chacun convient maintenant (mais que de temps perdu !) que le cuivre avec ses électrons est hors jeu pour relever ce défi. Les réseaux radio (voir les derniers développements du WiMax MIMO) vont eux aussi atteindre de très hauts débits mais ils vont essentiellement être affectés à la mobilité. Leur affectation à des réseaux fixes trouverait rapidement ses limites tant le spectre des fréquences est un bien non extensible.

Tous les responsables politiques de notre Pays doivent en être convaincus, que leurs compétences soient nationales, régionales, départementales ou communales : il est grand temps de tout entreprendre pour que chaque Français, dans les 15 ans qui viennent, soit desservi par une fibre optique. Et ce, quel que soit l'endroit où il habite.

Il y a un siècle, les défis relevés par nos « anciens » étaient autrement difficiles aussi bien au niveau technologique que financier. Qui aurait cru en 1907 que quelque 80 ans plus tard, chaque maison habitée de France, même si elle est située au « fin fond » d'une campagne inaccessible, serait desservie par un câble électrique et un tuyau d'eau potable ? Et pourtant le challenge paraissait insurmontable tant les problèmes techniques à résoudre étaient complexes.

Il est autrement difficile et dangereux de tirer partout des câbles électriques supportant au minimum 220 Volts, dont un maniement malheureux peut provoquer la mort, que d'enfouir des fibres optiques qui ne porteront que de la lumière.

Aussi, pour faire en sorte que le défi qui nous permettra de desservir chaque maison, chaque appartement, chaque foyer, avec une fibre optique, dans 15 ans au plus tard, soit relevé, il faut que les responsables politiques disent très clairement à leurs ingénieurs que les règles qui prévalent depuis des décennies pour la réalisation des réseaux électriques ou des réseaux d'eau, au niveau du génie civil, ne soient pas appliquées pour la mise en place de la fibre optique. A cause du comportement des responsables techniques des collectivités et des règles anciennes imposées par l'opérateur historique, le coût du génie civil (réalisation des tranchées, des regards, des chambres de tirage, remise en état, etc...) atteint parfois 80 % du coût global de la construction d'un réseau optique.

Depuis bientôt 10 ans, les sociétés d'autoroutes ont implanté à moins de 40 cm de profondeur, grâce à de nouvelles machines qui tranchent le béton ou le bitume, posent le fourreau et referment la micro-tranchée qui ne fait que 10 cm de largeur, des milliers de kilomètres de fibres optiques qui, aujourd'hui, servent de « backbone » à de très nombreuses liaisons très haut débit reliant toutes les régions françaises. Or, ces réseaux optiques mis à disposition par les sociétés d'autoroutes n'ont pas une renommée de fiabilité inférieure aux réseaux très onéreux reposant au fond de tranchées de 60 sinon 80 cm.

Soyons bien clairs : une fibre optique activée n'est en rien dangereuse. Un enfant qui s'en saisirait pour la couper avec un couteau pourrait le faire sans aucun danger. Il ne ferait qu'interrompre les flux de lumière. Nous savons qu'il n'en serait pas de même s'il entreprenait de couper un câble électrique sous tension !

Aussi, afin d'éviter de continuelles tentations, il suffit techniquement de cacher la fibre mais il est inutile de fortement la protéger. Certes, ces réseaux de surface connaîtront des ruptures liées à d'autres travaux sur les ouvrages publics mais quand on sait l'efficacité et la rapidité de réparation des robots maintenant affectés à la remise en état des réseaux optiques rompus (même avec de très nombreuses fibres), il est bien préférable de prendre le risque statistique d'une coupure accidentelle que de devoir payer une tranchée onéreuse mobilisant souvent des obligations de droits de voiries longues et fastidieuses.

Si nous arrivions déjà à faire admettre par nos ingénieurs les « énormités » que je viens d'énoncer, nous aurions parcouru une bonne partie du chemin. La mise en place de fibres optiques sur tous les accotements des routes nationales, départementales, communales et rurales de France ne serait plus une tâche insurmontable atteignant des coûts pharaoniques.

L'ayant personnellement réalisé dans mon propre Département, le Rhône, je pense que l'échelle départementale est le niveau de gestion des territoires le plus pertinent pour mettre en place ces réseaux du futur.

En effet, les Départements qui avaient déjà le plus grand linéaire de voirie, en France, viennent de voir s'ajouter à leurs réseaux de routes départementales les routes nationales. Par ailleurs, les Départements sont étroitement associés (du moins en milieu rural) aux communautés de communes et aux communes pour le financement de tous les investissements concernant les voiries municipales et la voirie rurale qui dessert chaque écart, chaque bâtiment isolé.

Aussi, pourquoi ne pourrions-nous pas voir les Départements s'emparer avec force du destin numérique de tous les habitants de leurs territoires, en programmant, sur 10 ans, la mise en place systématique des fibres optiques sur tous les accotements de toutes les voiries de leurs collectivités ?

Comme ces travaux de mise en place des fibres optiques seraient réalisés concomitamment avec les travaux de remise en état de toutes les voiries (statistiquement chaque voirie est rénovée, ne serait-ce que par un simple tapis, une fois tous les 10 ans) et avec l'utilisation d'un matériel spécialisé (trancheuse) qui peut réaliser la mise en place d'une grande longueur de fourreaux chaque jour, le coût de la construction de ces réseaux optiques serait relativement marginal par rapport au coût global de construction et de remise en état des voiries.

Si, ainsi, la fibre optique arrivait à un point de concentration optique dans chaque village, près de chaque pavillon, près de chaque maison, près de chaque ferme, les responsables des Départements, et parmi eux en priorité les Départements ruraux qui n'ont pas encore réussi à résoudre l'équation économique de desserte en très haut débit de tous leurs habitants, quel que soit leur lieu de résidence, n'auraient plus de soucis à se faire pour trouver des opérateurs qui accepteraient de desservir tous les coins de France. En effet, les coûts de la « quincaillerie » optronique qui baisseront très fortement dans ces 10 prochaines années ne seront plus un frein pour atteindre l'équilibre économique d'une installation optique de très haut débit dans chaque foyer.

Il est urgent que l'ensemble des responsables politiques français acceptent de déroger aux règles. Autant il serait absurde de vouloir ignorer la rigueur qui doit entourer l'enfouissement d'un câble électrique ou d'une conduite de gaz, autant il faut être convaincu qu'il n'y a aucun danger à enfouir une fibre optique à une profondeur ne dépassant pas les 40 cm, dans une micro tranchée ne dépassant pas les 10 cm en largeur.

C'est en prenant des décisions pragmatiques de cette nature que nous ferons vraiment avancer le dossier de l' « opticalisation » intégrale de notre Pays, si déterminante pour notre avenir.

Annoncer qu'il faudrait encore trouver des dizaines de milliards d'euros pour desservir l'ensemble du monde rural ne fait encore qu'approfondir la fracture entre le monde urbain et le monde rural. Dès ces prochains mois, les habitants des villes vont commencer à accéder à un très haut débit de 100 Mégabits symétriques alors que rien n'est encore prévu, dans aucun endroit rural de France (sauf dans le Rhône et la Manche) pour permettre à l'abonné de base de dépasser les 10 Mégas descendants et les 2 Mégas montants avant de très nombreuses années.

Cette fracture ne sera pas politiquement tenable et c'est pourquoi, avec imagination et audace, les élus de France doivent suivre de nouvelles voies.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un ordinateur quantique commercialisé dès 2008
Vendredi, 23/03/2007 - 00:00

La société D-Wave Systems a récemment présenté à Moutain View (Silicon Valley - Californie) - puis à Vancouver (Telus World of Science) - son système Orion, démonstration du concept d'un prototype d'ordinateur quantique à 16 qubits dont elle annonce la commercialisation... dès l'an prochain !

Effet d'annonce ? En tous cas, bien que tous les problèmes ne soient pas encore résolus, et forte d'un financement de capital-risque de quelque 30 millions de dollars canadiens, cette start-up canadienne aime à se définir comme le "premier et unique fournisseur de systèmes de calcul quantique conçus pour faire fonctionner des applications commerciales". Les démonstrations ont porté sur 3 applications (une ayant trait à la bioinformatique et les deux autres à des problèmes d'optimisation) :

- reconnaissance de formes appliquées à la recherche de molécules dans une banque de données

- résolution d'un problème de sudoku

- arrangement d'un plan de table (affectation de la place des convives par affinités de personnes).

Le système Orion est constitué d'une paire de super-conducteurs - aluminium et niobium - portés à une température proche du zéro absolu (-273,15° C). Dans cet état, les métaux peuvent se trouver dans les positions électriques 0 et 1 simultanément, permettant ainsi d'obtenir de véritables bits quantiques (appelés encore qubits). Cet ordinateur est construit autour d'un processeur de 16 qubits supraconducteurs, dont le fonctionnement est celui d'un ordinateur quantique adiabatique.

Les qubits sont des boucles quasi-circulaires disposées sur une matrice 4x4 et couplées avec leurs plus proches voisins (Nord, Sud, Est, Ouest), ainsi que leurs seconds plus proches voisins (N, S, E, O), par des transformateurs de flux ajustables. Le circuit compte ainsi un total de 42 coupleurs de flux. En ajustant ces derniers, puis en appliquant un champ magnétique, le système se met dans l'état quantique représentant la solution du problème étudié.

Dit en d'autres termes, la machine est programmée en faisant varier les conditions magnétiques autour des qubits, créant des relations entre eux qui modèlent l'incorporation (la mise en forme) physique de l'équation que le programmeur veut résoudre. Les résultats sont lus en détectant la direction du courant du qubit une fois tous les calculs faits.

Si pour l'instant, ce système permet uniquement de résoudre des problèmes particuliers s'exprimant sous forme du "modèle d'Ising bidimensionnel en champ magnétique", l'entreprise prévoirait d'ores et déjà l'intégration d'un coupleur supplémentaire qui rendrait le calculateur quantique universel et permettrait, entre autres, de faire des simulations quantiques.

Avec 16 qubits de puissance de calcul - soit plus de 64000 opérations en simultané, ce qui est déjà en soi une belle prouesse, Orion est encore loin des supercalculateurs. Mais le prototype présenté est encore 100 fois plus lent qu'un calculateur numérique courant. D-Wave, en tous cas, annonce sans complexe le lancement d'une version à 32 qubits d'ici à la fin de l'année, puis des versions à 512 qubits et 1024 qubits pour 2008 !

Alors, faut-il déjà considérer la mise à l'index des ordinateurs traditionnels ? Non bien sûr car l'informatique classique et l'informatique quantique se complètent plus qu'elles ne s'opposent. L'entreprise elle-même déclare que le calcul quantique ne doit pas être vu ici comme un remplacement des calculateurs digitaux, mais comme l'apport de nouvelles possibilités, par exemple dans le cas de certains types de calculs liés à la finance, la biologie, la chimie, la sécurité (biométrie notamment), la défense, la logistique...

AI

DWS

La lumière exploitée pour faire tourner un ordinateur
Vendredi, 23/03/2007 - 00:00

Un groupe de chercheurs britanniques s'intéresse actuellement à la manière de placer la photonique au coeur du fonctionnement du PC. Au Royaume-Uni, une équipe de physiciens de l'Université de Bath est actuellement réunie autour d'un projet qui propose de créer un ordinateur capable de fonctionner uniquement avec l'énergie lumineuse en lieu et place des composants électroniques traditionnels.

Financé par l'EPSRC (Engineering and Physical Sciences Research Council), ce projet de recherche d'un coût global de 1 195 000 euros s'intéressera au développement d'une technologie permettant d'envoyer de la lumière dans une série continue de pulsations d'une durée infinitésimale, de l'ordre de l'attoseconde, soit un trillionième de seconde.

Ces travaux de recherche pourraient contribuer au développement de la photonique et offrir aux chercheurs la possibilité d'observer de très près, pour la première fois, le monde de la structure atomique.

"Exploiter les ondes optiques constitue une étape considérable, voire peut-être définitive, dans l'établissement de l'ère photonique", a déclaré le Dr Fetah Benabid, en charge de l'équipe de chercheurs.

"Depuis le développement du laser, la science et la technologie se sont données comme principal objectif d'émuler les innovations électroniques en utilisant les ondes optiques. Nous pensons que ce projet constituera un véritable tournant."

Si la loi de Moore s'est vérifiée durant ces quarante dernières années, les fabricants de processeurs ont presque atteint aujourd'hui un point où il devient de plus en plus difficile de poursuivre la miniaturisation des puces en raison des dommages causés par les champs magnétiques créés par un transistor donné sur les transistors proches.

C'est pourquoi les ingénieurs misent aujourd'hui sur la photonique, une science qui utilise la lumière pour véhiculer l'information. Mais la photonique utilise uniquement la lumière présentant une forme d'onde sinusoïdale, ce qui n'a pas grand intérêt pour les communications nécessaires au fonctionnement d'un ordinateur.

Les chercheurs de l'université de Bath souhaitent faire en sorte que la photonique soit capable de créer différentes formes d'onde. Ils utilisent pour cela de nouvelles fibres à cristal photonique car, contrairement aux fibres optiques classiques, elles sont capables de canaliser la lumière sans entraîner d'importantes pertes d'énergie. Selon le Dr Benabid, ces travaux de recherche pourraient trouver de nombreuses applications dans des domaines comme la chirurgie au laser ou la physique quantique.

VUNet

Japon : un système pour analyser l'impact émotionnel d'une émission de TV
Vendredi, 23/03/2007 - 00:00

Une filiale du géant des télécommunications japonais NTT a annoncé le lancement prochain d'un service destiné à mesurer l'impact émotionnel d'une émission de TV, d'une publicité ou d'un site internet, grâce à un système d'analyse du mouvement des yeux face à l'écran. Cette "solution d'analyse émotionnelle" s'appuie sur une technologie unique mise au point par une société spécialisée japonaise, VIS, et NTT learning System (NTTLS). Ce système "permet d'estimer avec un haut degré de fiabilité l'intérêt réel ressenti par un téléspectateur ou un consommateur face aux images, en s'appuyant sur une mesure comportementale et psychologique précise, via l'analyse de son regard", a expliqué NTTLS. Le dispositif scrute, à l'aide d'une petite caméra, le mouvement des pupilles, les clignements, l'écarquillement et autres variations, et compulse le tout pour en déduire le tréfonds émotionnel. Par ce biais, il est également possible de tester l'impact du design d'un nouveau produit en le présentant à l'écran, selon NTTLS.

NTTLS va proposer un service complet permettant par exemple à des publicitaires, des producteurs de programmes de télévision, des designers ou des créateurs de sites de déterminer scientifiquement les points forts et lacunes de leurs réalisations. Le tout en faisant appel via Internet à des spectateurs cobayes volontaires plantés devant leur PC ou leur TV.

NTT

Les 10 technologies émergentes en 2007 selon le MIT
Vendredi, 23/03/2007 - 00:00

Comme chaque année, la Technology Review publie sa sélection des dix technologies les plus intéressantes et les plus susceptibles d'avoir un impact sur l'économie et la société. Trois de ces technologies appartiennent aux sciences de la vie; Il s'ait de la nanocitratisation qui consiste en des microfibres de peptides qui s'assemblent pour stopper une hémorragie ; vient ensuite le contrôle des cellules neuronales pour des applications très médicales en psychiatrie ; dernière avancée l'analyse unicellulaire.

Signe des temps, les sept autres technologies concernent l'information. Il s'agit de:

La distribution vidéo en P2P qui représenterait déjà 60 % du trafic total sur le Net.

Les nanochargeurs solaires. Actuellement, les cellules photovoltaïques utilisent des semi-conducteurs pour convertir l'énergie lumineuse en courant électrique, une technologie coûteuse et peu efficiente. Mais des recherches récentes montrent que des semi-conducteurs de cristal de quelques nanomètres de large pourraient diminuer le prix de revient de l'énergie solaire et la rendre aussi compétitive que les combustibles fossiles.

La réalité augmentée : par un système de réalité augmentée on entend un système qui rend possible de superposer l'image d'un modèle virtuel 3D sur une image de la réalité et ceci en temps réel. En chirurgie hépatique par exemple, la réalité augmentée permet la superposition de l'image vidéo et du modèle 3D reconstruit d'après la vue du scanner, ce qui permet au chirurgien d'intervenir avec plus de précision et d'efficacité.

La révolution de l'invisible : certains "métamatériaux composites, dont les structures sont déterminées avec précision, présentent des caractéristiques inexistantes dans la nature comme celle de détourner les ondes lumineuses et donc de rendre les objets invisibles à des capteurs.

Les antennes optiques utilisant les nanotechnologies: des antennes optiques qui concentrent la lumière à un niveau nanométrique pourraient permettre de démultiplier la capacité de stockage des supports optiques existants.

L'image numérique réinventée: Richard Baraniuk et Kevin Kelly, de la Rice University, pensent que grâce à de nouveaux composants logiciels et matériels, nos appareils photos deviendront plus petits et plus rapides, tout en consommant moins d'énergie et en prenant des photos en très haute résolution. Comment ? Au lieu de faire enregistrer la lumière par des millions de capteurs, puis de compresser les données, leur appareil s'appuie sur un capteur unique, qui capture un petit pourcentage de l'information transmise par l'objectif, juste assez pour permettre à un logiciel de reconstruire l'image à une très haute résolution. Cette technique pourrait révolutionner l'imagerie médicale d'ici 2 ans avant d'envahir, d'ici 5 ans, nos gadgets électroniques et permettre aux téléphones mobiles de produire des images de haute qualité de la taille d'un poster.

Les moniteurs médicaux personnalisés: l'idée est d'utiliser des ordinateurs pour automatiser l'interprétation de certaines données médicales complexes comme les ondes cérébrales ou les électrocardiogrammes. Confrontés à des données toujours plus abondantes, les médecins ont besoin de comprendre rapidement les tendances qui s'en dégagent. Le logiciel peut être la clé d'une médecine plus précise et plus personnelle. En surveillant l'activité cérébrale d'un patient, l'appareil de John Guttag lui a par exemple permis de voir se former les crises d'épilepsie et donc de les prévenir.

IA

MIT

La Grande-Bretagne mise sur la photonique
Vendredi, 23/03/2007 - 00:00

Trois subventions de l'UE, s'élevant à plus d'1 million d'euros, ont été attribuées au groupe de recherche en photonique de l'Université d'Aston, au Royaume-Uni, à des fins de recherche sur de nouvelles méthodes d'utilisation de câbles à fibre optique dans les secteurs de l'ingénierie, de la médecine et des télécommunications. Ce financement a été accordé dans le cadre du programme «Ressources humaines et mobilité » (connu en tant qu'actions Marie-Curie) du sixième programme-cadre, à des experts de l'Académie des sciences de Russie, de l'université de Nouvelles-Galles du Sud à Sydney, en Australie, et de l'université du Northwestern, aux États-Unis. «Ces trois subventions prouvent que le travail réalisé ici a une grande valeur», a déclaré le Professeur Sergei Turitsyn du groupe de recherche en photonique. «Beaucoup de personnes souhaitent travailler avec nous, ce qui signifie que nous sommes rapidement en train de devenir un centre d'excellence dans ce domaine», a-t-il ajouté.

Ces subventions seront attribuées au groupe de recherche en photonique afin de contribuer à la réalisation de trois projets du groupe destinés à perfectionner de nouvelles technologies optiques. Dans le premier des projets, les spécialistes du groupe de recherche en photonique d'Aston utiliseront un rayonnement laser ultraviolet afin de mettre au point des dispositifs de détection connus en tant que réseaux de Bragg à fibre à l'intérieur des fibres optiques en plastique.

Autrement dit, ces fibres serviront à mesurer avec exactitude la température corporelle d'un être humain ou bien à déterminer les pressions et tensions dans les ailes d'avions et les ponts. L'objectif principal du second projet sera de mettre au point une nouvelle technologie de fabrication pour les lasers puces à guides d'ondes. Le projet visera à fabriquer un laser robuste et compact muni d'une cavité monolithique basée sur des cristaux stimulés par des ions métalliques de transition ou lanthanides. Cette technologie encouragera la miniaturisation des lasers à l'état solide et facilitera leur intégration dans les systèmes électroniques.

Le troisième projet concerne les solutions de régénération tout optique des prototypes concernant à la fois les réseaux de fibre optique et les interconnexions optiques. Les réseaux de Bragg à fibre sont crées à partir du rayonnement laser qui dessine des structures de la taille d'un micron à l'intérieur d'une fibre optique - un «conduit de lumière» qui capture les photons dans un noyau minuscule, dix fois plus fin qu'un cheveu humain. Le réseau reflète alors la lumière d'une seule longueur d'onde en bas de la fibre. Cette longueur d'onde dépend de l'intensité à laquelle la fibre est tendue ou chauffée. L'utilisation du polymère plutôt que des câbles en verre rend ce procédé plus flexible, extensif (il doit être trois fois plus tendu que le verre) mais aussi plus sûr car, par exemple, le polymère ne risque pas d'éclater à l'intérieur du corps humain.

Les premiers réseaux en fibres nouvelle génération ont été produits, le groupe de recherche est donc invité à présenter ses résultats à Hong-Kong, au Brésil et en France. Selon la Commission européenne, le marché mondial des produits issus de la photonique a atteint le montant de 150 milliards d'euros en 2006. Le groupe de recherche en photonique, qui jouit d'une renommée internationale et qui représente le deuxième plus grand de sa catégorie au niveau national, a été créé en 1991 et rassemble une équipe d'environ 50 personnes qui oeuvrent à la recherche et au développement de télécommunications axées sur les applications, de capteurs, de technologie des réseaux de fibres, de l'optique non-linéaire et de la biophotonique.

Cordis-

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots volants qui ont pour modèle la mouche
Vendredi, 23/03/2007 - 00:00

La mouche, dont le cerveau compte moins de 1 million de neurones (contre des dizaines de milliards pour l'être humain), peut se déplacer très rapidement dans un environnement en trois dimensions tout en évitant les obstacles et en maintenant une certaine altitude. Comment font ces insectes pour voler avec une telle dextérité? C'est en s'inspirant des capteurs des mouches et des abeilles que Jean-Christophe Zufferey, chercheur à l'Ecole polytechnique fédérale de Lausanne (EPFL), a construit des robots volants autonomes, de 30 centimètres pour seulement 10 grammes, ne possédant ni GPS, ni radar, ni altimètre.

En collaboration avec Dario Floreano, chef du Laboratoire des systèmes intelligents, l'ingénieur a voulu reproduire la physionomie des insectes, à l'exemple des yeux à facettes qui permettent de voir à presque 360 degrés. Leurs signaux électriques excitent, par l'intermédiaire de neurones, les muscles des ailes permettant à l'animal de redresser son vol et d'éviter les crashs. En outre, les mouches ou les abeilles connaissent leur vitesse grâce à leurs antennes et poils. «C'est l'analyse du flux optique, c'est-à-dire de la vitesse de défilement de l'image rétinienne, qui permet à l'insecte d'ajuster sa position et sa vitesse», explique Jean-Christophe Zufferey, un passionné d'aviation qui a récemment obtenu le prix ABB de la recherche.

Sur cette base, le chercheur a développé un algorithme imitant le traitement des informations chez la mouche. Celui-ci a été intégré dans un microprocesseur embarqué dans un petit avion possédant des caméras à basse résolution qui remplacent en quelque sorte les yeux à facettes. Deux gyroscopes ont également été installés pour déceler les vitesses de rotation, à l'image des haltères de la mouche, et permettre de stabiliser la trajectoire de vol. Quant aux poils, ils ont été remplacés par un anémomètre miniature, une sorte de petite girouette. «Ces robots peuvent voler de manière autonome pendant dix minutes dans un espace intérieur de la taille d'un bureau», explique Jean-Christophe Zufferey.

Le robot volant s'appuie sur un modèle ultra-léger développé en collaboration avec la société Didel, une spin-off de l'EPFL spécialisée dans la robotique. Cet avion d'intérieur peut évoluer dans une dizaine de mètres carrés et devrait séduire les amateurs de modélisme. Cette version est pilotée à distance à l'aide d'une télécommande infrarouge. «Fabriquées en Chine, un grand distributeur a déjà commandé 20 000 pièces», explique Jean-Christophe Zufferey qui figure au conseil d'administration de Didel.

A moyen terme, ce travail de recherche devrait surtout aboutir à la construction de petits robots aériens bon marché, autonomes et destinés à remplir toutes sortes de missions: surveillance d'un édifice, mesure de la qualité de l'air, monitoring d'incendie, exploration extraterrestre ou de lieux où le GPS n'est pas disponible. «Aujourd'hui, il existe déjà des avions sans pilote mais ils volent à relativement haute altitude pour éviter les obstacles et fonctionnent avec un signal GPS et une carte de l'environnement», explique Jean-Christophe Zufferey.

La révolution robotique fera apparaître plus vite qu'on ne le croît de multiples machines volantes de petite taille. D'autres universités y travaillent, en axant leurs recherches essentiellement sur la mécanique. L'Université de Floride, par exemple, a mis au point un prototype d'avion sans pilote miniature dont l'originalité tient à ses ailes. Celles-ci peuvent changer de forme, modifiant le comportement de l'avion et, surtout, sa manoeuvrabilité. Financé par l'armée américaine, ce prototype a pour objectif de conduire à des drones de reconnaissance pouvant opérer en ville ou dans des espaces restreints.

Le groupe Seiko Epson, l'un des principaux constructeurs d'imprimantes, a également présenté son prototype «microFR-II», un robot volant de 12,3 grammes qui se propulse dans les airs via deux pales de type hélicoptère. Il peut en outre transmettre des images sans fil et voler de façon indépendante, en suivant toutefois un plan de vol programmé à l'avance.

LT

Six nanotechnologies pour réduire les émissions de carbone
Vendredi, 23/03/2007 - 00:00

L'inquiétude quant au changement climatique ne cessant de croître à travers l'Europe, un nouveau rapport met en avant les six nanotechnologies pouvant être utilisées afin de réduire les émissions de carbone. Les six technologies, identifiées par l'entreprise Cientifica installée au Royaume-Uni, sont disponibles actuellement ou seront sur le marché au cours des deux prochaines années. «Toutes les applications clés sont liées à notre contrôle amélioré des matériaux à l'échelle nano, des matériaux pour le transport plus légers, plus solides, de meilleurs isolants et des moyens plus efficaces de stockage d'énergie. Le nombre des acteurs clés fait penser à un 'Bottin mondain' de l'industrie mondiale», déclare Tim Harper, PDG de l'entreprise Cientifica.

Les aérogels représentent la première technologie à paraître dans le rapport. Sur le marché depuis 2003, les aérogels sont parfois connus sous le nom de «fumée figée». Cette substance est la plus légère qui soit, à peine deux fois plus lourde que l'air. Ces aérogels sont créés grâce à l'utilisation de poches d'air nanométriques en silicium. Les aérogels étant transparents, légers, solides et isolants, ils sont très attrayants en tant que substituts du verre dans des applications architecturales telles que les lanterneaux et les toitures. Les gels peuvent également être utilisés pour le transport de gaz naturel liquéfié.

Les photopiles en couche mince sont la solution à de nombreux points faibles des technologies solaires actuelles. Les composants utilisés aujourd'hui sont basés sur le silicium et sont onéreux et fragiles. Les couches minces organiques, ou les cellules solaires en plastique, utilisent des nanoparticules et des polymères.

Utilisés actuellement en Turquie et aux Philippines, et dans l'attente d'un accord des États-Unis, les catalyseurs de combustibles fonctionnent en offrant une combustion plus efficace du carburant diesel dans le moteur, des économies considérables de carburant et une réduction des émissions de particules. Les essais ont montré que l'efficacité du carburant pouvait être augmentée de 10 % au moins, alors que les catalyseurs pourraient également réduire les émissions de suies d'environ 15 %.

Les piles à combustibles sont actuellement soumises à des essais à l'échelle mondiale, et les véhicules à hydrogène devraient se frayer une voie sur le marché à partir de 2009. Une pile à combustible est un dispositif de pile utilisant la réaction électrochimique entre l'hydrogène et l'oxygène afin de convertir l'énergie chimique en énergie électrique. La pile à combustible utilise ensuite l'énergie chimique stockée pour produire de la puissance. Avant que les véhicules à hydrogène puissent être utilisés à grande échelle, une infrastructure de stations-service à hydrogène doit être mise en place.

Le supercondensateur est l'avant-dernière technologie mise en avant par l'entreprise Cientifica. Les supercondensateurs utilisent la séparation de charge physique entre les électrodes pour le stockage de la charge. Ils sont testés dans les téléphones portables et les véhicules électriques hybrides, mais disposent de larges potentiels d'applications. La légèreté et le coût bas de leur production d'énergie pourraient remplacer les accumulateurs de plomb ou encore les batteries au lithium-ion.

Enfin, les matériaux nanocomposites devraient remplacer l'acier dans certaines constructions. Les matériaux nanocomposites sont des polymères auxquels un autre matériau a été ajouté afin de changer les propriétés de la masse. Ils contribuent à la réduction des émissions par la réduction du poids des véhicules, et font ainsi baisser la consommation de combustibles. La compagnie Boeing a l'intention de remplacer tout l'extérieur de son avion Boeing 787 avec des matériaux composites, et 50 % des matériaux de l'intérieur de l'avion. L'industrie automobile est également en phase de remplacer les parties extérieures des automobiles avec des matériaux nanocomposites.

Cordis

^ Haut
Matière
Matière et Energie
La France se dote d'un outil de recherche nucléaire unique au monde
Vendredi, 23/03/2007 - 00:00

La construction du réacteur de recherches Jules-Horowitz (RJH), le premier outil de recherche nucléaire de ce type construit depuis près de trente ans, a été lancée le 19 mars au centre du Commissariat à l'énergie atomique (CEA) de Cadarache. "Le RJH apportera une capacité d'expertise modernisée nécessaire pour la France mais aussi l'ensemble de l'Europe", a déclaré le ministre délégué à l'Industrie François Loos en inaugurant ce chantier.

"C'est un instrument de recherche européen de premier plan qui soutiendra la filière nucléaire en Europe" et contribuera au respect de l'objectif de réduire de 20 % d'ici 2020 les émissions de gaz à effet de serre en Europe, a-t-il ajouté. D'une puissance de 100 mégawatts, le réacteur qui porte le nom d'un ancien directeur de la recherche fondamentale du CEA, avait reçu le feu vert de l'Etat en 2004. Il doit entrer en service en 2014 et "est d'autant plus stratégique que les réacteurs de recherche européens actuellement en service devraient être progressivement arrêtés dans les dix prochaines années", a souligné le ministre. Ces réacteurs ont plus de 45 ans d'âge.

Destiné à tester matériaux et combustibles des futures centrales nucléaires, RJH remplacera l'installation Osiris de Saclay (Essonne) afin de préparer la construction du prototype de réacteur de 4e génération prévu pour 2020. Les exploitants attendent en effet de ce réacteur de précieuses informations pour valider la prolongation de l'exploitation des centrales en activité jusqu'en 2050. Si les mécanismes de vieillissement de la cuve du réacteur sont désormais bien compris, il n'en est pas de même pour les parties internes du coeur, a expliqué directeur du projet Daniel Iracane.

Mais on s'intéressera surtout aux matériaux du futur, comme les céramiques, dont on pourra mesurer les caractéristiques mécaniques dans ces environnements extrêmes. Car, même si la simulation numérique a fait d'énormes progrès, elle ne permet pas de se passer complètement de l'expérimentation réelle.

Lors de la fission nucléaire, les neutrons dégagés viennent percuter les atomes des pièces de structure du réacteur, les déplaçant légèrement à la manière d'une boule de billard et fatiguant le métal à la longue. Dans une centrale du type de celles actuellement exploitées par EdF, chaque atome des pièces de structure est déplacé deux fois par an. Dans Osiris, c'est 5 à 6 fois par an. Dans le RJH, ce sera 15 fois par an. Les matériaux testés y seront donc beaucoup plus sollicités que dans les centrales nucléaires actuelles.

Durant la cérémonie, plusieurs partenaires industriels (EDF, Areva) et des instituts nucléaires européens (République Tchèque, Belgique, Espagne) ont signé un accord concrétisant leur participation au RJH. Le financement du projet - au total 500 millions d'euros - sera assuré à 50% par le CEA, à 20 % par les partenaires européens et internationaux, à 20 % par EDF et à 10 % par Areva. "Des discussions avec d'autres se poursuivent", a dit M. Loos, "je ne peux que les inviter à monter à bord".

La participation du Japon est en cours de finalisation et "nous avons la volonté d'élargir la participation européenne au projet", a expliqué à l'AFP le directeur du projet Daniel Iracane. Le réacteur permettra de développer des matériaux résistant notamment aux conditions extrêmes des réacteurs à fusion tels qu'Iter et des combustibles nucléaires innovants. Il produira aussi, comme les autres réacteurs de recherche, des radio-isotopes à usage médical dont il devrait assurer 25 % au moins des besoins européens.

"La relance du nucléaire dans le monde se confirme par l'annonce de la construction d'une trentaine de réacteurs dans une douzaine de pays au moins", a déclaré l'administrateur général du CEA Alain Bugat, soulignant le rôle du RJH pour former de nouvelles générations d'ingénieurs et techniciens nucléaires.

"Si l'Europe veut continuer à jouer un rôle de leader dans la recherche et le développement nucléaire ainsi que sur la scène industrielle, nous avons absolument besoin de développer des nouveaux réacteurs de recherche", a observé Frank Deconinck, président de la European Nuclear Society, pour qui la diversité des applications du nucléaire - énergie, thérapie médicale, dessalement de l'eau ou production d'hydrogène - assure son avenir. Les retombées économiques seront d'importance pour la région Provence-Alpes-Côte d'Azur qui captera "près des deux tiers des dépenses du projet", selon M. Loos. "Avec Iter et aujourd'hui le RJH, le site de Cadarache devient l'un des plus grands centres européens de recherche sur les énergies non génératrices de gaz à effet de serre", a-t-il conclu.

CEA

Endesa inaugure son premier parc éolien en France, dans l'Aisne
Vendredi, 23/03/2007 - 00:00

Endesa France, filiale de l'électricien espagnol Endesa, a inauguré le 14 mars 2007 son premier parc éolien en France, d'une puissance installée de 10 mégawatts (MW) en Picardie à Lehaucourt (Aisne). Ce parc composé de quatre éoliennes produira "l'équivalent de la consommation électrique (hors chauffage) de 22.000 habitants", a précisé Endesa. Cet investissement de 10 millions d'euros "s'inscrit dans le plan industriel d'Endesa France, qui prévoit de développer 200 MW d'éolien à l'horizon 2010", a ajouté le groupe.

Endesa France a actuellement quatre autres parcs éoliens en cours de réalisation, qui seront prêts à l'horizon 2008, deux en Bretagne, dans le Morbihan (Ambon et Muzillac, de 10 MW chacun), et deux en Champagne-Ardennes, dans la Marne (Cernon, un parc de 10 MW et un de 7,5 MW). Au total, les cinq parcs en cours représenteront une puissance installée de près de 50 MW, et "d'autres parcs sont déjà en projet", a indiqué le groupe.

Endesa France compte par ailleurs construire 2.000 MW de centrales à cycle combiné à gaz. Un premier chantier pour la construction de deux centrales de 400 MW chacune sera ouvert mi-mai à la centrale Emile Huchet de Saint-Avold (Moselle). Endesa France, anciennement Société nationale d'électricité et de thermique (Snet), est détenue à 65 % par Endesa depuis 2004 et à près de 18 % par EDF, le reste étant entre les mains de Charbonnages de France. Elle dispose aujourd'hui en France de quatre centrales au charbon d'une capacité d'environ 2.500 MW. Le parc éolien français atteint actuellement près de 2.000 MW. La Picardie est une des régions phares du développement de l'éolien avec une puissance installée de 109 MW, fin 2006.

Enerzine

L'Europe mise sur l'alliance de l'hydrogène et du moteur à combustion
Vendredi, 23/03/2007 - 00:00

Une nouvelle étape a été franchie dans le développement de moteurs à hydrogène à haut rendement et à hautes performances grâce à l'aide financière de l'Union européenne. Des chercheurs européens associés à des partenaires américains ont élaboré une nouvelle technologie de l'hydrogène. En effet, les spécialistes européens des techniques de l'hydrogène ont procédé à des échanges d'informations réguliers sur les résultats de leurs travaux avec les chercheurs des laboratoires et des universités dépendant du ministère de l'énergie des États-Unis.

Des moteurs à hydrogène d'un type nouveau peuvent ainsi être produits et permettent un meilleur rendement. Ces moteurs sont destinés à équiper des voitures non polluantes. Prenant le moteur à combustion interne comme point de départ, l'équipe de ce projet d'une durée de trois ans dirigé par BMW ont souhaité "mettre au point de nouvelles pièces telles que des injecteurs et un système d'allumage et préparer des outils de dynamique des fluides numérique (CFD) afin d'optimiser le processus de formation et de combustion du mélange." Le professeur Raymond Freymann, responsable de la recherche et de la technologie au sein du groupe BMW, a déclaré : "Le moteur à combustion fait partie des produits industriels les plus évolués. Son développement repose sur tout un siècle d'investissements. Il offre des niveaux de performance et de variabilité élevés ainsi que de faibles coûts et un entretien facile au quotidien.

Associé à l'utilisation de l'hydrogène, il constitue d'ores et déjà une solution technique bien développée à la question de la mobilité durable. Nous avons la ferme conviction que, même à l'avenir, la mobilité individuelle reposant sur le moteur à combustion alimenté à l'hydrogène restera un moyen de transport attractif."

Daniel Kammerer, responsable des groupes de transmission alternatifs au sein du service des communications techniques de BMW a ajouté : "Le résultat final de ces travaux est un moteur respectueux de l'environnement et doté d'une performance propre de 100 kW par cylindrée, rendant ainsi plus plausibles les chances de voir un jour des voitures fonctionnant uniquement à l'hydrogène. Seule manque encore l'infrastructure nécessaire à la technique de l'hydrogène, mais il ne s'agit là que d'une question de temps. Nous pensons avoir atteint la première étape de toute une série d'événements qui, nous l'espérons, entraîneront une mobilité durable et respectueuse de l'environnement.

Maintenant que la technologie existe, il ne manque plus que l'infrastructure nécessaire pour offrir aux consommateurs la technique de l'hydrogène." Le projet de moteur à combustion interne à hydrogène (HyICE, Hydrogen internal combustion engine) a donné lieu à des essais de moteurs à hydrogène aussi performants que les moteurs diesel actuels mais moins polluants et sans différence notable sur le plan du volume et de la puissance du moteur. Les chercheurs espèrent que ces moteurs fonctionnant à l'hydrogène offriront de nets avantages par rapport aux moteurs de la génération actuelle et qu'ils pourront être concurrentiels par rapport aux autres systèmes de propulsion et ainsi conférer aux conducteurs le même niveau de performance et de coûts qu'ils sont en droit d'attendre.

Cordis

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'hiver le plus doux en Europe depuis un siècle
Vendredi, 23/03/2007 - 00:00

L'hiver 2006 dans l'hémisphère Nord a été le plus chaud de la planète depuis la création de données statistiques spécifiques il y a plus d'un siècle, a déclaré l'administration nationale océanique et atmosphérique (NOAA), une agence gouvernementale américaine. La température combinée à la surface de la terre et des océans entre décembre et février a été la plus élevée depuis 1880, et supérieure de 1,3 degré à la moyenne du 20e siècle.

Le deuxième hiver le plus chaud remonte à 2004, le troisième à 1998, a précisé un expert de l'agence. La NOAA estime que cette augmentation des températures est en partie la conséquence des émissions de gaz à effet de serre, mais aussi d'un phénomène El Nino modéré dans le Pacifique.

Les températures ont été supérieures à la moyenne en Europe, en Asie, en Afrique de l'Ouest, dans le sud-est du Brésil et dans la moitié nord-est des Etats-Unis. Le climat a été un peu plus frais dans certaines régions d'Arabie saoudite et dans le centre des Etats-Unis, a précisé l'agence.

L'Europe, pour sa part, a connu son hiver le plus doux depuis le début des relevés météorologiques fiables, soit une centaine d'années, entraînant floraisons précoces et avancée de certaines récoltes, dérangeant les cycles des animaux et faisant planer une menace de sécheresse. En France, l'hiver météorologique (décembre, janvier, février) a été le plus chaud au moins depuis 1950 avec des températures supérieures de 2,1 degrés à la normale saisonnière, selon Météo-France.

L'Italie a connu son hiver le plus doux depuis 1800, selon l'Institut des sciences de l'atmosphère et du climat (Isac) de Bologne, avec 2,27° C de plus que la moyenne 1961-1990. En Autriche, Vienne a battu son record de l'hiver le plus doux qui datait de 1915-1916 et en Hongrie, également, des records de douceur sur 100 ans ont été battus. A Stockholm le thermomètre affichait récemment 10 degrés alors que l'an dernier à la même date, il faisait moins dix avec 20 cm de neige au sol.

Conséquence de cette douceur inhabituelle, certaines cultures sont très en avance. Aux Pays-Bas, où les récoltes de blé d'hiver ont près d'un mois d'avance, les chercheurs en environnement de l'université de Wageningen pointent le risque de virus pour les champs de céréales en raison du développement des pucerons. En Italie, des variétés de légumes tels que petits pois, fèves, artichauts, laitues, asperges, sont déjà abondants sur les étals des marchés et le syndicat d'agriculteurs, Coldiretti, déplore de grosses quantités d'invendus.

En Allemagne, la douceur a favorisé la jaunisse nanisante de l'orge, une des maladies les plus sévères pour les céréales, les puces porteuses du virus ayant survécu à l'hiver. En Basse-Saxe (ouest), 50 % des champs d'orge sont atteints, selon l'Institut fédéral pour l'agriculture (BBA). La faune est également perturbée. En Autriche, les crapauds de Styrie ont entamé leur migration printanière avec quinze jours d'avance, risquant ainsi de se faire écraser en route, rien n'ayant encore pu être mis en place pour les protéger.

Aux Pays-Bas, l'observatoire de la nature, Natuurkalender, s'inquiète du développement "chaotique" des papillons, certaines espèces sortant beaucoup plus tôt que d'habitude. Des piverts et des hirondelles sont arrivés avec un mois d'avance. En Hongrie, les cigognes sont déjà revenues d'Afrique.

En Suisse, une partie des oiseaux migrateurs n'ont pas quitté le pays, notamment des échassiers comme le Courlis cendré. La sécheresse menace certains pays. En Espagne, les températures élevées, la sécheresse et le vent ont déjà provoqué une série d'incendies dans la région de Barcelone (nord-est) et de Valence (est).

A Rome, le chef du gouvernement Romano Prodi a envoyé une circulaire aux préfets et présidents de région pour mettre en place un plan préventif et se préparer localement en cas de sécheresse grave. A Athènes également, on craint une année difficile, notamment pour l'irrigation de la grande plaine céréalière de Thessalie. En France, le manque de pluie, surtout dans le sud du pays, n'a pas permis jusqu'alors de recharger correctement les nappes phréatiques.

NOAA

Les séismes violents pourraient être prévus
Vendredi, 23/03/2007 - 00:00

Les tremblements de terre les plus violents pourraient être précédés par des secousses lentes et à peine perceptibles, pouvant s'étaler sur des jours, voire des semaines, spéculent des scientifiques, après avoir étudié une zone sismique du sud du Japon. Ces signes annonciateurs, en provenance de failles très profondes, sont connus sous le nom de séismes à basse fréquence. Ils ne dépassent pas généralement une magnitude de 1 ou 2 sur l'échelle de Richter, rappelle une équipe américano-japonaise menée par David Shelly (université de Stanford).

Ces secousses sont fréquemment observées dans les zones de subduction, là où une plaque tectonique s'enfonce sous une autre. C'est dans ces régions, comme sur la célèbre "ceinture de feu" du Pacifique, que sont survenus les séismes les plus dévastateurs de l'histoire humaine. Le séisme de magnitude 9,2, qui a ravagé Sumatra le 26 décembre 2004 et a déclenché un tsunami à l'origine de la mort de plus de 200.000 personnes, en est un exemple récent. L'équipe de M. Schelly, dont les travaux sont publiés dans la dernière édition de la revue scientifique Nature, a examiné des centaines d'enregistrements sismographiques effectués sur l'île japonaise de Shikoku. La plaque des Philippines s'y enfonce à environ 35 kilomètres sous la surface terrestre.

Imperceptibles depuis la surface, les secousses à basse fréquence y sont provoquées "par le même mécanisme que celui qui génère les séismes habituels, mais avec une petite différence. Le glissement de la faille profonde survient plus lentement que lors d'un séisme ordinaire", relève un autre auteur de l'étude, Gregory Beroza, professeur de géophysique à Stanford.

Mais parce que la secousse peut durer des semaines, l'énergie dégagée peut être aussi importante que celle d'un séisme majeur et peut venir fragiliser les sections de la faille déjà soumises à des tensions extrêmes. La plupart des sismologues estiment que ces secousses sont un bruit de fond de l'activité des plaques tectoniques, sans utilité comme outil de prévision.

Mais pour M. Beroza, "à chaque fois qu'un séisme lent se produit, il accroît les tensions qui pèsent sur la partie de la faille qui ne coulisse pas. Savoir qu'une telle secousse a eu lieu pourrait être utile pour évaluer les risques sismiques", estime le scientifique américain. Le dernier grand tremblement de terre enregistré à Shikoku, la plus méridionale des quatre grandes îles nippones, est survenu en 1946. Le séisme, d'une magnitude de 8,1, avait tué quelque 1.330 personnes.

AGU

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des chercheurs créent un moustique transgénique résistant au paludisme
Vendredi, 23/03/2007 - 00:00

Des chercheurs américains ont créé en laboratoire des moustiques transgéniques résistant au parasite responsable du paludisme chez les souris. Ces moustiques, qui devraient essaimer leur gène protecteur en se reproduisant, offrent la possibilité de pouvoir un jour contrôler le paludisme. Des chercheurs de l'Université John Hopkins à Baltimore (Maryland, est) ont génétiquement modifié des moustiques avec un gène permettant d'éviter l'infection par le parasite.

Ils ont laissé un nombre égal de moustiques transgéniques et de moustiques normaux se nourrir de sang de souris infectées par le paludisme. A la neuvième génération, la part des moustiques transgéniques était de 70 %, cette espèce vivant plus longtemps et pondant plus d'oeufs dans ce cas de figure, expliquent-ils dans leur étude qui paraît dans les Annales de l'Académie nationale américaine des sciences. Or, aucune différence n'est apparue entre les moustiques transgéniques et normaux quand ils se sont nourris de sang de souris non-infectées.

Ces scientifiques recommandent toutefois des recherches supplémentaires avant de lâcher des moustiques transgéniques dans la nature. William Black, professeur d'entomologie à l'université du Colorado, note que les travaux ont été réalisés avec le Plasmodium berghei, qui infecte les souris, plutôt qu'avec le Plasmodium falciparum, qui cause le paludisme chez l'homme. Le P. berghei est souvent utilisé dans les expériences en laboratoire car il est facile à manipuler, mais nombre de ses propriétés sont spécifiques à ce parasite, qui n'est pas toujours un bon modèle pour le P. falciparum, souligne-t-il. Toutefois, "trouver un gène qui confère une résistance et est stable sur une longue période est important", souligne M. Black, qui n'a pas participé à l'étude.Si les chercheurs parviennent au même résultat avec le parasite humain, il sera alors possible de l'expérimenter sur le terrain, ajoute-t-il.

Une équipe internationale de recherche avait révélé en avril 2006 que la plupart des moustiques étaient dotés d'une résistance naturelle au paludisme. Des chercheurs américains avaient annoncé en décembre le développement d'un vaccin expérimental capable de neutraliser ce parasite. Le paludisme infecte chaque année de 350 à 500 millions de personnes et de 700.000 à 2,7 millions en meurent, selon l'Organisation mondiale de la santé.

PNAS-

JHU

Un peu d'exercice aide à arrêter de fumer
Vendredi, 23/03/2007 - 00:00

Un peu d'exercice, ne serait-ce que cinq minutes de marche à pied, peut aider les fumeurs qui tentent d'arrêter, assurent des chercheurs britanniques. Selon leur étude publiée dans la revue médicale internationale "Addiction", une activité physique modérée peut réduire de façon significative l'intensité des symptômes du sevrage tabagique. "Si nous trouvions les mêmes effets dans un médicament, il serait immédiatement commercialisé comme une aide pour ceux qui arrêtent de fumer", soutient le Docteur Adrian Taylor, principal auteur de l'étude et professeur de psychologie à l'université d'Exeter, en Grande-Bretagne. Le Docteur Taylor et ses collègues ont passé en revue 12 études sur le lien entre l'exercice et le manque de nicotine. Ils se sont concentrés sur les activités qui peuvent se pratiquer en dehors d'un club de sport comme la marche à pied et les exercices de musculation isométriques, contracter et relâcher un muscle.

D'après leurs travaux, il peut suffire souvent de cinq minutes d'exercice pour que les fumeurs surmontent l'envie immédiate de nicotine. Les chercheurs ont demandé aux sujets de l'étude de quantifier leur besoin de cigarette. Ceux qui avaient fait de l'exercice faisaient état d'une envie moins forte. "Ce qui est surprenant, c'est la force de l'effet", observe le Docteur Robert West, professeur de psychologie à l'University College de Londres, qui n'a pas participé à l'étude. "Ils ont trouvé que les effets aigus de l'exercice étaient aussi efficaces qu'un patch de nicotine".

Robert West prévient toutefois que les effets à long terme ne sont pas établis. "On peut en théorie utiliser l'exercice pour faire face à des petites poussées de manque de nicotine, mais on ne sait pas si cela pourrait aider à plus long terme". Sur une longue période, il faudrait vraisemblablement combiner l'exercice avec d'autres techniques.

D'une façon générale, tout ce qui distrait le fumeur qui tente d'arrêter est considéré comme une aide au sevrage, mais cela fait longtemps que les scientifiques pensent que l'exercice peut avoir un effet plus puissant. Il peut en effet augmenter le taux de dopamine, un neurotransmetteur impliqué dans les phénomènes de dépendance.

Mais pour que cela marche concrètement, il faut arriver à convaincre les anciens fumeurs de faire un peu de sport. Pour le Docteur Peter Hajek, professeur de psychologie clinique au centre hospitalier universitaire Queen Mary de Londres, il faudrait pouvoir enseigner aux patients des mouvements simples, comme de petits exercices de musculation réalisables à son bureau.

Addiction

Des essais cliniques prometteurs pour l'Interleukine-7
Vendredi, 23/03/2007 - 00:00

Entreprise biopharmaceutique spécialisée dans l'immuno-modulation, Cytheris vient d'annoncer des résultats prometteurs issus de deux études cliniques de phase I de sa molécule phare, l'Interleukine-7, chez des patients infectés par le VIH. C'est à Los Angeles, lors de la "Conference on Retroviruses and

_ Opportunistic Infections" (CROI 2007) qui s'est tenue du 25 au 28 février dernier, qu'ont été présentés ces résultats obtenus par deux groupes chercheurs cliniciens : le groupe des ATG (AIDS Clinical Trial Group) aux Etats-Unis qui a réalisé une étude de phase I en dose unique, et un groupe français qui a mené une étude de phase I/II en doses multiples à Paris.

Les travaux de ces deux équipes visaient à déterminer la tolérance du produit et son activité évaluée sur la mesure de récupération immunitaire cellulaire. Rappelons que le déficit immunitaire principal des patients infectés par le VIH se traduit par une perte importante des lymphocytes CD4 qui sont des cellules pivots orchestrant la réponse immunitaire. Or l'Interleukine-7 est une protéine humaine recombinante dont le rôle majeur dans la maintenance et la récupération des lymphocytes T a été largement démontré dans des modèles pré-cliniques.

Il s'avère que dans ces deux études, et plus particulièrement dans celle en doses multiples, le traitement par l'Interleukine-7 de Cytheris a été très bien toléré. Celui-ci a engendré une augmentation significative et prolongée des lymphocytes CD4 des patients. Celle-ci a été observée systématiquement chez tous les patients, tant sur les lymphocytes CD4 que CD8, et simultanément sur les cellules T. Ce large spectre d'activité immunitaire ouvre des perspectives intéressantes en termes cliniques pour la prévention des maladies opportunistes ou des cancers secondaires à l'infection HIV. Aujourd'hui, Cytheris prépare de nouveaux essais cliniques en France, aux Etats-Unis et au Canada.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top