RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 324
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Février 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Salon 3GSM : réseaux fixes et mobiles sur la voie de la convergence
L'e-commerce dopé par le haut débit et la confiance
Baisse des tarifs de gros pour l'Internet haut débit de France Télécom
La VoIP menace les revenus des opérateurs téléphoniques
La téléphonie coopérative arrive sur le Net
Ecole assistée par Internet aux USA
Le Québec mise sur les inforoutes en fibres optiques
Les services multimédia sur mobiles explosent grâce à la 3G
Matière
Des nanotubes perlés de carbone
Espace
Le succès du lancement d'Ariane-5 "dix tonnes" relance l'Europe spatiale
Terre
Chirac veut diviser par quatre les émissions de gaz à effet de serre d'ici 2050
Vivant
Un coup d'accélérateur à la recherche sur les tumeurs cérébrales
MCM8 : une protéine responsable de l'ouverture de l'ADN pour sa recopie
Des cellules-précurseurs pour réparer le coeur
Une méthode biologique éradique la dengue
Recherche
L'hydroptère bat l'avion de Blériot sur la traversée de la Manche
Edito
La puissance de calcul des grilles informatiques va révolutionner toute notre économie



La première grille informatique, ou réseau très grande capacité qui va réunir 5.000 processeurs en 2007 pour démultiplier les capacités d'échanges et de calcul, a été testé pour la première fois la semaine dernière par l'Inria, qui travaille sur ce projet avec le CNRS. Grid 5000, dont les ordinateurs seront implantés dans dix sites en France dont Orsay, près de Paris, Bordeaux, Grenoble, Lyon ou Toulouse, est un réseau qui va faire entrer l'internet dans une nouvelle ère en lui conférant une puissance de calcul presque inimaginable qui va révolutionner les sciences, l'industrie et, au-delà, l'ensemble de notre économie.

Cette première grille informatique de nouvelle génération va permettre de mieux répondre à un nouveau défi cognitif : le traitement de la quantité exponentielle des données scientifiques produites qui exige d'énormes puissances de calcul.

Mais de telles grilles à très grande échelle n'ont jamais été mises en place et sont très complexes : "cela dépasse nos capacités de raisonnement", d'où la nécessité de les tester à chaque étape de leur mise en place pour comprendre comment elles fonctionnent, quels sont les problèmes qui se posent, a souligné M. Capello, directeur de recherche à l'INRIA. D'où le premier essai réalisé mercredi avec un millier de processeurs.

Les "grilles" à très grandes capacités, estiment les chercheurs, vont devenir indispensables dans les domaines de la santé, des prévisions climatiques, les recherches dans l'aéronautique... Grid 5000 est le premier projet de grille informatique en Europe, avec un budget de 7,6 millions d'Euros. "Avec lui, la France disposera d'une palette de moyens plus étendue que les Etats-Unis et le Japon. Grid 5000 s'inscrit dans le cadre plus vaste des projets européens Datagrid et Eger (Enabling Grids for E-science in Europe). Egee, lancé en avril 2004, va s'appuyer sur les succès de Datagrid pour faire franchir à cette nouvelle technologie une étape supplémentaire en mettant en place une infrastructure de grille disponible partout en Europe 24 heures sur 24. Le logiciel Datagrid est déjà utilisé dans trois domaines scientifiques majeurs : la physique des hautes énergies, les applications biomédicales et l'observation de la Terre. Pour la physique des particules, il forme la base de l'infrastructure LHC Computing Grid (LCG), laquelle va s'appuyer sur la technologie des grilles de calcul pour stocker et analyser les pétaoctets (1 pétaoctets = 10 octets puissance 15) de données réelles et simulées, produites par les expériences installées auprès de l'accélérateur LHC du Cern. Il est également utilisé par 10 applications biomédicales et 5 instituts d'observation de la Terre. Le banc test Datagrid a permis de rassembler jusqu'à 1000 ordinateurs et plus de 15 téraoctets (1 teraoctets = 10 octets puissance 12) de stockages répartis sur 25 sites en Europe.

Au moment où était dévoilé le Grid 5000, Sun Microsystems annonçait, le 2 février, qu'il allait mettre aux enchères de la puissance informatique à louer, dans ses centres de calcul en grille. Sun a récemment créé un nouveau groupe grid Computing et entend développer son offre en la matière. Baptisée Sun Grid, cette offre d'informatique à la demande comprend aussi des offres de location d'espace de stockage à 1$ par Gigaoctet et par mois. D'ici la fin de l'année Sun devrait aussi proposer des services de bureau hébergé à la demande ainsi que des plates-formes de développement en location.

Pour Jonathan Schwartz, le président de Sun, il s'agit de faire prendre conscience aux entreprises qu'il est préférable de payer à l'usage les services et ressources dont elles ont besoin, plutôt que d'acheter les serveurs et ordinateurs qui hébergent leur SI. Selon Sun, les utilisateurs grand public sont déjà familiers de cette approche et utilisent massivement des infrastructures tierces lorsqu'ils accèdent à des services hébergés sur le web, comme Google. En milieu d'année, l'offre sera complétée par des services de bureau hébergé destinés aux opérateurs télécoms et fournisseurs d'accès Internet.

La toute première conférence sur les grilles de calcul informatiques dans le secteur des sciences de la vie basée sur des résultats se tiendra à Zurich, en Suisse, les 21 et 22 février prochains. Les principales entreprises mondiales du secteur pharmaceutique présenteront leurs communications sur les grilles de calcul informatiques dans leur secteur.

On voit donc qu'en seulement quelques semaines, le concept de calcul distribué en grille informatique est en train de transformer les finalités et l'organisation de l'Internet et de bouleverser l'ensemble des technologies de l'information en faisant exploser les capacités virtuelles de calcul dont vont pouvoir disposer, pour un coût de plus en plus abordable, nos entreprises, nos administrations et nos chercheurs. Cette énorme puissance de calcul va permettre de généraliser la modélisation, la conception et la simulation numérique à tous les domaines scientifiques et industriels.

Dans le domaine des sciences de la vie et de la biotechnologie par exemple, les données accessibles aux biologistes doublent tous les sept mois. Les scientifiques ont déjà réussi, grâce au Decrypton, l'entreprise pharaonique de décryptage du protéome qui compte plusieurs centaines de milliers de protéines. Sans ce programme informatique utilisant le calcul en grille, il aurait fallu plus de 2000 ans pour réaliser cette tâche titanesque ! A présent, les grilles informatiques, en permettant de puissants calculs en des temps très courts, vont permettre d'avancer plus vite dans la connaissance des protéines identifiées et de prédire tous leurs comportements, et leur évolution selon différents modèles.

Grâce à cette meilleure connaissance des briques fondamentales du vivant et à cette puissance de calcul distribuée, il va devenir possible de concevoir de manière entièrement numérique des molécules et médicaments complexes et d'en prévoir les effets de manière virtuelle.

Dans le domaine industriel, il deviendra possible de concevoir et de produire très rapidement des matériaux issues des nanotechnologies et possédant des propriétés spécifiques parfaitement adaptées à leur utilisation. Autre application : on pourra calculer virtuellement le comportement aérodynamique d'un nouvel avion ou routier d'une voiture avant même que le premier prototype physique ne soit construit !

Dans le domaine des sciences de la Terre, cette gigantesque puissance de calcul va permettre de faire tourner très rapidement des programmes de simulation et de prévision numérique beaucoup plus complexes pour prévoir l'évolution du climat et améliorer la prévision des catastrophes naturelles.

Mais la mise en place de ces réseaux de calcul informatique en grille n'est pas réservée aux organismes de recherche ou aux grandes entreprises du secteur TIC. Fin 2004, la ville d'Almere (174.000 habitants), dans la banlieue d'Amsterdam, a en effet démarré la première grille de calcul hétérogène municipale au monde. Ce projet, qui s'appuie sur le réseau en fibres optiques à très haut débit de type FTTH déployée par la municipalité, vise à mettre à disposition des laboratoires de recherche installés sur la ville les capacités inexploitées des ordinateurs reliés à son réseau très haut débit (100 Mb/s). L'objectif est triple : répondre aux besoins des entreprises et laboratoires publics installés sur le territoire, associer les citoyens aux travaux des chercheurs et susciter une prise de conscience collective des potentialités du haut débit.

On voit donc que ce concept de calcul distribué en grille informatique va bouleverser l'architecture et la finalité du Net et devenir le moteur d'un nouveau modèle économique centré non plus sur des produits et biens matériels mais sur l'accès instantané et permanent à une infinité de services numériques personnalisés et de mondes virtuels autonomes dans lesquels l'homme va devoir apprendre à évoluer et à exprimer sa créativité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Salon 3GSM : réseaux fixes et mobiles sur la voie de la convergence
Jeudi, 17/02/2005 - 00:00

Fixes ou mobiles, les réseaux téléphoniques seront bientôt transparents pour les utilisateurs professionnels. L'unification des télécommunications devrait révolutionner la manière dont les entreprises communiquent. L'intégration croissante des réseaux fixes et mobiles constituera la prochaine grande avancée en matière de télécommunications. C'est ce qu'affirment les opérateurs réseaux et les équipementiers télécoms, présents au salon 3GSM qui se tient jusqu'au 17 février à Cannes. Selon Neil Ransom, directeur technique (CTO) d'Alcatel, les technologies capables d'unifier les télécommunications fixes et mobiles révolutionneront le mode de communication des entreprises.

C'est le cas de l'IP Multimedia Subsystem (IMS), une technologie clé qui permettrait aux consommateurs et aux entreprises de bénéficier d'une itinérance transparente entre les réseaux fixes et mobiles. Son principe est de fournir aux réseaux existants une couche supplémentaire afin que les services voix, vidéo et données s'exécutent conjointement à l'aide de SIP (Session Initiation Protocol), un protocole d'initialisation de sessions multimédias. L'une des fonctionnalités les plus intéressantes du protocole SIP est sa faculté à établir des sessions à partir d'une seule adresse IP, quel que soit l'endroit, et même lorsque l'utilisateur change de terminal.

Ainsi, pour Neil Ransom, l'IMS et le protocole SIP peuvent permettre aux clients professionnels de connecter facilement leurs téléphones mobiles au système téléphonique PBX (autocommutateur privé) de leur entreprise. Concrètement, les employés arrivent au bureau avec leur mobile, qui se connecte alors automatiquement au PBX de l'entreprise via SIP. En repartant le soir, le processus fonctionne à l'inverse, rebasculant de manière transparente sur le réseau des opérateurs mobiles.

Pour illustrer la convergence avancée entre téléphonie fixe et mobile, le responsable d'Alactel cite le projet Bluephone de l'opérateur BT. Le Bluephone, qui devrait officiellement être disponible à la fin de l'année, supportera à la fois les technologies Bluetooth et GSM. Les clients pourront ainsi passer des appels n'importe où via leur réseau mobile, ou chez eux par l'intermédiaire de leur ligne fixe en s'y connectant via Bluetooth. Une seconde version sera également compatible Wi-Fi. Pour Dave Williams, directeur technique de l'opérateur mobile O2, l'infrastructure de télécommunications deviendra plus intelligente grâce à la technologie IMS. Il sera alors possible de déployer rapidement des services de plus en plus innovants. «L'idée, c'est d'abandonner les canaux passifs au profit de canaux intelligents. C'est là que réside tout le secret de l'IMS», affirme-t-il.

ZDNet

L'e-commerce dopé par le haut débit et la confiance
Jeudi, 17/02/2005 - 00:00

La croissance du commerce sur internet a continué de s'accélérer en France en 2004, favorisée par l'accroissement du nombre d'internautes connectés en haut débit et la confiance des consommateurs dans ce moyen d'achat de biens et de services. Le nombre de transactions réalisées en ligne sur l'année 2004 a augmenté de 70,6 % par rapport à 2003, contre une croissance de 69 % entre 2002 et 2003, selon une étude menée par Price WaterhouseCoopers et publiée mardi par l'Association pour le commerce et les services en ligne (ACSEL).

La croissance en valeur a été moins forte, avec 64,8 % d'augmentation du chiffre d'affaires entre 2003 et 2004 contre 56 % entre 2002 et 2003. Pour le seul quatrième trimestre, la croissance du marché par rapport à 2003 a été de 75,8 % en nombre de transactions et de 62,4 % en valeur. Le nombre d'acheteurs en ligne croît actuellement trois fois plus vite que celui des internautes.

Alors que le nombre d'utilisateurs d'internet en France augmentait de 20 % entre le quatrième trimestre 2002 et 2003, puis de 9 % sur la même période entre 2003 et 2004, les taux de progression du nombre d'acheteurs en ligne étaient de 54 % puis de 28 %, selon une étude de l'observatoire des usages internet publiée par Médiamétrie. "On observe une progression aujourd'hui décorrélée du commerce électronique par rapport à l'accès internet", a estimé François-Xavier Hussherr, directeur des activités internet et nouveaux médias de Médiamétrie.

Le premier facteur de soutien de la croissance du commerce en ligne en France est l'accroissement de la confiance des internautes dans l'achat en ligne, avec un taux de consommateurs se disant confiants qui est passé de 23,2 % au premier trimestre 2001 à 42,6 % à la même période de 2004 et à 47,5 % au dernier trimestre 2004. Même chez les internautes n'ayant pas encore acheté en ligne, ce taux de confiance était de 28,4 % au quatrième trimestre 2004, dégageant ainsi un potentiel de 3,7 millions d'internautes potentiellement acheteurs.

Le second facteur de croissance est l'équipement croissant des internautes français en connexions haut débit. Alors que 45 % des internautes en général ont déjà acheté au moins une fois en ligne au quatrième trimestre 2004, cette proportion monte à 61 % chez ceux qui disposent d'un accès haut débit à domicile. Autre segment de population où l'achat en ligne progresse plus vite que chez l'ensemble des internautes, celui des 50 ans et plus où pour la première fois, les acheteurs sur internet sont proportionnellement plus nombreux que les internautes de cette tranche d'âge (47,2 % contre 44,8 %).

Reuters

Baisse des tarifs de gros pour l'Internet haut débit de France Télécom
Jeudi, 17/02/2005 - 00:00

Les fournisseurs d'accès vont désormais pouvoir proposer des offres à très haut débit compétitives, dans les zones non dégroupées. L'ART a rendu un avis favorable sur la réduction des tarifs de gros de France Télécom, validé par le ministre de l'Industrie. L'Autorité de régulation des télécoms (ART) a entendu les appels des fournisseurs d'accès internet. La plupart se plaignent de ne pouvoir développer un modèle économique viable dans les zones non dégroupées, où France Télécom est le seul opérateur de réseaux.

Concrètement, il s'agit d'une baisse qui concerne principalement les très hauts débits (1024 Kbps, 2048 Kbps et Débit Max, qui peut aller jusqu'à une dizaine de Mbps), dans les régions où les répartiteurs téléphoniques gèrent moins de 20.000 lignes. Auparavant, ces tarifs étaient compris dans une fourchette allant de 18 à 23 euros HT (par ligne et par mois). Ils sont désormais tous alignés à 17 euros. Pour les répartiteurs de plus de 20.000 lignes, le prix reste inchangé à 13 euros.

Selon l'ART, cette décision «contribue au développement d'offres haut débit disponibles à un tarif attractif sur l'ensemble du territoire, et notamment dans les zones peu denses, en favorisant une homogénéisation nationale des offres de détail ADSL». «Elle permettra aux fournisseurs d'accès de proposer au même tarif, partout sur le territoire, des offres avec de plus hauts débits», explique-t-elle dans un communiqué.

Cet avis a été immédiatement homologué par le ministre délégué à l'industrie Patrick Devedjian, très attaché à ce dossier. En décembre 2004, il avait exprimé sa volonté de voir se développer un «haut débit des villes», avec des services complets et des tarifs avantageux, et un «haut débit des champs» avec un débit moindre pour des tarifs plus élevés.

Son intervention faisait suite à l'annonce par certains opérateurs de ne plus desservir les zones non dégroupées, ou d'y pratiquer des tarifs différenciés.

A la suite de cet accord, l'opérateur Free a immédiatement annoncé qu'il étendait son offre d'un débit maximal de 10 Mbps (320 Mbps en émission) pour 29,99 euros par mois, à tous les possesseurs de Freebox, même s'ils ne sont pas dans des zones dégroupées. Ils pourront également bénéficier de la téléphonie gratuite et illimitée vers des postes fixes, mais pas encore des services de télévision par ADSL.

Pour les zones denses, les tarifs des débits supérieurs à 512 kbits par seconde sont désormais alignés sur celui de l'accès 512 kbits/s. Pour les particuliers, ce tarif reste à 13 euros par mois. Pour les professionnels, les accès 1 Mbits/s et 2 Mbits/s passent de 35 euros à 13 euros par mois. En zone non dense, le tarif de l'accès 1 Mbits/s pour les particuliers passe de 18 à 17 euros par mois et le 2 Mbits de 20 à 17 euros, les débits supérieurs étant alignés sur ce tarif. Pour les professionnels, le 1 Mbits/s et le 2 Mbits/s passent de 45 à 17 euros par mois. L'Autorité de régulation des télécommunications avait auparavant émis un avis favorable, soulignant que cette évolution des tarifs "contribue au développement d'offres haut débit disponibles à un tarif attractif sur l'ensemble du territoire".

ART

La VoIP menace les revenus des opérateurs téléphoniques
Jeudi, 17/02/2005 - 00:00

Selon IDC, la téléphonie traditionnelle est vouée à un déclin inexorable, concurrencée par les services IP. IDC prévoit que le chiffre d'affaires généré par les services de voix fixe en Europe devraient baisser de 3 % par an, passant de 108 milliards de dollars en 2003 à 95 milliards en 2008. Dans une récente étude, IDC détaille les raisons de cette perte de revenus : multiplication des services de voix sur IP (VoIP), utilisation de plus en plus répandue des téléphones mobiles en lieu et place des lignes fixes, et croissance du haut débit, qui s'accompagne d'un coût mensuel fixe. Pour inverser la tendance, les opérateurs de lignes fixes n'ont pas d'autre choix que d'adopter ces nouvelles technologies. Jill Finger Gibson, directrice d'études chez IDC, estime qu'«ils doivent établir un plan sérieux pour s'assurer que leur infrastructure est pleinement capable de gérer le trafic IP et se préparer à la VoIP, car elle devient réalité.»

Elle cite l'exemple de BT, un prestataire britannique de services qui a mis en place son projet "21CN" (21st Century Network): d'ici à 2010, l'opérateur va migrer sur un réseau 100 % IP. "De nombreux opérateurs de services de voix fixe se targuent d'investir dans le haut débit», poursuit Gibson. «Mais cela ne compense pas le fait que plus de la moitié de leurs recettes proviennent généralement de la voix.» Parmi les mesures à court terme que doivent envisager les opérateurs, IDC cite une nouvelle tarification, de nouveaux téléphones et la vente de services à valeur ajoutée. Néanmoins, ces seules mesures ne suffiront pas à maintenir le niveau d'activités des opérateurs sur les services vocaux. La baisse devrait se poursuivre à mesure de l'adoption de la technologie VoIP.

Les prévisions de cette étude IDC sont pleinement confirmées par une autre étude de la société marché In-Stat qui montre à quel point la voix sur protocole Internet sans fil progresse dans les entreprises. Selon cette étude, qui couvre plus de 300 grandes et moyennes entreprises, 23 % d'entre elles ont déjà déployé des services de VoIP sans fil dans une certaine mesure et 30 % envisagent d'évaluer la technologie dans un délai de 12 mois. Globalement, environ 60 % des personnes sondées, définies par In-Stat comme des décisionnels, pensent que le VoWLAN pourrait avoir des avantages pour leurs entreprises. L'étude remarque en outre que les personnes sondées montrent un intérêt sensible à la possibilité de passer des appels téléphoniques depuis un ordinateur portable ou un assistant numérique personnel.

L'étude prévoit que, dans l'ensemble, le nombre d'abonnés aux réseaux locaux cellulaires et/ou sans fil capables de fournir des services VoIP devrait atteindre 256 millions d'ici à 2009. Selon l'étude, ce chiffre représente environ 12 % du nombre total d'abonnés aux réseaux cellulaires, ce qui laisse apparaître des opportunités dont les opérateurs de réseaux sans fil devraient tirer profit, explique Becky Diercks, analyste chez In-stat.

« Il ne faut pas oublier que la voix sur IP est une technologie et non pas un produit », explique Becky Diercks dans un communiqué. « Le produit, c'est le service téléphonique et, en général, les clients ne se préoccupent pas de la technologie sous-jacente, du moment que cela fonctionne. Les opérateurs devraient traiter la voix sur IP sans fil simplement comme un autre moyen d'offrir un accès sans fil à leurs clients. »

IDC

EETimes

La téléphonie coopérative arrive sur le Net
Jeudi, 17/02/2005 - 00:00

Jeff Pulver, l'un des membres fondateurs de l'opérateur de téléphonie sur IP Vonage, vient de lancer un nouveau concept de VoIP baptisé Bellster.Ce dernier consiste en un logiciel gratuit à installer sur un ordinateur qui viendra gérer la ligne de téléphone de l'utilisateur comme une petite centrale téléphonique, chaque ordinateur formant une composante de l'autocommutateur virtuel que représente le réseau global de Bellster. Pour chaque appel, le système détermine d'abord le point du réseau le plus proche du numéro à joindre puis achemine les données via Internet jusqu'à la ligne identifiée qui sera alors considérée comme le point de départ de l'appel.

L'objectif à terme est de disposer de suffisamment de noeuds à travers le monde pour que chaque appel, en particulier longue distance, soit considéré comme local, ce qui permettrait de réduire les factures télécoms. Cette approche applique à la téléphonie le même principe que les systèmes d'échange de fichiers Peer to Peer sur Internet, pour lesquels chaque ordinateur est à la fois client et serveur. Cela suppose que les abonnés acceptent que leur ligne de téléphone soit utilisée par d'autres et réciproquement (contrairement à des systèmes payants comme Vonage ou Skype). Pour toute minute concédée, ils reçoivent un crédit temps équivalent, utilisable sur Bellster. Le dispositif pose évidemment des questions quant à sa sécurité : un étranger pourrait par exemple usurper une ligne pour des activités illicites. Pour le moment, le réseau Bellster - une forme d'association - compte quelque 500 membres répartis dans 22 pays.

FS

Ecole assistée par Internet aux USA
Jeudi, 17/02/2005 - 00:00

Recevoir les toutes dernières notes de ses enfants, savoir en temps réel ou presque ce qu'ils ont mangé à la cantine, s'ils sont arrivés en retard ou même s'ils ont séché les cours, c'est ce que permet désormais Internet dans certains établissements scolaires américains. Debbie Karl, qui enseigne l'informatique à Abilene (Texas) en a profité pour mieux surveiller le travail de son fils, Derek, en fin de primaire. Et découvrir ainsi certaines informations occultées par l'écolier... "Il n'avait pas pris la peine de me dire qu'il avait eu un échec en maths pour la première fois de sa vie. J'ai vérifié (sur le site web) et j'ai vu qu'il avait un, deux, trois, quatre, cinq zéros. J'ai immédiatement passé un coup de fil au professeur", explique-t-elle.

Internet permet désormais aux parents d'élèves de prendre connaissance en temps réel des relevés de notes de leurs enfants, et appréciations des enseignants. Ils peuvent aussi savoir à quelle heure les enfants sont arrivés en cours, ce qu'ils ont emprunté à la bibliothèque de l'école. Un nombre croissant d'établissements scolaires aux Etats-Unis ont recours à ce moyen de communication avec les parents, même s'il n'existe pas pour le moment d'estimations précises.

La méthode n'a pas en tout cas que des avantages, particulièrement pour les enseignants. Certains préfèrent établir les relevés de notes à la main, ne sont pas familiarisés à l'informatique, ou ne souhaitent tout simplement pas perdre trop de temps derrière leur clavier à saisir ces informations. D'autres professeurs n'aiment pas non plus que les parents interviennent dans leur travail de notation. "Ils savent que leur enfant a travaillé toute la soirée et ils savent qu'il a une interrogation écrite à 10h10. A midi, ils sont en ligne, et ils demandent, 'ou sont les notes du petit?', relève Kenneth Bird, directeur d'une communauté d'établissements scolaires à Omaha, dans le centre des Etats-Unis.

La technologie, souligne-t-il, ne transformera pas à elle seule des parents inattentifs en parents concernés. Elle pourra en revanche venir en aide à ceux qui jonglent avec plusieurs emplois pour gagner de quoi vivre correctement, situation aujourd'hui fréquente aux Etats-Unis : il leur suffit de se connecter pour consulter les notes aussi rapidement que... les cours de la bourse par exemple. Pour Bonnie Bracey, ancienne enseignante devenue formatrice en informatique pour ses ex-collègues, "cela donne aux parents la bonne impression d'avoir une bonne compréhension de ce qui se passe à l'école", de mieux suivre la vie scolaire : les bulletins de note et carnets scolaires ne sont au mieux que mensuels -quand certains élèves ne s'arrangent pas pour les "perdre" en route, ou les intercepter dans la boîte aux lettres familiale...

AP

Le Québec mise sur les inforoutes en fibres optiques
Jeudi, 17/02/2005 - 00:00

Le ministre de l'Education, Pierre Reid, s'est amené dans les Bois-Francs, jeudi, avec l'engagement d'investir près de 3 millions $ pour bâtir ce qu'il appelle la «voie ferrée du 21e siècle», un réseau de télécommunication à large bande passante. Ce réseau pourrait relier 17 bâtiments scolaires de la Commission scolaire des Bois-Francs (CSBF), 79 bâtiments municipaux et 24 bibliothèques publiques. Près de la moitié des régions du Québec profitent déjà de ce programme des Villages branchés du Québec, financièrement alimenté par le ministère des Affaires municipales, du Sport et du Loisir et par le ministère de l'Education. Pour le projet des Bois-Francs, le premier ministère versera une contribution de 2 266 100 $ tandis que le second versera 676 200 $. D'installer une «autoroute» de fibres optiques pour relier l'ensemble des établissements scolaires, cela participe à la réussite des élèves, selon le ministre de l'Education. «L'élève d'un village a le droit, lui aussi, d'accéder aux technologies de pointe...»

Les applications d'un canal unique pour tous les établissements sont nombreuses, tant au plan pédagogique qu'au plan de la gestion, ont expliqué les autorités de la Commission scolaire, la présidente Estelle Luneau et la directrice générale Louise Savard. Dans ce projet, la CSBF est prête à investir 338 100 $. Si tout va comme on le pense, partant des études techniques à mener, du feu vert des MRC d'Arthabaska et de L'Érable, on pourrait entreprendre la construction du réseau avant la fin de 2005 et l'achever pour le printemps 2006. Depuis six ans, une partie des écoles des milieux urbains de la CSBF sont déjà reliées par fibres optiques, mais la Commission scolaire des Bois-Francs n'est pas propriétaire de ce réseau.

Le programme Villages branchés du Québec lui permettrait d'acquérir le canal et d'en continuer la construction pour y brancher l'ensemble de ses établissements. Et, tant qu'à construire une telle autoroute, comme le dit le ministre Reid, pourquoi ne pas inviter les municipalités des deux MRC à en profiter elles aussi. «Les régions vont se développer avec une synergie de leurs acteurs», a-t-il souligné. On a déjà déterminé qu'il en coûterait 820 300 $ à la MRC d'Arthabaska et 312 700 $ à la MRC de l'Érable pour accéder au réseau très haute vitesse (on vise 100 méga bits par seconde). Les centres administratifs et les bibliothèques pourraient ainsi profiter d'un même accès à un réseau à la fine pointe des technologies, comme l'ont observé les préfets Marcel Lévesque et Jean-Paul Gaudreault.

NU

Les services multimédia sur mobiles explosent grâce à la 3G
Jeudi, 17/02/2005 - 00:00

Avec la téléphonie mobile 3G, les services mobiles accélèrent leur mutation vers le protocole SIP (Session Initiation Protocol) et l'architecture IMS (IP Multimedia Subsystem) », qui constituent le nouveau cadre technologique de tous les services multimédias mobiles innovants.

Parmi ces services, la musique à la demande, mais aussi les jeux, la vidéo ainsi que les "blogs" et autres "chats". Musiwave, une société française, illustre la percée du secteur de la musique sur les téléphones portables dont l'avenir, selon les spécialistes, est très prometteur. Musiwave vend des sonneries de téléphone - un secteur très rentable qui, uniquement pour la Corée, a généré un milliard de dollars de revenus en 2004 - mais a aussi mis au point une plate-forme de téléchargement de morceaux de musique, directement accessible depuis le téléphone portable.

Le Mobile Entertainment Forum (MEF) qui regroupe plus de 70 sociétés du secteur du divertissement ainsi que les principaux opérateurs comme Orange ou Vodafone est tout aussi optimiste. Il prévoit un chiffre d'affaires de 27 milliards de dollars pour le secteur du divertissement en 2008. Fin 2005, le secteur de la musique devrait tirer 10 % de ses revenus des télécommunications, selon le français Patrick Parodi, président du MEF. Avec la 3G, les jeux sur téléphones portables vont aussi évoluer. Comme sur le PC, les jeux vont devenir accessibles sur le réseau et vont être multi joueurs, selon M. Parodi. Après le son, l'image. Siemens présente un service de « Photo Talk », c'est-à-dire l'envoi en temps réel de photos prises avec un téléphone mobile. L'équipementier allemand développe également un service de dialogue en direct à plusieurs (« multi chat »), inspiré des messageries instantanées.

La vidéo et la télévision sur mobile sont également promises à un bel avenir. L'équipementier Alcatel a promis une offre "triple play" (texte, voix, vidéo) sur les téléphones portables. L'opérateur français Orange mène des expériences de télévision en temps réel sur téléphones portables.

Associé à France Télécom, Alcatel a également conçu eConf, un logiciel qui centralise sur un serveur les messages vidéo envoyés depuis un mobile 3G et les transfère ensuite, au choix de l'utilisateur, vers un blog, un visiophone fixe ou une adresse électronique. Alcatel a, en outre, fourni la technologie du service « StreamMan » de Sony. L'idée est de gérer une discothèque numérique personnelle via le réseau cellulaire, en recevant en direct ou en téléchargeant à la demande la musique de son choix, sur le terminal de son choix : PC, téléphone mobile.

Autre application en projet chez Nokia Ventures : la création d'une passerelle entre un mobile et un micro-ordinateur pour des services de conférence voix et données. Depuis un PC « maître », un professionnel pourrait ainsi commenter en direct à son collègue une présentation. Le défilement des diapositives, mais aussi l'emplacement du pointeur de la souris, sont synchronisés et reproduits à l'identique en seulement quelques fractions de seconde sur le terminal mobile vers lequel a été transféré, au préalable, le document.

Autre secteur prometteur, les services dits "communautaires" comme les "chats" ou les "blogs". Ces journaux intimes sont désormais accessibles sur des téléphones 3G. Agrémentés de photos ou d'images, ces textes ont besoin de haut débit pour être consultés confortablement. Très appréciés des adolescents, les "blogs" mais surtout les "chats" génèrent un énorme trafic, une manne pour les opérateurs. Chaque jour, ces chats génèrent en France l'envoi de plus de 3,5 millions de messages. Les ados qui participent à ces conversations en ligne envoient une moyenne de 90 messages par mois, soit un budget d'environ 50 euros.

Enfin, dernière innovation, mais non la moindre, STMicroelectronics NV, en collaboration avec le fournisseur de services téléphoniques mobiles Orange et la société spécialisée dans la sécurité logicielle Trusted Logic, ont présenté à Cannes le paiement via le téléphone portable ainsi que la gestion des droits numériques et les signatures électroniques. Ce système permet à un utilisateur de saisir un code PIN sur son téléphone portable. Ce code est traité sur la carte SIM du téléphone, permettant le transfert des informations relatives au paiement au terminal d'un point de vente fournisseur pour concrétiser l'achat.

Article @RTFlash

^ Haut
Matière
Matière et Energie
Des nanotubes perlés de carbone
Jeudi, 17/02/2005 - 00:00

Des physiciens français (CNRS/Université Montpellier) et américains ont découvert des billes de carbone accrochées sur des nanotubes, comme des perles de rosée sur une toile d'araignée. Elles témoignent du rôle du carbone liquide dans la croissance des nanotubes, jusqu'ici supposés se former à partir de vapeur de carbone. Ce mécanisme, publié dans la revue Science du 11 février, rejoint ceux que l'on rencontre en métallurgie, où les cristaux se forment à partir d'un liquide. Sa compréhension est d'autant plus importante que les nanotubes semblent promis à un avenir technologique prometteur.

Les nanotubes constituent l'une des formes de carbone pur connues à ce jour, comprenant notamment le diamant, le graphite et les fullerènes, ces grosses molécules en forme de ballon de football. Il s'agit de structures tubulaires constituées d'un ou de plusieurs feuillets de carbone enroulés sur eux-mêmes, pour former un cylindre de 10 à 50 nanomètres de diamètre. Depuis leur découverte, il y a une dizaine d'années, ces nouveaux matériaux sont devenus un énorme enjeu pour la technologie de demain : ils sont à la fois flexibles et résistants, ont des propriétés de conduction remarquables et sont stables. Ces caractéristiques en font de bons candidats pour les matériaux composites, l'électronique, les capteurs, ou même pour stocker l'hydrogène. Dans ce contexte, il est important de comprendre comment ils se forment.

Les nanotubes sont produits soit par des processus catalytiques, soit par la méthode « à arc électrique ». C'est de cette dernière méthode que sont issus les nanotubes à billes de carbone. Elle consiste à mettre deux barreaux de graphite, éloignés d'un à deux millimètres l'un de l'autre, dans un four sous atmosphère d'hélium. Puis on fait passer un courant dans les barreaux pour déclencher un arc électrique. Au final, on récupère des aiguilles de nanotubes sur l'un des barreaux, correspondant à la cathode.

Jusqu'à présent, tous les mécanismes invoqués mettaient en jeu une phase vapeur : on imaginait que le carbone de l'anode se vaporisait sous l'effet de l'arc (5000°C) et venait cristalliser sur la cathode. Dans l'étude publiée par Science, les scientifiques ont montré que le mécanisme de formation des nanotubes implique du carbone fondu. Grâce à ce travail, les chercheurs ont eu l'occasion d'étudier le comportement du carbone liquide (très mal connu car il s'évapore très vite) et de voir qu'il est comparable à celui des autres liquides. Selon le scénario qu'ils ont élaboré, les nanotubes se forment, comme la plupart des cristaux, à partir d'une phase liquide en refroidissement.

CNRS

^ Haut
Espace
Espace et Cosmologie
Le succès du lancement d'Ariane-5 "dix tonnes" relance l'Europe spatiale
Jeudi, 17/02/2005 - 00:00

La fusée Ariane 5 ECA lancée samedi du Centre spatial guyanais (CSG) de Kourou a placé sur leur orbite les deux satellites qu'elle emportait, a annoncé Arianespace au siège de la société à Evry (Essonne). Après l'allumage de son moteur principal, la fusée a mis sept secondes avant de décoller, arrachant du sol ses 780 tonnes de masse globale, auxquelles s'ajoutaient pour cette mission plus de 7,3 tonnes de satellites et d'instruments de mesure. La fusée a placé le satellite de télécommunications hispano-américain XTAR-EUR sur orbite 26 minutes et 18 secondes après, puis le micro-satellite SLOSHAT-FLEVO, chargé de l'observation des fluides en micro-gravité, cinq minutes plus tard. Une plate-forme technologique de l'ESA, appelée MAQSAT-B2, se trouvait également à bord de la fusée. Servant de lest pour compléter la charge embarquée à l'occasion de ce vol, la plate-forme était également bardée de capteurs et emportait une caméra afin de recueillir toute une série de mesures sur le comportement du lanceur.

Le premier exemplaire de la fusée Ariane 5 ECA avait dû être détruit le 11 décembre 2002 après son décollage en raison d'une défaillance du système de refroidissement d'une tuyère. Il s'agit du 165e lancement d'une fusée Ariane et du 21e d'une Ariane 5. Ce tir est un test pour l'Ariane 5 ECA, un nouveau lanceur capable d'emporter une charge utile de dix tonnes au lieu de quelque six tonnes pour la version de base, l'Ariane 5 générique. Un échec aurait des conséquences "assez graves" parce que "nous avons besoin du succès du lanceur 10 tonnes pour être compétitifs" sur ce marché commercial contre les lanceurs russes, a estimé François Auque, PDG d'EADS Space.

Arianespace a un carnet de commandes de 40 satellites à lancer, contre 33 il y a un an, avait annoncé début janvier le directeur général d'Arianespace, Jean-Yves Le Gall. En 2004, elle n'a procédé qu'à trois tirs, soit le plus faible niveau depuis 1986. Mais pour 2005, elle prévoit six lancements dont "deux ou trois lancements d'Ariane 5 ECA et trois ou quatre d'Ariane 5 générique", avait-il précisé. Sur un marché des lancements de satellites déprimé, la société doit en effet faire face à des concurrents tels que les américains International Launch Services (ILS) avec Atlas et Proton, et Boeing avec Sea Launch et Delta. Arianespace et ILS revendiquent chacun le titre de numéro un mondial des lancements commerciaux, compte non tenu des programmes gouvernementaux qui représentent environ 70 % du plan de charge des lanceurs américains, contre 10 % seulement pour les européens. Outre l'aspect commercial, la réussite d'Ariane 5 ECA revêt également un caractère politique évident sur lequel a insisté samedi le ministre délégué à la Recherche François d'Aubert : "Ariane est un enjeu de souveraineté. Une capacité de lancement est l'un des instruments essentiels pour les gouvernements européens", a-t-il dit.

ESA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Chirac veut diviser par quatre les émissions de gaz à effet de serre d'ici 2050
Jeudi, 17/02/2005 - 00:00

Jacques Chirac a estimé mardi, à la veille de l'entrée en vigueur du Protocole de Kyoto, qu'il fallait "aller beaucoup plus loin" dans la lutte contre le réchauffement climatique en divisant "par quatre" d'ici 2050 les émissions de gaz à effet de serre des pays développés. "Kyoto n'est qu'un premier pas. Nous devrons aller beaucoup plus loin : diviser par quatre d'ici 2050 les émissions de gaz à effet de serre de l'ensemble des pays développés", a déclaré le président français en conclusion d'une table ronde sur le changement climatique organisée à l'Elysée.

Jacques Chirac a souhaité que le prochain sommet du G8 en juillet à Gleneagles (Grande-Bretagne) soit "l'occasion d'avancer dans cette direction". "La France soutient la volonté du Royaume-Uni d'en faire une priorité. L'Europe doit continuer à montrer l'exemple", a-t-il souligné. Lors de ce sommet, le "premier objectif" du président français sera de "réengager les Etats-Unis", non signataires du protocole de Kyoto, "dans l'effort international de lutte contre le changement climatique". Il a précisé qu'il évoquerait la question avec George W. Bush lors du dîner de travail qui doit réunir les deux hommes lundi prochain à Bruxelles.

Le deuxième objectif de la France sera d'aider les pays émergents", et notamment les pays en décollage économique comme la Chine, l'Inde et le Brésil, à "s'engager sur la voie d'un développement énergétique propre". Jacques Chirac souhaite "les aider à dépasser la contradiction entre la croissance, indispensable pour la réduction de la pauvreté, et la préservation de l'équilibre du climat, bien public mondial". Dans cette perspective, le président français va demander "à une grande personnalité de l'industrie" de lui faire des propositions "sur les moyens de renforcer la coopération scientifique et industrielle avec les pays émergents, les transferts de technologie vers ces pays et le financement de leur développement propre".

Au niveau national, Jacques Chirac a souhaité que la France soit "exemplaire" dans la mise en oeuvre de ses engagements au titre du protocole de Kyoto. Estimant que la France était "bien partie" grâce au plan climat adopté l'an dernier pour atteindre l'objectif fixé par le traité, à savoir ne pas dépasser en 2012 son niveau d'émission de 1990, il a souhaité qu'elle "essaie d'aller au-delà de ses engagements de Kyoto". Il a demandé au ministre de l'Ecologie Serge Lepeltier, présent à la réunion, de "réfléchir à de nouvelles incitations afin d'accélérer la réhabilitation énergétique des bâtiments anciens", de renforcer les "normes existantes" dans le secteur automobile et "d'engager, au plan européen, une réflexion particulière sur le secteur aérien". L'Etat devra être "exemplaire" dans sa politique d'achats publics.

Jacques Chirac a enfin souhaité faire de la lutte contre le changement climatique "un atout pour la compétitivité de la France et de l'Europe". Dans cet esprit, il a appelé de ses voeux un renforcement des programmes de recherche dans les domaines stratégiques de la séquestration du carbone, du véhicule propre, de la pile à combustible hydrogène, des biocarburants, de l'énergie solaire et du bâtiment économe en énergie.

AP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un coup d'accélérateur à la recherche sur les tumeurs cérébrales
Jeudi, 17/02/2005 - 00:00

L'équipe d'Andreas Bikfalvi (Equipe Inserm 13 "Mécanismes Moléculaires de l'Angiogenèse", Bordeaux) vient de mettre au point un modèle novateur pour l'étude du glioblastome, la plus mortelle des tumeurs cérébrales. Moins coûteux, et plus facile d'emploi que la souris, l'embryon de poulet permet en quelques jours seulement d'observer in vivo la progression de tumeurs humaines greffées, d'analyser l'expression de leurs gènes et de tester de nouveaux traitements. Ces résultats vont accélérer la recherche sur le glioblastome.

Cette tumeur évolue rapidement, en 2-3 mois, et même après chirurgie, radiothérapie puis chimiothérapie, son pronostic reste sombre. La survie ne dépasse pas un à deux ans après le diagnostic. « Depuis plusieurs années, rien n'a changé en terme de survie, déplore le Pr Bikfalvi, directeur de l'unité Inserm E0113 "Mécanismes Moléculaires de l'Angiogenèse". On a donc cruellement besoin de modèles, de systèmes pour étudier les processus de cancérisation en jeu et affiner nos traitements. »

Martin Hagedorn et Sophie Javerzat, deux enseignants chercheurs de l'équipe dirigée par le Pr Bikfalvi ont élaboré un modèle de progression de ce gliome malin chez l'embryon de poulet. Celui-ci récapitule de manière fiable les caractéristiques principales du développement tumoral chez l'homme, dans un temps très réduit (48h à 96h), tant d'un point de vue morphologique que moléculaire.

Ce modèle permet également de prédire la régulation de l'expression des gènes chez les patients humains. L'équipe a ainsi montré comment certains gènes contribuent à faire passer la tumeur de la phase pré-angiogénique (quand la tumeur croît d'elle-même) à la phase angiogénique (lorsqu'elle mobilise le stroma, le tissu environnant et les vaisseaux sanguins qui vont l'alimenter). « Il s'agit donc d'un outil de recherche extrêmement efficace en ce qui concerne l'étude de nouvelles cibles thérapeutiques et leur validation », précise le Pr Bikfalvi.

Mieux encore, le modèle embryonnaire permet d'évaluer de nouvelles molécules anticancéreuses comme les inhibiteurs de tyrosine-kinases. L'imatinib par exemple, déjà efficace contre les leucémies myéloïdes chroniques, inhibe la croissance du glioblastome en 48 heures. Un autre médicament encore au stade expérimental, le PTK787/ZK, donne également de bons résultats, et devrait d'ici quelques mois passer au stade des essais cliniques chez l'Homme.

Inserm

MCM8 : une protéine responsable de l'ouverture de l'ADN pour sa recopie
Jeudi, 17/02/2005 - 00:00

Pour se développer et se reproduire, les organismes vivants doivent copier l'information de leur génome et la transmettre fidèlement à leur descendance. La molécule d'ADN doit alors s'ouvrir comme une fermeture éclair pour que chacun des deux brins soit recopié. Dans un article publié le 11 février dans la revue Cell, l'équipe de Marcel Méchali de l'Institut de génétique humaine de Montpellier (CNRS) identifie l'une des protéines clés chargées d'ouvrir l'ADN lors de sa réplication. Appelée MCM8, elle serait également capable d'avertir les systèmes de réparation de l'ADN si des erreurs surviennent pendant sa recopie. Elle pourrait être impliquée dans de nombreuses maladies génétiques, dont certains cancers.

En fait, c'est le gène codant pour cette protéine que les chercheurs pistaient. Parmi les gènes pressentis, le gène MCM8 représentait un bon candidat. Domenico Maiorano, chercheur Inserm appartenant à l'équipe, a cloné ce gène, produit la protéine MCM8 et réalisé son analyse biochimique et moléculaire. Il a ainsi montré que MCM8 présente toutes les caractéristiques de l'hélicase réplicative. Sans elle, l'ouverture de la double hélice se fait très mal et la réplication est extrêmement ralentie. Les chercheurs ont également montré que MCM8 jouait un rôle d'éclaireur en signalant à la cellule tout dommage ou obstruction sur l'ADN qui pourrait entraîner des erreurs lors de la réplication. MCM8 pourrait donc être un gardien de l'intégrité du génome qui avertit les systèmes de réparation cellulaire quand un problème se pose.

On sait depuis quelques années que de nombreuses maladies génétiques humaines, dont certains cancers, sont dues à des déficiences ou des mutations des hélicases. Le gène MCM8 a ainsi été trouvé muté dans les cancers du foie. La protéine MCM8 semble être une hélicase cruciale dans le contrôle de la réplication du génome et les chercheurs veulent désormais savoir si elle est surexprimée ou abîmée dans les tumeurs. Si c'est le cas, elle pourrait servir d'outil de diagnostic et même inspirer la synthèse de nouveaux médicaments anti-cancéreux qui corrigeraient ses défauts quand elle est mutée...

CNRS

Des cellules-précurseurs pour réparer le coeur
Jeudi, 17/02/2005 - 00:00

Une équipe internationale a identifié des "cellules précurseurs" qui pourraient permettre au coeur de s'auto-réparer, en se transformant en cellules cardiaques adultes, selon des travaux publiés jeudi dans la revue scientifique Nature. Ces cellules précurseurs, programmées pour former le muscle cardiaque durant la vie foetale, ne disparaissent pas complètement après la naissance, comme on le croyait jusque là, selon Kenneth Chien (Université de Californie à San Diego UCSD) et son équipe, qui les a identifiées dans le coeur de différents mammifères (rats, souris et humains).

A la différence des cellules souches embryonnaires capables de se développer pour former n'importe quel tissu du corps, les cellules précurseurs ont déjà subi une première spécialisation, les prédestinant à devenir des cellules cardiaques. Une fois arrivées à maturité, les cellules cardiaques ne se divisent plus et sont incapables de compenser d'éventuels dégâts. Un infarctus s'avère fatal si plus du quart du ventricule gauche du coeur est lésé, c'est-à-dire si environ un milliard de cellules cardiaques sont mortes d'asphyxie. En cas d'attaque moins grave, les cellules contractiles mortes sont remplacées par des cellules de tissu conjonctif (fibroblastes) qui forment une sorte de cicatrice. Plus mince, la paroi du ventricule ne se contracte plus correctement, explique Christine Mummery (Utrecht, Pays-Bas).

Or, les travaux de l'équipe californienne "prouvent qu'il y a dans le coeur des cellules précurseurs qui pourraient être capables de participer à un processus de réparation", ajoute cette spécialiste. Découvertes en petite quantité dans le coeur de cinq bébés souffrant de malformations cardiaques, ayant subi une intervention chirurgicale après la naissance, ces cellules précurseurs peuvent être cultivées en laboratoire (à condition d'être en contact avec d'autres cellules cardiaques) pour former des colonies de millions de cellules.

"Des tissus cardiaques pourraient ainsi être prélevés sur un patient lors d'une opération, et les cellules précurseurs cardiaques pourraient être multipliées en culture et réimplantées dans le coeur du patient", précise le Pr Mummery. Elle évoque aussi la possibilité "d'encourager in situ dans le coeur la prolifération de ces cellules précurseurs pour améliorer le mécanisme interne de réparation, qui normalement ne suffit pas à régénérer les tissus lésés". "Ces cellules pourraient permettre une forme de thérapie cellulaire dans certaines maladies cardiaques pédiatriques, ce qui est nouveau en cardiologie", souligne le Dr Chien, qui dirige l'Institut de médecine moléculaire de l'UCSD.




UCSD

Une méthode biologique éradique la dengue
Jeudi, 17/02/2005 - 00:00

Plus de 300.000 personnes au Vietnam ne sont plus menacées par la dengue depuis 2002 grâce à une stratégie de lutte biologique mise au point par des chercheurs australiens et à la collaboration active des populations locales. La maladie est propagée par un moustique, Aedes aegypti, dont la larve se développe dans les réservoirs d'eau. Pour contrer le développement des larves, les scientifiques ont fait appel à un prédateur naturel, un minuscule crustacé du genre Mesocyclops, capable de nettoyer les sites aquatiques infestés par les larves. Les services sanitaires, mais aussi les enfants des écoles, ont été mis à contribution pour vider les récipients d'eau de faibles tailles et pour déposer le prédateur, issu d'un élevage en masse, dans tous les réservoirs plus importants. Cette stratégie développée commune après commune depuis 1998 a porté ses fruits annoncent les chercheurs dans la revue médicale The Lancet. Sur 37 communes, 32 ont pu complètement se débarrasser du moustique et par le même coup de la maladie, les cinq restantes y étant presque arrivées. La dengue est une maladie virale causant des crampes douloureuses et de fortes fièvre et peut être à l'origine, chez l'enfant, d'hémorragies mortelles. Aucun vaccin n'existe à l'heure actuelle et la maladie ne cesse de se répandre dans les régions tropicales d'Asie, d'Amérique et du Pacifique : en trente ans, les pays affectés sont passés de 9 à 60 et très peu d'entre eux ont réussi à mettre au point une stratégie de lutte efficace. Ces résultats sont de bon augure pour la lutte contre la dengue dans le reste du Vietnam, notamment le Sud fortement touché, mais aussi pour d'autres pays encore ruraux où elle peut s'appliquer à grande échelle.

NO

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'hydroptère bat l'avion de Blériot sur la traversée de la Manche
Jeudi, 17/02/2005 - 00:00

L'hydroptère, ce trimaran qui s'élève au dessus de la surface de la mer, vient d'améliorer de plus de 2 minutes le temps établi en 1909 par Louis Blériot pour traverser la Manche de Douvres à Calais. Né des idées d'Eric Tabarly il y a quelque trente ans, l'hydroptère d'Alain Thébault a mis moins de 35 minutes pour franchir le mercredi 9 février les 35,2 kilomètres de distance à près de 62 km/h de vitesse moyenne, soit plus de 33 noeuds. Afin d'offrir moins de résistance à l'eau, l'hydroptère décolle de la surface à partir de 12 noeuds de vent ; il ne repose alors plus que sur ses foils de plus de 6 mètres et survole ainsi les flots. Dans les conditions les plus favorables, il peut dépasser les 40 noeuds. Cette conception, élégante mais fragile, a nécessité de nombreux essais et met à l'épreuve depuis de nombreuses années la persévérance de l'équipe de Thébault qui précise que le pilotage d'un tel voilier se rapproche plus de celui d'un planeur que d'un classique trimaran. Ce record, symbolique par certains côtés, récompense des années d'efforts et de ténacité et démontre surtout de belle manière la navigabilité et le potentiel du voilier. L'hydroptère va désormais s'attaquer à deux records de prestige : celui de la plus grande distance parcourue en 24 heures ainsi que celui de la traversée de l'Atlantique.

TS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top