RTFlash

RTFLASH Recherche & Technologie
NUMERO 362
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Décembre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Samsung présente le plus grand écran souple
Une clé USB de 8 Go de la taille d'une carte de crédit
La mémoire holographique sort des labos
Les noms de domaine géographique bientôt mieux protégés avec la reconnaissance d'un droit à l'image des collectivités sur Internet
Matière
Un satellite pour tenter de détecter un séisme avant qu'il ne survienne
Voitures à hydrogène : un défi techno-économique pour la planète
Première en France : une école sera chauffée au colza
Espace
De l'eau dans le sous-sol de Mars
Terre
Les courants de l'Atlantique changent, inquiétude pour le climat européen
Vivant
Myopathie de Duchenne : première thérapie génique testée sur l'homme en 2009
Une même origine pour les macrophages et les cellules dendritiques
Des coeurs artificiels face à la pénurie d'organes à greffer
Demain, des athlètes seront génétiquement modifiés
Près de 40 % des jeunes tués dans un accident de la route en 2003 et 2004 auraient consommé du cannabis
Des chercheurs australiens démontrent que le stress nous rend malades
Une rééducation robotisée pour restaurer la motricité chez des paralysés
Homme
L'IPV6 : une mutation indispensable pour sauver le Net
Les opérateurs mobiles japonais ciblent désormais les enfants et les seniors
Le futur de l'ADSL passe par la TV
Wengo lance la visiophonie gratuite sur Internet
Vers des combinés mobiles à 20 dollars en 2007
Edito
L'ère du "Quadruple Play" va achever la convergence numérique entre mobile et PC



En juin 2005 nous vous annoncions le lancement par British Télécom de BT Fusion, un service qui mariait pour la première fois au monde le mobile et la téléphonie sur IP. Avec ce service, à l'extérieur, les appels transitent normalement sur le réseau de téléphonie mobile de l'opérateur Vodafone. A leur domicile ou au bureau, les communications passées sur le mobile sont automatiquement relayées sur la ligne fixe, via une station de base faisant office de modem ADSL et prenant en charge la voix sur IP. La liaison sans fil (Bluetooth) entre le téléphone et ce boîtier s'établit dès que les deux appareils sont à proximité l'un de l'autre (quelques mètres). Au-delà de ce périmètre, les appels repassent sur le réseau mobile. Cette innovation permet de cumuler tous les avantages et toutes les possibilités d'un téléphone portable, mais au prix et avec la qualité d'une ligne fixe.

Il y a quelques jours, Neuf Cegetel a annoncé qu'il lançait à son tour un « beautiful phone », un téléphone portable hybride qui permettra de communiquer aussi bien chez soi grâce à une connexion Internet WiFi, que dans la rue, par le GSM. Concrètement, le combiné se charge de détecter la présence du modem 9box dans les environs. S'il le trouve, les appels passent par le réseau Internet et bénéficient alors de tarifs très avantageux, calqués sur les prix de la voix sur IP. Dans le cas contraire, les appels sont dirigés vers un réseau GSM auquel l'utilisateur doit être abonné, celui de SFR en l'occurence, dont Neuf Cegetel est opérateur mobile virtuel. Pour tester le système grandeur nature, durant six mois, 200 clients seront recrutés.

Avec Internet, la télévision, la téléphonie à domicile et maintenant la téléphonie mobile, c'est donc bien l'ère du « quadruple play » qui vient de s'ouvrir. A l'étranger, outre l'offre de BT en Grande Bretagne, des offres techniquement proches existent. Elles reposent sur la VoWiFi, ou voix sur un réseau WiFi, une technologie notamment testée par Vonage aux Etats-Unis. Skype, toujours à la pointe de l'innovation, a signé des accords avec des opérateurs télécoms et propose un téléphone conçu par une société taiwanaise, Accton Technology, qui permet de téléphoner sur le réseau Skype depuis un portable, grâce à n'importe quelle connexion WiFi.

Pour l'instant la VoWiFi reste perfectible et la qualité laisse parfois à désirer. De plus, le WiFi, qui n'a à l'origine pas été conçu pour une telle utilisation mobile, se montre très gourmand en ressources, ce qui pose des problèmes d'autonomie. C'est pourquoi en Grande-Bretagne, BT a préféré le Bluetooth, moins puissant mais plus adapté, pour lancer BT Fusion, une offre couplant la téléphonie fixe et mobile dans un portable Motorola. Comme d'autres, Neuf Cegetel se projette plus loin dans l'avenir et a fait le pari plus risqué du WiFi en tablant sur de nouvelles et lucratives utilisations.

Avec la montée en puissance rapide de ces offres et services "Quadruple play" le téléphone mobile va devenir une véritable extension naturelle du PC et va complètement s'intégrer dans l'Internet puisqu'il permettra de télécharger de la musique, des podcasts ou des films, mais aussi relever ses mails et bien sûr naviguer sur le Web.

Demain, notre mobile basculera automatiquement, en fonction du lieu d'utilisation et sans que nous le sachions, sur les modes de télécommunications les plus adaptés et les plus efficients, WiFi, Bluetooth et GSM, mais aussi UWB et WiMax. Il est d'ailleurs intéressant de souligner qu'une convergence est également en train de s'opérer entre ces différents modes de transmission sans fil, et notamment, entre le Bluetooth, peu gourmand en énergie mais pour l'instant bridé à 3 Mbits/seconde, et l'UWB, qui permet d'atteindre les 400 Mbits/seconde. D'ici la fin 2007, un nouveau standard combinant le meilleur du Bluetooth et de l'UWB devrait en effet voir le jour.

On le voit, les jours du téléphone fixe sont désormais comptés et le binôme mobile-PC va intégrer l'ensemble des services, fonctions et utilisations numériques, que ce soit dans les domaines des télécoms, de l'informatique ou du multimédia. Dans ce nouveau contexte technologique, notre mobile, muni d'un mini-disque dur de grande capacité, d'une autonomie décuplée, grâce aux piles combustibles, d'un écran souple (voir article sur l'écran souple de Samsung) et capable de reconnaître notre voix et notre écriture, va devenir un véritable terminal numérique universel d'une prodigieuse polyvalence et d'une incomparable souplesse d'utilisation. Il reste à inventer les usages et services numériques qui séduiront le plus le consommateur équipé de ces mobiles universels qui verront le jour avant 2010.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Samsung présente le plus grand écran souple
Vendredi, 02/12/2005 - 00:00

Après le Readius, le prototype de Philips Inventions, c'est au tour de Samsung de lever le voile sur l'un de ses projets de recherche et développement : l'écran LCD souple à destination des appareils mobiles. Avec une diagonale de sept pouces, il est annoncé comme le plus grand écran jamais mis au point. Premier fabricant mondial d'écrans à cristaux liquides, le coréen Samsung entend bien montrer que ses services R&D sont parmi les plus performants sur ce secteur. Ils viennent donc d'accoucher d'un prototype fonctionnel de sept pouces de diagonale, construit sur un support en matière synthétique souple et résistante, moins épais que les traditionnelles dalles en verre. Principal intérêt de ce substrat en plastique : il permet de plier l'écran sans le détériorer et sans dégrader la qualité de l'image. Samsung considère cette technologie comme "porteuse de la prochaine génération d'écrans plats". Le coréen annonce une résolution de 640 par 480 pixels ainsi qu'une luminosité de 100 nits.

Samsung

Une clé USB de 8 Go de la taille d'une carte de crédit
Vendredi, 02/12/2005 - 00:00

LaCie dévoile sa toute dernière innovation en matière de technologie de stockage : une clé USB de la taille d'une carte de crédit, baptisée LaCie Carte Orange, proposant deux capacités de stockage révolutionnaires de 4 Go (4 000 Mo) et de 8 Go (8 000 Mo). LaCie Carte Orange est la solution idéale pour l'échange ou la sauvegarde de grandes quantités de fichiers ou de photos et d'heures entières de musique, de vidéos ou de diaporamas. En métal robuste bordé de plastique antichoc, LaCie Carte Orange est incroyablement légère et étonnamment plate... bien plus fine que la plupart des clés USB de 1 Go ou 2 Go classiques. Avec ses 6 mm de haut et son poids plume de 60 g, LaCie Carte Orange tient parfaitement dans le portefeuille ou la poche et s'emmène partout. Petite et légère donc, mais d'une capacité de stockage impressionnante !

LaCie Carte Orange est alimentée par un connecteur USB intégré qui se branche sur n'importe quel ordinateur muni d'un port USB. Grâce à son connecteur universel, LaCie Carte Orange se branche facilement sur le port de n'importe quel ordinateur, et s'enlève tout aussi facilement et en toute sécurité lors des déplacements. Bénéficiant des fonctions Plug & Play, LaCie Carte Orange ne requiert aucun logiciel ni pilote sur les systèmes d'exploitation récents. Les données peuvent ainsi être transférées rapidement d'un ordinateur à un autre, en toute simplicité.

LaCie Carte Orange s'utilise directement sur plusieurs plates-formes (Mac OS 9.x/10.x et Windows, de 98SE à XP). Il suffit de brancher le connecteur Hi-Speed USB 2.0 intégré à un portable ou un ordinateur de bureau, et le transfert des fichiers peut commencer. Grâce à la connectivité USB 2.0, le taux de transfert de l'interface LaCie Carte Orange peut atteindre les 480 Mbits/s. LaCie propose une rallonge USB en option, très pratique pour les ordinateurs nécessitant un câble plus long. Il est également possible de reformater LaCie Carte Orange pour répondre à des besoins particuliers. Dernier point fort de cette carte USB 8 Go : son prix : autour de 133 euros, soit le même prix qu'une clé USB classique de seulement 2Go!

LaCie

La mémoire holographique sort des labos
Vendredi, 02/12/2005 - 00:00

La mémoire holographique va-t-elle enfin quitter le rayon des idées géniales et des curiosités techniques pour devenir la future technique de stockage, envoyant les CD ou DVD au pilon ? Pour la première fois depuis que des chercheurs planchent sur cette forme de mémoire en trois dimensions, une start-up américaine, InPhase Technologies, annonce la mise sur le marché d'un support à mémoire holographique pour la fin de l'année 2006.

L'idée d'utiliser l'holographie pour stocker des informations remonte aux années 60. Les recherches se sont accélérées au début des années 90 lorsque les techniques actuelles de stockage ont commencé à montrer leurs limites. Sur le papier, la mémoire holographique bat les supports actuels à plate couture : le disque mis au point par InPhase Technologies peut stocker 60 fois plus d'informations qu'un DVD. Les données sont stockées 10 fois plus vite qu'avec un graveur actuel.

Alors que sur les CD ou les DVD les données sont gravées en deux dimensions, l'holographie utilise les trois dimensions. L'information n'est plus stockée sous forme de creux et de bosses mais à l'intérieur d'un cristal photosensible. L'écriture du disque se fait à l'aide de deux rayons lasers dont les interférences permettent d'inscrire un motif dans le cristal. Pour lire l'information, il suffit d'éclairer le cristal avec un rayon lumineux. En variant de façon très subtile l'inclinaison de ce faisceau, plusieurs images différentes peuvent être lues dans le cristal. D'où l'énorme capacité de stockage de l'holographie... et la difficulté à la mettre au point.

NO

Les noms de domaine géographique bientôt mieux protégés avec la reconnaissance d'un droit à l'image des collectivités sur Internet
Vendredi, 02/12/2005 - 00:00

Actuellement, les noms de domaine des sites web communaux en .fr sont protégés par un dispositif de contrôle automatisé mis en place par l'Association française pour le nommage Internet en coopération (AFNIC) l'été dernier. Pour chaque demande, il est en effet procédé à une vérification entre le nom demandé, l'entité souhaitant le déposer et la liste des noms communaux telle qu'établie par l'INSEE, et seules les communes peuvent prétendre à obtenir un nom géographique. Selon une note publiée par l'AMF, ce dispositif va bientôt être conforté et renforcé par un décret. Ce décret devrait par ailleurs introduire une sorte de droit à l'image pour les collectivités sur Internet. En effet, le texte devrait préciser que «le choix d'un nom de domaine ne peut porter atteinte à l'image ou à la renommée (...) d'une collectivité territoriale (...), ou avoir pour objet ou pour effet d'induire une confusion dans l'esprit du public».

Cette disposition évitera ainsi aux collectivités d'avoir à déposer toutes les combinaisons de leur nom possibles aujourd'hui non protégées selon les règles AFNIC. Rappelons que les communes n'ont que deux mois, du 7 décembre 2005 au 7 février 2006, pour se protéger réellement de tout cybersquattage de leur nom de domaine européen en .eu (voir le site web d'Eurid, le consortium chargé par la Commission européenne de la gestion du nom de domaine européen: www.eurid.eu).

MI

^ Haut
Matière
Matière et Energie
Un satellite pour tenter de détecter un séisme avant qu'il ne survienne
Vendredi, 02/12/2005 - 00:00

Des chercheurs mexicains et russes élaborent depuis près d'un an les plans d'un satellite susceptible de détecter un séisme avant qu'il ne survienne, ce qui permettrait la mise en place de procédures d'alerte. Le chef du projet à l'Université nationale autonome de Mexico (UNAM), Salvador Landeros, affirme que chaque séisme est précédé d'une modification de la composition de la ionosphère (au dessus de la stratosphère, à plus de 50 km de la terre) et que le satellite permettra de déterminer l'imminence et le lieu du tremblement de terre. La communauté scientifique est divisée sur ce point. Interrogé par l'AFP, le directeur de l'Observatoire des sciences de la terre de Strasbourg (France), Michel Cara, convient que la modification des propriétés de la ionosphère est avérée pendant le séisme, mais estime qu'il n'y a aucune certitude sur une modification de la ionosphère préalable au tremblement de terre. "Si nous obtenons les résultats attendus, on pourrait donner une alerte avec plusieurs jours d'avance", affirme le chef du projet russo-mexicain.

Après plus d'un an de conception, la construction du premier exemplaire du satellite -10 kg et 50 cm de diamètre- commencera en mars et la mise en orbite est prévue pour 2007. Le scientifique mexicain souligne que seuls les séismes de plus de 5 sur l'échelle ouverte de Richter pourront être prévus, et que la précision du diagnostic sera affinée au fur et à mesure. "Localiser un séisme n'est pas compliqué, ajoute-t-il, ce qui est compliqué c'est de déterminer précisément le jour et l'heure". Il insiste sur la nécessité d'utiliser avec modération le système, afin de ne pas déclencher alerte ou évacuation intempestives. La collaboration scientifique entre la Russie et le Mexique remonte au début des années 90.

Depuis, les satellites UNAMSAT 1 et 2, qui étudient la vitesse des météorites lors de leur entrée dans l'atmosphère terrestre, ont été lancés de Baïkonour (Kazakhstan). Une équipe d'une dizaine de chercheurs travaillent à Mexico, et une dizaine d'autres à Moscou, où sera construit le premier exemplaire du satellite. Le centre de contrôle et de surveillance sera installé à Mexico. Environ 500.000 dollars ont été investis dans le projet, lancement depuis le centre spatial de Baïkonour compris. Ce projet de satellite s'inscrit dans ce cadre de la volonté du Mexique de développer une industrie aéronautique et spatiale. Le directeur de l'Observatoire des sciences de la terre de Strasbourg juge hâtif de parler de capacité de détection de séisme. "Qu'il y ait des effets sur la ionosphère pendant un séisme, c'est avéré. Le fait qu'il existe un phénomène physique avant le tremblement de terre n'est pas du tout prouvé. Il y a eu beaucoup de recherches là dessus, des annonces et beaucoup de démentis", observe Michel Cara. "Il y a beaucoup de recherche dans ce domaine, affirme le sismologue français, mais il ne faut pas le vendre comme quelque chose que l'on sait faire. On ne peut pas, on ne sait pas prévoir un séisme". Il reconnaît que dans tous les cas de figure, le satellite "va aider la recherche dans ce domaine", même s'il ne permet pas de détecter un séisme.

Wanadoo

Voitures à hydrogène : un défi techno-économique pour la planète
Vendredi, 02/12/2005 - 00:00

Si des centaines de véhicules roulent d'ores et déjà dans le monde grâce à une pile à combustible, cette technologie ne s'imposera pas tant qu'elle restera aussi chère et que les gouvernements ne feront pas une priorité de la lutte contre le réchauffement de l'atmosphère, a estimé l'Agence internationale de l'Energie (AIE). "Les gouvernements doivent adopter des politiques volontaristes pour réduire les émissions de gaz carbonique. Il faut aussi réduire drastiquement le coût de ces technologies. Si ces deux conditions ne sont pas remplies, il sera très difficile aux piles à combustibles d'atteindre la masse critique nécessaire pour décoller commercialement", a estimé Giorgo Simbolotti, l'un des auteurs d'un rapport consacré par l'AIE à cette technologie "propre".

Dans l'hypothèse la plus favorable, les véhicules mus par une pile à combustible à l'hydrogène pourraient être commercialisés à partir de 2025 et représenteraient 30 % du parc automobile en 2050, soit 700 millions de véhicules. La consommation mondiale de pétrole en serait ainsi réduite de 13 %. Avec l'apport d'autres technologies nouvelles, un tel développement du parc mondial de ce type de véhicule permettrait de diminuer de moitié d'ici 2050 les émissions de gaz carbonique, principal fautif du réchauffement de la planète, pronostique l'agence, qui présentera ses conclusions la semaine prochaine au sommet sur le climat de Montréal.

La pile à combustible, dont le principe est connu depuis la fin du XIXème siècle, produit simultanément de l'électricité et de la chaleur à partir d'une réaction chimique entre l'oxygène de l'air et l'hydrogène. Cette technologie offre un excellent rendement énergétique et a un impact réduit sur l'environnement, car elle ne produit ni suies, ni gaz polluants. Mais elle très chère. Une pile à combustible coûte actuellement 2.000 dollars par kilowatt d'énergie produite. Il faudrait ramener ce coût à 100/200 USD pour engager une production de masse, tout en sachant que le coût des moteurs actuels de voiture est de l'ordre de 50 USD par kilowatt. "L'opinion publique a aussi beaucoup d'idées fausses" sur l'hydrogène, a souligné devant la presse le directeur exécutif de l'AIE Claude Mandil. "La principale est que l'on ne peut pas extraire l'hydrogène d'un puits, comme le pétrole". Or, "l'hydrogène, comme l'électricité, il faut le fabriquer", notamment à partir du très polluant charbon. Une utilisation accrue de l'hydrogène impliquera d'améliorer les techniques de capture et de stockage du gaz carbonique dégagé lors de sa fabrication, a rappelé M. Mandil.

L'AIE estime qu'il faut diviser de trois à dix fois le coût de revient actuel de l'hydrogène, actuellement de l'ordre de 50 dollars par gigajoule (soit l'équivalent de 8 kilogrammes d'hydrogène), pour que les voitures à pile à combustible puissent être compétitives. Il faudrait y ajouter 1 à 2 USD/Gj pour refléter le coût des pipelines d'acheminement, 7 à 10 USD/Gj pour les installations de cryogénisation et de 3 à 6 USD/Gj pour les stations-services. Les voitures seront également difficiles à construire à des prix compétitifs, car l'hydrogène est un gaz très peu dense. Pour le stocker, il faut donc le comprimer très fort (jusqu'à 700 fois la pression atmosphérique) ou le geler à -253° C. Les technologies existent mais leur coût est très élevé, y compris du point de vue énergétique, puisque jusqu'à 60 % de l'énergie de l'hydrogène embarqué dans une voiture pourrait être consommé dans son stockage.

Pour l'AIE, le développement de la pile à combustible rendra nécessaire dans le demi-siècle des investissements additionnels pouvant atteindre 1.000 milliards de dollars dans les pipelines de transport, 700 mds USD dans les stations-services et 2.300 milliards de dollars dans les véhicules. Une somme colossale, à comparer toutefois aux 16.000 milliards de dollars que la planète devra investir dans l'énergie d'ici 2030.

Il est vrai que quand le cours du baril de pétrole dépasse les 60 dollars, toutes les technologies propres gagnent en compétitivité économique. On a ainsi vu fleurir, à la mi-septembre, lors du Salon de Francfort, des consortiums entre grands constructeurs pour développer des systèmes hybrides combinant moteur thermique et moteur électrique (Audi-VW-Porsche et BMW-DaimlerChrysler-GM). Même PSA, chantre du diesel propre et inventeur du filtre à particules, annonce pour 2006 la présentation d'un Berlingo hybride gazole-électricité.

Mais le grand chambardement technologique et environnemental, c'est de l'hydrogène qu'on l'attend, et de cette pile à combustible dont le principe a été découvert en... 1839. Dans son livre L'Economie hydrogène, l'économiste Jeremy Rifkin estime qu'il s'agit là de la « plus importante révolution en matière d'application de l'énergie depuis l'invention du moteur à combustion ». Les spécialistes de la PAC savent bien que le secteur des transports sera le dernier à utiliser cette technologie, en raison des contraintes imposées par la mobilité. Le chauffage des logements ou l'alimentation en énergie des bâtiments industriels passeront bien avant. Quelques véhicules, bus ou voitures Mercedes ou Honda, circulent déjà. Mais le coût des prototypes reste encore prohibitif.

« C'est une technologie de long terme pour l'automobile, reconnaît Pascal Hénault, directeur de la recherche et de l'innovation de PSA, mais si l'on veut être considéré comme un partenaire sérieux dans ce domaine, on ne peut participer aux études du bout des lèvres. » A Carrières-sous-Poissy, en région parisienne, PSA réunira avant la fin de l'année dans un nouveau bâtiment ses équipes spécialisées sur la pile à combustible, soit une cinquantaine de chercheurs.

Chez Renault, on étudie de longue date le dossier PAC. Mais depuis la présentation du concept car Fever en 1998, développé sur la base d'un break Laguna guère attrayant et au coffre encombré par les réservoirs d'hydrogène, l'ancienne Régie oeuvre dans la plus grande discrétion. D'autant que le nouveau patron de Renault-Nissan, Carlos Ghosn, expert en communication maîtrisée, a annoncé pour le mois de février prochain une grande déclaration sur la stratégie du groupe, notamment dans le domaine de l'innovation. D'ici là, silence radio sur les choix verts de l'alliance Renault-Nissan.

Au niveau national aussi, la PAC est à nouveau d'actualité, après les atermoiements de ces dernières années. Désormais, avec le Centre national de recherche technologique de Belfort-Montbéliard, les industriels disposent d'un centre de tests grandeur nature des prototypes en cours de développement. La difficulté pour les centres de recherche (CNRS, CEA, etc.) et pour les industriels comme EDF, Total, Air liquide, Renault, ou PSA est qu'il faut travailler autant sur la pile elle-même que sur l'alimentation en hydrogène. On vit en effet sous la logique de la poule et de l'oeuf : s'il n'existe pas de réseau de distribution d'hydrogène, comme il y en a pour l'essence ou le gazole, aucun constructeur ne se risquera à produire de gros volumes des véhicules « PACés ». A l'inverse, pas un seul industriel de l'énergie n'investira massivement dans les réseaux sans parc automobile suffisant.

Les chercheurs étudient donc d'autres solutions. Renault a pris à l'automne dernier une participation de 10 % dans le capital de la société italo-américaine Nuvera. Celle-ci élabore des systèmes de production d'hydrogène dans le véhicule, ce qui évite d'avoir à embarquer des réservoirs ou des bouteilles de gaz. L'automobile devient alors une centrale électrique sur roues, autosuffisante. Les derniers projets présentés par PSA adoptent, eux, le système du « rack », que l'on remplace quand il est vide. Mais tous savent que le temps joue pour la pile à combustible. Le temps qui passe dans les laboratoires de recherche, mais aussi le temps qu'il fait, tant la question du réchauffement climatique préoccupe maintenant les décideurs.

AIE

Expansion

Première en France : une école sera chauffée au colza
Vendredi, 02/12/2005 - 00:00

A Haguenau, dans le Bas-Rhin, une école élémentaire sera chauffée par un biocarburant renouvelable : le colza. Une première pour un établissement public en France. Le chauffage au colza de cette école élémentaire de 350 élèves, en centre-ville, fera de la cité alsacienne de 30.000 habitants, "la première ville en France à alimenter un équipement public en huile de colza", selon l'office national interprofessionnel des oléagineux cité par la mairie. L'intérêt n'est pas économique mais environnemental", a souligné le directeur des services techniques Jean-Nicolas Vagner. "Il s'agit de remplacer le fioul polluant par un biocarburant renouvelable et beaucoup moins polluant, de réduire les gaz à effet de serre et aussi d'essayer de développer une filière", a-t-il expliqué.

Le colza a le même rendement que le fioul et coûtera un peu plus cher en l'état des prix actuels, selon M. Vagner. L'huile de colza combustible est soumise à une TVA de 19,6 %. Techniquement, il suffit d'équiper la chaufferie au fioul d'un brûleur polycombustible (permettant de fonctionner avec de l'huile pure ou en mélange avec du fioul). L'huile sera stockée dans l'actuelle cuve à fioul. La Chambre d'Agriculture et un lycée agricole à Obernai participent au projet en fournissant des études, notamment sur l'organisation de la production et de la fourniture de colza d'ici l'automne 2006. Haguenau dispose déjà d'une chaufferie au bois depuis un an, qui consomme 4.000 tonnes de bois par an, permettant d'économiser un million de litres de fioul.

LM

^ Haut
Espace
Espace et Cosmologie
De l'eau dans le sous-sol de Mars
Vendredi, 02/12/2005 - 00:00

De la glace d'eau se trouve encore dans les couches souterraines au Pôle nord de Mars et de grandes quantités d'eau couvraient une partie de l'astre peu après sa formation, révèlent de nouvelles observations de la planète rouge réalisées par la sonde Mars Express. Ces découvertes réalisées par la sonde de l'Agence spatiale européenne (Esa), qui pourraient relancer l'espoir de trouver des traces de vie passée ou actuelle sur Mars, sont rapportées dans les dernières livraisons des revues américaine Science et britannique Nature. "Une quantité importante de glace d'eau" a été détectée, pour la première fois, dans le sous-sol de la région du Pôle nord de la planète rouge, a déclaré au cours d'une conférence de presse à Paris un chercheur de la Nasa en charge des instruments de l'antenne "Marsis" (Mars Advanced Radar for Subsurface and Ionospheric Sounding) de la sonde, Jeffrey Plaut.

"Marsis", qui a plongé à un kilomètre à l'intérieur du sol de Mars, a montré que la partie supérieure de ces couches souterraines serait principalement formée de glace d'eau "presque pure" (seulement 2 % d'impuretés).

Un peu plus profond, il y aurait du sable sans doute "cimenté" par de la glace d'eau, a encore précisé dans son étude l'équipe du Pr Giovanni Picardi, de l'Université de Rome. La glace, selon les scientifiques, aurait une température inférieure à 240 kelvin (-33 degrés Celsius).

Une autre équipe de chercheurs utilisant l'instrument "Omega" de Mars Express a montré que de l'eau se trouvait en grande quantité sur la planète peu de temps après sa formation, il y a près de 4 milliards d'années. La plupart des scientifiques sont désormais d'accord pour dire que la planète rouge, qui s'est formée comme la Terre il y a quelque 4,6 milliards d'années, a été très humide à un moment donné de son histoire. Mais la nouvelle étude fait remonter la présence de "quantités d'eau substantielles" à la fin du Noachien, une époque géologique qui s'est terminée il y a 3,5 à 3,8 milliards d'années. L'équipe du Pr François Poulet, de l'Université Paris-Sud à Orsay, a en effet détecté dans des terrains très anciens de la planète des argiles de type phyllosilicates qui se forment lorsque des roches basaltiques volcaniques sont plongées dans l'eau pendant longtemps.

Un planétologue de l'université du Nouveau Mexique à Albuquerque (Etats-Unis), Horton Newsom, écrit dans un commentaire publié par Nature que cette découverte confirme ce que l'on soupçonnait seulement jusqu'à présent à partir d'images de formations géologiques à la surface de Mars, à savoir la présence de grandes quantités d'eau sur la planète à une certaine époque. Selon lui, "la présence de phyllosilicates sur les anciens plateaux laisse entendre que des conditions comparables à celles de la Terre existaient (sur Mars) bien antérieurement à 3,5 milliards d'années". La présence de glace d'eau près de la surface peut laisser espérer que des micro-organismes y soient un jour trouvés.

ESA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les courants de l'Atlantique changent, inquiétude pour le climat européen
Vendredi, 02/12/2005 - 00:00

Le système de courants qui parcourt l'Atlantique et garantit au nord-ouest de l'Europe des températures douces, pourrait être en train de se gripper, comme l'avaient prédit certains climatologues préoccupés par le réchauffement de la planète provoqué par l'homme. Une étude publiée le 1-12-2005 dans la revue scientifique britannique Nature avance que le courant tiède baignant les côtes européennes aurait enregistré en un demi-siècle une baisse de 30 % de son débit.

Le système de courants de l'Atlantique est formé d'une partie "montante" chaude, le célèbre Gulf Stream, prolongé par la dérive nord-Atlantique, et de deux branches "descendantes" ramenant, par l'est et par l'ouest, ses eaux refroidies vers l'Equateur, où elles se réchauffent de nouveau. L'auteur de l'étude, le Pr Harry Bryden du Centre national d'océanographie de l'Université de Southampton, en parle comme d'un "tapis roulant", dont chaque composante est indispensable au bon fonctionnement de l'ensemble.

Ses conclusions - les premières à étayer la vieille hypothèse des climatologues d'un blocage des courants atlantiques - découlent des observations fournies par une série de capteurs positionnés au niveau du 25ème parallèle qui coupe le Gulf Stream et les deux courants "descendants". Si sa partie "montante" semble rester stable, les chercheurs ont noté une évolution préoccupante des deux branches "descendantes" du système.

- dans la zone subtropicale, sous l'effet des vents, le courant effectue une gyre dans les couches intermédiaires de l'océan (le thermocline). Les volumes y transitant ont augmenté de 50 % depuis 1957.

- aux confins de la calotte glaciaire, les eaux refroidies s'enfoncent dans les couches profondes de l'océan. Cette "eau profonde Nord Atlantique", qui forme le courant du Labrador descendant le long des côtes américaines, a vu son débit chuter de 50 % à grande profondeur (entre 3.000 et 5.000 mètres).

Les scientifiques en ont déduit que la dérive nord-Atlantique, qui arrive jusqu'en Europe, a enregistré un recul de son débit de 20 millions de tonnes d'eau/seconde en 1957 à 14 millions de tonnes d'eau/seconde en 2004. "La chaleur qu'elle transporte apporte une contribution substantielle au climat modéré de l'Europe maritime et continentale et tout ralentissement de la circulation océanique aurait des implications profondes pour les changements climatiques", relève l'étude. "Les études précédentes menées au cours des 50 dernières années montraient une circulation océanique et un transport de chaleur de part et d'autre du 25e parallèle relativement constant. C'est pour cela que nous avons été surpris que les chiffres de la circulation océanique en 2004 soient si différents des estimations précédentes", a relevé le Pr Bryden.

Le phénomène de circulation océanique est très dépendant du niveau de salinité, qui devrait baisser dans l'Atlantique nord avec l'intensification des précipitations, l'augmentation du débit des rivières et la fonte des calottes glaciaires entraînées par le réchauffement de la planète. L'interruption de la circulation océanique dans l'Atlantique pourrait faire baisser de 4°C les températures moyennes en Europe. "Ce ne sera pas une chose instantanée, comme dans le film +Le jour d'après+, mais de l'ordre d'une décennie", souligne Meric Srokosz, de l'institut britannique de recherche sur l'Environnement NERC. "Nous ne parlons pas d'un nouvel âge glaciaire, mais d'hivers plus extrêmes et plus froids". "Ce qui complique les choses, c'est que vous avez un réchauffement climatique en cours. Si vous ralentissez la circulation océanique, vous provoquerez un refroidissement localisé, pas sur l'ensemble de la planète".

Nature

BBC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Myopathie de Duchenne : première thérapie génique testée sur l'homme en 2009
Vendredi, 02/12/2005 - 00:00

Dix-huit ans après le premier Téléthon, le combat de longue haleine financé, grâce aux dons, par l'Association française contre les myopathies avance. Outre l'identification de centaines de gènes responsables de maladies, la mise au point de méthodes pour transporter des "gènes-médicaments" et les progrès réalisés notamment en médecine régénératrice - qui consiste à réparer un organe ou un tissu humain en y injectant des "cellules neuves" capables de le revivifier - on assiste aujourd'hui à l'essai sur l'homme d'un certain nombre de travaux. D'ici 2009, le laboratoire Généthon, entièrement financé par l'AFM, prépare ainsi quatre essais sur l'homme pour des maladies neuromusculaires et un déficit immunitaire. Sous la houlette d'Olivier Danos, ses chercheurs ont notamment réussi, en utilisant une toute nouvelle technique dite "du saut d'exon", à guérir des souris atteintes de la myopathie de Duchenne. Ils ont restauré la protéine manquante dans leurs muscles. Après ce succès, dont les résultats ont été publiés dans la prestigieuse revue Science et salués par la communauté scientifique internationale, l'AFM a lancé un programme d'identification de maladies rares auxquelles cette thérapie innovante pourrait s'appliquer. Et Généthon prépare, pour 2007, un essai clinique sur l'homme. L'AFM soutient par ailleurs, pour cette même maladie, un essai thérapeutique néerlandais appuyé sur une technique voisine.

Express

Une même origine pour les macrophages et les cellules dendritiques
Vendredi, 02/12/2005 - 00:00

Pour la première fois une équipe de chercheurs dirigée par Frédéric Geissmann du Laboratoire de biologie des phagocytes mononucléés (AVENIR Inserm) vient d'isoler, dans la moelle osseuse de souris, un précurseur spécifique et commun aux macrophages et aux cellules dendritiques. Ces cellules jouent un rôle important dans l'immunité et dans la lutte contre les maladies inflammatoires, infectieuses et dégénératives. Les résultats, publiés dans Science, permettront de mieux comprendre comment naissent ces deux types de cellules et, à terme, de cibler ce précurseur dans une visée thérapeutique des pathologies tumorales ou auto-immunes.

Les macrophages sont des cellules présentes dans tous les tissus de l'organisme et qui les nettoient en digérant les cellules malades ou mortes, les bactéries, les substances toxiques. Ils rentrent en action dans de nombreuses maladies infectieuses, inflammatoires ou dégénératives. Les cellules dendritiques sont, quant à elles, des vigies du système immunitaire, essentielles pour le déclenchement et la régulation des réponses immunitaires contre les bactéries et, peut-être, les cellules tumorales. De nombreuses équipes essaient de les utiliser dans un but thérapeutique pour augmenter la réponse immune vaccinale ou anti-tumorale. Les macrophages et les cellules dendritiques naissent dans la moelle osseuse puis se répartissent dans l'ensemble de l'organisme. On supposait depuis les années 70 que ces deux types de cellules étaient issus d'un précurseur commun dans la moelle, sans l'avoir jamais démontré.

De même, les gènes et les facteurs environnementaux qui contrôlent le renouvellement de ces deux types cellulaires étaient jusqu'ici mal caractérisés. Grâce à des technologies de marquage cellulaire génétique, l'équipe de Frédéric Geissmann a identifié puis isolé pour la première fois in vitro ce précurseur spécifique commun aux deux familles de cellules (macrophages et cellules dendritiques). Les chercheurs ont ensuite démontré in vivo, en l'injectant à des souris, la responsabilité de ce précurseur dans le renouvellement de macrophages et de cellules dendritiques. En 2 à 7 jours, des macrophages et des cellules dendritiques dérivées des cellules précurseurs injectées ont été détectés chez les souris receveuses.

Sur le plan fondamental, la caractérisation d'un précurseur commun valide l'existence d'une famille regroupant les macrophages et les cellules dendritiques et permet de débuter l'analyse des gènes et des facteurs environnementaux qui contrôlent la différenciation de cette cellule précurseur. Un précurseur équivalent chez l'homme pourrait, à terme, représenter une cible de thérapies destinées à contrôler sa différenciation vers un type cellulaire particulier, pour le traitement de maladies inflammatoires ou pour la mise au point de vaccins par exemple. Des protocoles de greffe dans le cadre de pathologies génétiques, inflammatoires et tumorales pourraient être également envisagées.

Inserm

Des coeurs artificiels face à la pénurie d'organes à greffer
Vendredi, 02/12/2005 - 00:00

Le recours à l'implantation de coeurs artificiels dans les cas d'insuffisance cardiaque grave se développe en France, face notamment à la pénurie d'organes à greffer, mais le coût élevé de ces appareils reste un sérieux problème. Pour la première fois en France, les 6 et 7 décembre au Centre hospitalier universitaire (CHU) de Caen, une équipe de cardiologues a implanté un nouveau type de coeur artificiel sur deux patients rigoureusement sélectionnés.

Il s'agit d'une assistance cardiaque constituée d'une turbine de la taille d'un gros pouce, implantée dans le coeur affaibli pour intensifier le flux sanguin dans le corps. Silencieux et léger (moins de 90 grammes), l'appareil se place à la pointe du ventricule gauche -- le plus actif -- et est relié à l'aorte descendante ou ascendante. Une batterie externe, d'un poids inférieur au kilo, assure l'autonomie de l'appareil. Le câble d'alimentation ressort soit par l'abdomen soit derrière la tête.

Indiqué chez des personnes souffrant d'une altération momentanée de la fonction cardiaque ou chez des personnes en attente d'une transplantation, cet appareil peut également être envisagé de façon permanente. "La première personne à en avoir bénéficié est un Américain qui est toujours en vie plus de 5 ans après", a indiqué le professeur Gilles Grollier, chef du service de cardiologie du CHU de Caen.

Autre atout de cet appareil : le patient peut réguler lui-même le débit sanguin de son coeur s'il doit par exemple grimper une côte ou faire une randonnée en montagne. Actuellement, 150 personnes à travers le monde bénéficient d'une pompe d'assistance cardiaque de ce type, appelée "Jarvik 2000", du nom de son inventeur le professeur Robert Jarvik. "On fonde beaucoup d'espoirs sur ce nouveau matériel car il est de petite taille et facile à implanter, l'opération ne dure pas plus de deux ou trois heures", indique le professeur Grollier. Il souligne également l'intérêt de ce nouvel équipement face à la pénurie d'organes à greffer. Trois cent dix sept personnes seulement ont pu bénéficier d'une greffe du coeur en 2004 en France, contre 380 en 1998, selon l'Agence de biomédecine, qui relève également que les patients demeurant en attente d'une greffe sont plus nombreux : 280 l'an dernier contre 269 en 1998.

Mais le développement de cette technique pourrait être pénalisé par le coût de l'appareil, entre 70.000 et 90.000 euros actuellement à la charge des centres hospitaliers. Les maladies cardiovasculaires sont la première cause de mortalité en France, avec 30 % de l'ensemble des décès, contre 28 % pour les cancers, selon la Fédération française de cardiologie, qui souligne que l'insuffisance cardiaque est responsable de 34.000 décès par an.

AFP

Demain, des athlètes seront génétiquement modifiés
Vendredi, 02/12/2005 - 00:00

Pékin. 24 août 2008. Les Jeux olympiques s'achèvent sur un triomphe de la Chine : 50 médailles d'or, 22 records du monde. Les Chinois ont-ils réussi à mettre en place un programme généralisé de dopage génétique ? Le monde sportif s'interroge.

Pure science-fiction ? "Le dopage génétique arrivera un jour, assure Olivier Rabin, directeur scientifique de l'Agence mondiale antidopage (AMA). Certains scientifiques nous disent avoir été approchés par des sportifs ou leur entourage." Ainsi Lee Sweeney, chercheur à l'université de Pennsylvanie (Etats-Unis), qui est parvenu en 2004 à modifier génétiquement des souris et des rats pour les rendre plus musclés et plus forts.

Le sujet est déjà source d'inquiétude. Dimanche 4 et lundi 5 décembre, l'AMA organisait à Stockholm un symposium international sur le dopage génétique réunissant une cinquantaine de scientifiques. "Nous ne possédons aucune preuve pour dire que des athlètes ont déjà utilisé, ou tenté d'utiliser, la thérapie génique pour se doper. Mais les technologies sont connues et en grande partie disponibles", admet M. Rabin. Principal frein à leur développement, selon le scientifique, docteur en toxicologie : " Le transfert de gènes n'est pas encore totalement maîtrisé et limite les chances de succès. Intervenir sur des gènes, ça ne se fait pas dans le fond de sa cuisine : ce n'est pas aussi simple que manipuler un stéroïde ou un stimulant."

La thérapie génique présente un intérêt évident pour les sportifs, celui d'améliorer leurs performances. Certains gènes commandent l'augmentation de la masse musculaire quand d'autres déterminent la quantité de cellules sanguines présentes dans l'organisme. "A partir du moment où on peut manipuler ces gènes et déclencher leur fonctionnement ou leur arrêt à volonté, l'effet peut être similaire à celui de substances pharmacologiques", explique le directeur scientifique de l'AMA. Au lieu de doper un sportif en lui administrant de l'érythropoïétine (EPO) pour améliorer ses capacités d'oxygénation, et donc de résistance à l'effort, on pourrait lui inoculer des gènes capables de commander la production d'EPO.

Déjà, en Espagne, des équipes de médecins travaillent sur l'identification de gènes pour prévenir certaines blessures sportives. En Australie, la Fédération de football avait envisagé en 2004 de tester génétiquement des joueurs pour détecter les jeunes talents avant de se rétracter devant l'opposition du Comité olympique australien. D'autres pays auront-ils moins de scrupules à sélectionner leurs futurs champions sur leur patrimoine génétique ? "Des sociétés australiennes proposent déjà, à partir d'un prélèvement buccal, de tester la présence de deux ou trois gènes associés à des caractéristiques de performance, comme l'ACTN-3, précise le Français. Certaines dérives sont possibles, comme d'orienter l'avenir d'un individu en fonction d'un ou de plusieurs gènes."

Depuis 1999, plusieurs équipes scientifiques - au Royaume-Uni, aux Etats-Unis, ou encore en Espagne - prétendent qu'il existe un "gène de la performance", l'Angiotensin-Converting Enzyme (ACE). M. Rabin conteste ces affirmations. "Il ne peut pas y avoir un tel gène, c'est totalement illusoire. Qu'est-ce qu'une performance ? Un tireur à l'arc n'est pas un coureur de marathon ou un haltérophile. En revanche, des gènes peuvent être modifiés, altérés, modulés ou régulés pour améliorer certaines performances : stimuler la sécrétion naturelle d'EPO ou d'hormone de croissance pour un sportif d'endurance, par exemple."

Depuis 2003, le dopage génétique, même encore virtuel, est inscrit sur la liste officielle "des substances et méthodes interdites". L'AMA veut combattre le rêve des tricheurs : se doper sans risque de se faire prendre. L'agence finance actuellement cinq programmes de recherche. "Nous aurons demain des éléments qui nous permettront de détecter le dopage génétique", prévient M. Rabin. Une de ces équipes a déjà montré que les manipulations génétiques induisent au niveau des gènes et des protéines des réactions qui leur sont propres, et donc identifiables. D'autres travaux prouvent que si on manipule génétiquement un organisme pour qu'il fabrique plus d'EPO, la trace laissée par cette production artificielle est différente de l'EPO sécrétée naturellement par le corps.

Une autre piste de recherche est encore plus prometteuse, selon le directeur scientifique de l'AMA. Le dopage provoque un déséquilibre dans l'organisme en produisant plus de cellules musculaires ou sanguines. Des chercheurs viennent par exemple d'établir la "signature" génétique laissée par la prise de stéroïdes chez les souris.

Le Monde

Près de 40 % des jeunes tués dans un accident de la route en 2003 et 2004 auraient consommé du cannabis
Vendredi, 02/12/2005 - 00:00

La consommation de cannabis aurait augmenté de 50 % de 2001 à 2004, affirme une étude pilotée par le président de la Societé de toxicologie analytique, Patrick Mura, et à paraître dans "Forensic Science International". Selon l'étude, 39,6 % de conducteurs de moins de 30 ans morts dans des accidents de la route entre 2003 et 2004 avaient consommé du cannabis. Parmi ces conducteurs, ajoute "Le Figaro", 28,9 % des tués "présentaient encore du THC (la substance active du cannabis) dans le sang, ce qui prouvait qu'ils avaient consommé du cannabis dans les heures précédant l'accident". "Dans 80,2 % des cas, le cannabis était le seul stupéfiant révélé", précise le journal. Selon la même source, "le pourcentage concernant l'usage de cocaïne a été multiplié par 15". "La consommation d'ecstazy est également en hausse chez les jeunes automobilistes, celle-ci passant de 1,4 % à 3,1 %", affirme "Le Figaro". "Pour qu'il y ait une baisse de la consommation de stupéfiants et une réelle prise de conscience des jeunes du danger que cela peut représenter sur les routes, il faudrait procéder à des contrôles plus fréquents", estime le Pr Mura. L'étude a été menée en compilant de 2003 à 2004 les résultats issus de 12 laboratoires : ceux-ci ont procédé à des analyses de sang prélevé par les forces de l'ordre sur des conducteurs de moins de 30 ans décédés lors d'accidents de la route.

France 2

Des chercheurs australiens démontrent que le stress nous rend malades
Vendredi, 02/12/2005 - 00:00

Des chercheurs australiens ont affirmé avoir scientifiquement prouvé l'impact sur la santé humaine du stress, qui peut engendrer du plus simple rhume au cancer. Les chercheurs de l'Institut Garvan de Sydney ont découvert qu'une hormone libérée dans le corps en périodes de stress et appelée neuropéptide Y (NPY), affectait notre système immunitaire et nous rendait malade. "Jusqu'à présent, il y a essentiellement eu des preuves indirectes d'un lien entre le cerveau et le système immunitaire, mais maintenant nous avons la connexion", a déclaré Fabienne Mackay, membre de l'équipe de recherche. "Durant les périodes de stress, le nerfs libèrent beaucoup de NPY qui vont dans le sang où elles inhibent les cellules du système immunitaire", a-t-elle déclaré après la publication de ces travaux, dans le Journal of Experimental Medicine.

Herbert Herzog, qui a également participé à cette recherche, a pour sa part indiqué que l'effet négatif de la neuropéptide Y sur la tension artérielle et le rythme cardiaque était connu mais que la découverte de son impact sur le système immunitaire allait ouvrir de nouvelles portes pour combattre certaines maladies. "Cela vous rend plus vulnérables quand vous avez par exemple un rhume ou la grippe et même dans des situations plus sérieuses tels qu'un cancer", a-t-il déclaré à la radio ABC. L'arthrite rhumatoïde, la sclérose en plaques, la maladie de Crohn et le diabète sont également des maladies qui ont un lien avec le stress, ont indiqué les chercheurs.

ABC

Une rééducation robotisée pour restaurer la motricité chez des paralysés
Vendredi, 02/12/2005 - 00:00

Des malades américains victimes de paralysie partielle due à des lésions de la moelle épinière ont pu récupérer une partie des fonctions cérébrales altérées après 12 semaines de rééducation à l'aide d'un tapis roulant robotisé. Cette étude, publiée dans le numéro de décembre 2005 de la revue "Neurorehabilitation, est la première qui démontre qu'une rééducation locomotrice peut favoriser, après une lésion de la moelle épinière, la restauration de l'activité de certaines aires du cerveau impliquées dans la marche. Ces résultats suggèrent que des stratégies de réadaptation active peuvent être envisagées pour ces malades, souligne le Dr. Winchester. Selon cette étude, il est également possible de déterminer, en utilisant l'imagerie par résonance magnétique fonctionnelle, quels sont les patients qui pourront tirer un bénéfice thérapeutique de cette rééducation.

Le Dr. Winchester souligne que, pour certains patients, les améliorations obtenues par cette rééducation à l'aide d'un tapis roulant robotisé sont remarquables. "Un des patients ainsi rééduqués a pu se lever de son fauteuil un mois seulement après son accident, ce que je considérais comme impossible" souligne le docteur Winchester.

L'étude a porté sur quatre patients victimes de dommages de la moelle épinière accompagnés de degrés variables de paralysie. Tous ont subi cette thérapie de réadaptation à l'aide d'un tapis roulant robotisé. Ce système maintient le patient dans un harnais pendant que les mécanismes robotiques commandent les mouvements des jambes sur un tapis roulant. Pendant la rééducation, le patient observe ses progrès en temps réel sur un écran d'ordinateur.

L'un des quatre patients, M. Cunniff, a particulièrement bien récupéré et a pu remarcher à l'aide d'une simple canne après quatre semaines de rééducation. Sur ce patient les examens par IRM ont montré de grands changements dans l'activité du cervelet. Deux autres patients ont également récupéré, quoique dans une moindre mesure, une partie de leur motricité à l'issue de cette rééducation de douze semaines. En revanche, le dernier patient n'a pas récupéré de motricité et l'IRM a montré que chez ce patient l'activité du cervelet n'avait pas été modifiée par la rééducation.

Article @RTFlash

UTSW

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'IPV6 : une mutation indispensable pour sauver le Net
Vendredi, 02/12/2005 - 00:00

La recommandation a des airs de solution miracle. Plutôt que de se battre contre les pirates parfaitement au fait des arcanes d'Internet, Internet Security Systems (ISS) conseille tout simplement de changer de système. Solution utopique et radicale ? Non, car pour ce spécialiste de la sécurité, il s'agit en fait d'accélérer l'adoption du protocole IPv6 qui régit les transferts de données sur la toile. Le protocole actuel, IPv4, est surchargé. Datant des débuts de l'Internet, il n'a pas été conçu pour les usages massifs et convergents d'aujourd'hui. Pire, il fait le bonheur des pirates qui peuvent rechercher simplement et à moindre coût des postes exposés à leurs attaques en scannant les quatre milliards d'adresses disponibles.

« Par son étendue même, un seul sous-réseau IPv6 est quatre milliards de fois plus long à explorer en entier ...] que tout l'Internet IPv4 », explique l'équipe X-Force d'ISS. Exemple concrets : la recherche de portes dérobées ou la détection des proxies, actuellement pratiquées, deviendraient impraticable. « Des menaces à propagation rapide telles que Slammer ou Blaster n'ont tout simplement plus droit de cité sur les réseaux IPv6 », poursuivent les experts. Même prévision pour le spam. Le réseau IPv6 deviendrait une « protection naturelle », puisque les auteurs de spam doivent explorer le réseau à la recherche de relais, proxies ou sites Web qui seront victime ou complice involontaires des attaques. Avec le nouvel Internet, ils auront trop peu de chance de trouver une faille pour que leur procédé soit rentable.

Reste à passer à l'IPv6. La lente transition a débuté à la fin des années 1990. La plupart des infrastructures sont prêtes et les fournisseurs d'accès équipés. Mais le grand public est encore tenu à l'écart. Free cherche par exemple des abonnés intéressés. Wanadoo procède à quelques tests. L'ISS, toutefois, prévient que l'IPv6 ne réglera pas tout. « S'il fournit une meilleure sécurité par rapport à l'actuel protocole IP, il n'en demeure pas moins que certaines vulnérabilités ont d'ores et déjà été détectées et que le mécanisme de cohabitation des deux protocoles, 6to4, qui devrait durer une dizaine d'années, a ouvert la voie à de nouvelles menaces. » En attendant, le spécialiste a relevé plus de 2 milliards d'événements de sécurité dans 72 pays sur le troisième trimestre 2005. La plus grande partie concerne le scan de ports en vue d'une attaque (41 %). Vient ensuite le déni de service qui vise à saturer les applications informatiques (25 %) et la tentative d'accès non autorisée (15 %).

[Expansion

Les opérateurs mobiles japonais ciblent désormais les enfants et les seniors
Vendredi, 02/12/2005 - 00:00

Il est rarissime de voir un Japonais sans son téléphone portable, en pendentif, scotché à la main, dépassant de la poche, ou accroché au sac. Reste pour les opérateurs un dernier carré à séduire : les enfants et leurs grands-parents. "Le téléphone portable, c'est comme les +konbinis+ (supérettes ouvertes 24 heures sur 24) : un guichet unique toujours à portée de main", explique Miyu Ishiwata, jeune femme d'affaires et mère de famille. Environ 90 millions de Japonais, sur 127 millions, utilisent plusieurs fois par jour un tel téléphone ("keitai denwa") avec lequel ils lisent, écrivent, écoutent de la musique, jouent, achètent et, parfois, téléphonent...

Seuls à ne pas être tombés sous le charme, les moins de 12 ans et les plus de 65 ans. D'où l'obsession des opérateurs : conquérir ces deux marchés opposés avec des terminaux et services spécifiques à chacun. Le petit opérateur Tsuka (groupe KDDI) est parti le premier à l'assaut des personnes âgées en 2004 avec un portable dont la publicité vantait "le seul téléphone vendu sans mode d'emploi". Depuis cette année, les géants du secteur se sont engouffrés dans la brèche, avec des appareils qui se distinguent des modèles traditionnels par un minimalisme fonctionnel et une grande simplicité d'usage. Une réclame de KDDI montre ainsi trois vieilles dames dont l'une exhibe un téléphone "comme celui de la maison", un appareil à grosses touches, sans écran et doté de boutons d'appel direct d'un proche ou des services d'urgence.

NTT DoCoMo, numéro un japonais avec 50 millions de clients, n'est pas en reste, qui propose au troisième âge un "rakuraku phone" (téléphone facile) qui "ne leur compliquera pas la vie". Outre des fonctions simplifiées, ce modèle tient compte des troubles visuels et auditifs. Il est équipé d'une fonction d'ajustement de la taille des caractères à l'écran et d'un système de réduction de la vitesse des paroles de l'interlocuteur. Sanyo a sorti un modèle avec transmission sonore par les os qui permet d'entendre dans un environnement bruyant en plaquant l'appareil contre un os du visage ou du crâne.

A l'autre bout de l'échelle démographique, les opérateurs s'intéressent aussi aux très jeunes, la principale difficulté étant dans ce cas de convaincre les parents. L'argument de vente est la sécurité. Même si au Japon la petite délinquance est infime, beaucoup de parents craignent les rapts d'enfants (un fléau en progression comme le montrent de récentes affaires sordides), les accidents de la circulation ou les séismes. Le téléphone portable peut alors servir d'ange gardien. KDDI propose ainsi divers services pour localiser un enfant grâce à son téléphone (muni d'un récepteur GPS), ou lui permettre de donner l'alerte en cas de danger. L'opérateur vient d'ailleurs de s'associer à la première société de sécurité privée japonaise, Secom. Quant à NTT DoCoMo, il a récemment conçu une gamme spéciale "enfants" au design "kawai" (mignon), avec des fonctions de sécurité et des menus simplifiés très faciles à utiliser.

Vodafone

Le futur de l'ADSL passe par la TV
Vendredi, 02/12/2005 - 00:00

L'avenir de l'ADSL passerait par la télévision. C'est en quelque sorte le message délivré par neuf Cegetel à l'occasion d'une conférence de presse organisée ce mardi 6 décembre, sur le thème de la télévision. L'opérateur, qui n'a pas caché qu'il s'agissait d'une priorité pour lui, a multiplié les annonces dans ce domaine. Enregistreur numérique, visiophonie, fils RSS et messagerie électronique en direct sur la télé, kiosques Internet, jeux... Tout y passe.

Lancée il y a deux ans, la télévision sur ADSL semble aujourd'hui faire l'unanimité. Y compris du côté des grandes chaînes, TPS et Canal+, qui ont fait d'Internet l'un de leurs principaux canaux de distribution. Quant aux PAI, le bouquet TV est devenu un must de leur catalogue de services. France Télécom, Free et bien sûr neuf Cegetel sont partis les premiers, suivis par Alice au mois de novembre 2005. Mais AOL et Club-Internet lanceront leurs programmes en 2006.

Au menu des nouveautés, le magnétoscope numérique, intégré ou non au décodeur numérique, sera sans doute une des grandes vedettes de l'année à venir. Wanadoo l'a déjà inauguré. Alice et Club-Internet peaufinent leurs offres, neuf Cegetel, lui, a dévoilé la sienne ce mardi. Elle sera disponible fin janvier, sans qu'on sache encore si elle sera payante ou non.

Le fournisseur a fait un choix original : c'est le disque dur de l'ordinateur qui servira de support de stockage des émissions enregistrées. Les abonnés utiliseront pour ce faire une version évoluée du logiciel multimédia MP9, baptisée MP9 Premium. La lecture se fera ensuite sur le téléviseur via le décodeur neuf TV. Neuf Cegetel précise que les contenus seront cryptés et lisibles uniquement avec son décodeur numérique, ce pour rassurer les éditeurs de chaînes payantes.

L'opérateur a dévoilé d'autres innovations à venir en matière d'interactivité sur le petit écran. Elles donnent un aperçu de ce à quoi ressemblera la télévision sur ADSL dans les prochains mois. D'ici au mois de janvier, les utilisateurs de neuf TV auront le loisir de faire de la visiophonie en plein écran sur leur téléviseur. Il leur faudra brancher une webcam sur le décodeur TV et entrer le numéro de téléphone de leur correspondant. La voix ne sera pas disponible, faute de caméras équipées de microphones assez performants selon le FAI, et le téléphone restera donc utile.

Les abonnés de neuf Cegetel pouvaient déjà jeter un oeil sur l'audimat en direct. Ils accéderont aussi, d'ici à quelques jours, à une mosaïque d'images pour visualiser d'un coup tous les programmes. Ils programmeront également le basculement automatique vers une chaîne pour ne pas rater le début d'une émission, ou se créeront leur propre « liste de zapping », avec les chaînes les plus consultées.

Les clients de l'opérateur pourront aussi afficher sur leur écran des services jusqu'ici étiquettés « Web » et donc y accéder sans avoir à allumer leur ordinateur. Ils pourront ainsi consulter sur leur téléviseur, grâce à l'option RSS TV - gratuite - des fils d'information RSS de leurs choix, et ce depuis leur télécommande.

OINet

Wengo lance la visiophonie gratuite sur Internet
Vendredi, 02/12/2005 - 00:00

Wengo, la filiale de Neuf Telecom, spécialisée dans la téléphonie gratuite sur Internet lance le même type de service mais basé sur la visiophonie, selon un communiqué publié mardi par la société. Le service de base de Wengo, accessible après avoir téléchargé un logiciel sur le site wengo.fr, permet à deux personnes de se parler gratuitement sur Internet à partir de leur ordinateur respectif. Aujourd'hui ce service compte 60.000 comptes actifs, a indiqué le directeur général David Bitton. Sur ce total, 15.000 sont des clients qui payent pour des services additionnels, comme la possibilité de communiquer à partir d'un téléphone et non pas d'un ordinateur, ce qui simplifie la procédure. Le service visiophonie fonctionnera de façon similaire. Après avoir téléchargé l'application idoine sur le site, installé une webcam sur chacun des ordinateurs, les deux personnes pourront dialoguer en se voyant sur leur écran respectif.

Yahoo

Vers des combinés mobiles à 20 dollars en 2007
Vendredi, 02/12/2005 - 00:00

Les prix des téléphones mobiles baisseront fortement dans les années qui viennent et des combinés à 20 dollars seront disponibles dès 2007, estiment des sociétés du secteur des semiconducteurs. Il serait même possible de produire des combinés à 10 dollars mais les grands fabricants veillent à ce que leur image ne soit pas ternie par des problèmes de qualité tenant à des pièces bon marché, dit Horst Pratsch, vice-président d'Entry Platforms chez Infineon. "Il est hors de question d'avoir une qualité faible mais accepter moins de caractéristiques peut se concevoir", a-t-il dit en marge d'une conférence tenue à Bruxelles.

Les combinés bon marché ont été un moteur du marché des téléphones mobiles cette année et Motorola a par exemple vendu des modèles à moins de 50 dollars à des consommateurs de pays émergents qui auparavant n'avaient pas les moyens de se payer un mobile. Infineon et ses concurrents comme Philips tentent d'intégrer les fonctions de base d'un téléphone mobile dans une seule puce de quelque cinq dollars. Cela permettra aux fabricants d'assembler des téléphones avec beaucoup moins de composants que les 150 employés à l'heure actuelle, dit Pratsch. "En 2007, nous pourrons le faire avec 50 composants", a-t-il dit.

Infineon a dit en juillet que dès le début 2006 il proposerait une plate-forme téléphonique à bas coût avec moins de 100 composants pour des combinés dont le coût de production sera inférieur à 20 dollars, contre 35 dollars actuellement. "En 2007, nous serons certainement largement en deçà de 20 dollars", ajoute Pratsch. Compte tenu de cette baisse du coût de production, le prix en gros d'un combiné sera de 20 dollars, voire moins, estime-t-il. La plupart des consommateurs obtiennent leur téléphone directement de leur opérateur mobile et le prix de détail est basé sur le coût de gros facturé au dit opérateur.

Philips estime qu'il faudra attendre 2008 pour qu'il puisse fournir aux fabricants une architecture autorisant une production à moins de 15 dollars l'unité. Les spécialistes des semiconducteurs ont pris une place décisive auprès des fabricants car ils leur apportent des architectures de référence complètes, ainsi que les logiciels pour les combinés de base. Les fabricants de semiconducteurs réduisent les coûts en intégrant toutes les fonctions vitales dans une seule puce et en réorganisant les composants restants sur une surface plus petite qui permet aussi d'accélérer les procédures de test. Les analystes estiment que quelque 810 millions de combinés seront vendus cette année contre 680 millions environ l'an passé.

Deux milliards de personnes à peu près dans le monde utilisent maintenant un téléphone mobile. Les fabricants de combinés peuvent baisser leurs coûts en employant des batteries moins puissantes, du plastique moins raffiné et des logiciels épurés, du type de ceux des téléphones sans fil domestiques. Mais ils hésitent à le faire, de peur que des clients mécontents changent de marque lorsqu'ils remplaceront leur premier téléphone, explique Pratsch. Pourtant, des combinés moins chers peuvent ouvrir de nouveaux marchés. "Il y a à peu près 3,5 milliards de personnes qui vivent dans des zones avec une couverture de téléphonie mobile mais qui n'ont pas les moyens d'avoir leur propre combiné", note Ameet Shah, chef stratège pour les marchés émergents de la GSM Association, laquelle représente les opérateurs mobiles internationaux.

Reuters

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top