RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 382
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Avril 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les blogs passent en trois dimensions
Avenir
Quand des enfants se préparent dès la crèche à un monde de robots
Matière
L'espace à portée de plasma
Espace
Les trous noirs joueraient un rôle majeur dans la stabilité de l'Univers
Mars a eu une enfance humide et tempérée
Un système propulsif basé sur l'utilisation d'antimatière à l'étude
Terre
La planète risque de se réchauffer de plus de 3 degrés...
Les ours polaires auront disparu du Canada dans 25 ans
Des prévisions météo locales en 2008
Un moteur expérimental qui fonctionne au magnésium et à l'eau
Vivant
Cancer : de plus en plus de guérisons définitives
Un nouveau médicament en prévention du cancer du sein
Cancer du col de l'utérus : un deuxième vaccin sur le marché européen l'an prochain
Des protéines d'algues vertes pour restaurer la vue
Une équipe de chercheurs localise une zone du cerveau indispensable à la lecture
Homme
La France adopte le passeport numérique
Les chaînes locales américaines face au défi Internet
Les États-Unis veulent généraliser les cartes d'identité RFID longue portée
Recherche
Lancement des premiers projets d'innovation industrielle
Edito
L'énergie des mers : une chance pour la France



Il y a 6 mois, dans mon éditorial "Energie des mers : un immense potentiel qui reste à exploiter", j'évoquais les immenses potentialités de l'énergie des mers pour notre pays. Mais depuis quelques semaines la flambée historique du prix du pétrole, de nouvelles études très alarmantes sur les conséquences du réchauffement climatique et la mise en service d'installations captant cette énergie océane sont venues éclairer cet enjeu énergétique d'une lumière nouvelle et me conduisent à évoquer à nouveau cet enjeu majeur.

Le prix du pétrole vient en effet de battre un nouveau record historique, en franchissant les 75 dollars le baril et nous pourrions atteindre d'ici 10 ans le fameux "Pic de Hubert", ce moment à partir duquel la production de pétrole mondiale va commencer à baisser, faute de réserves. Face à cette évolution, un nombre croissant d'experts et d'économistes préconisent de monter le prix de toutes les énergies fossiles de 5 % à 10 % en termes réels, tous les ans, sans limite, afin de permettre à chaque consommateur ou producteur de s'organiser en intégrant progressivement ces surcoûts inévitables liés à la raréfaction accrue des énergies fossiles. Nous pourrions ainsi voir la taxe sur les produits pétroliers être multipliée par trois d'ici 15 ans, pour arriver à un prix de 3 euros le litre d'essence d'ici 2020.

Cette hypothèse est d'autant plus probable que les conséquences de l'utilisation massive des énergies fossiles sur le réchauffement climatique de la planète risquent d'être beaucoup plus graves que les pires scénarios imaginés. Jusqu'à présent, il était généralement admis que le réchauffement climatique, et la fonte des glaces qui en résulte, risquaient d'élever le niveau des mers de 20 à 90 cm d'ici 2100. Mais de nouvelles études montrent que la fonte des glaciers arctiques et antarctiques, résultant du réchauffement climatique, pourrait accélérer la vitesse de la montée du niveau des mers, ce dernier risquant de grimper de plusieurs mètres (2 à 3 mètres) d'ici la fin du 21e siècle. Un tel scénario repousserait un demi-milliard de personnes vers l'intérieur des terres, loin des côtes inondées. Des pays entiers comme les Pays-Bas, le Bangladesh et de nombreuses îles du Pacifique pourraient être rayés de la carte. (Voir article dans notre Lettre 378).

Dans un tel contexte, le recours massif aux énergies renouvelables, non émettrices de gaz à effet de serre, est en train de devenir une priorité économique, technologique et politique absolue. Cette situation donne un relief particulier à la première mondiale qui va avoir lieu dans quelques semaines : Ocean Power Delivery Ltd (OPD), une société écossaise va livrer son premier capteur d'énergie océane à Enersis, société Portugaise d'énergie renouvelable. OPD a mis au point un capteur capable de capter l'énergie des vagues. C'est le "Pelamis" Wave Energy Converter. Le premier de ces modules a quitté l'Ecosse en mars sous forme de pièces suivi d'un second en avril et du troisième en mai pour être assemblé sur le site portugais de Peniche. Si l'expérience se révèle concluante, ils seront les premiers éléments d'une vaste ferme de vagues de 30 Pelamis, créant un parc capable d'alimenter 20 000 foyers, que le Portugal prévoit de faire fonctionner à la fin de l'année. (jusqu'à 23,25 mégawatts d'électricité).

En parallèle à ce projet industriel qui doit alimenter en électricité dans un premier temps 1500 foyers, OPD poursuit le développement de ses modules en coopération avec le Centre d'Essai spécialisé EMEC au nord de l'Ecosse. Une nouvelle ferme à vagues est en cours d'étude également avec Scottish Power, la société d'électricité Ecossaise, à Orkney en Ecosse.

Pelamis a également été sélectionné par l'agence de développement régionale du Sud Est de l'Angleterre comme un des trois systèmes d'exploitation de la force de la houle à essayer en parallèle dans un projet sur la côte de Cornouaille. Cette phase d'évaluation de la technique en vraie grandeur devrait permettre d'en mieux connaître les performances, la rentabilité et la tenue dans le temps à la mer.

Conçu à Edimbourg, ce remarquable convertisseur d'énergie des vagues Pelamis est destiné à aider l'Ecosse à atteindre ses objectifs ambitieux quant au développement d'une "énergie verte". Le gouvernement Ecossais souhaite que 40 % de sa production électrique proviennent des énergies renouvelables d'ici à 2020. Le nez face aux vagues, ce système d'énergie houlomotrice produit 750 kW d'électricité, acheminée sur le continent par un câble sous-marin. Le rendement énergétique du Pelamis est quasi constant (entre 70 % et 80 %) grâce à son système d'ancrage flexible qui force l'avant de l'engin à rester face aux vagues tout en lui laissant assez de mou pour pouvoir se balancer et, donc, produire un maximum d'électricité.

Le mouvement des vagues agit dans chaque articulation sur un vérin hydraulique qui envoie du fluide haute pression vers un moteur hydraulique qui actionne un générateur d'électricité (une turbine). L'énergie produite est envoyée, par l'intermédiaire d'un cordon ombilical, dans les fonds marins. Un convertisseur " Pelamis " génère 750 kW ce qui représente la consommation de 500 foyers et un parc machine d'une surface de 1 km² devrait délivrer assez d'énergie pour 20.000 foyers. Le Ministre de l'Industrie Ecossais, Jim Wallace, a déclaré que l'utilisation de ce type d'énergie était une étape obligée et il ajoute " nous avons du vent, nous avons des mers, et je crois que cela veut dire que bien que notre objectif de 40 % d'ici à 2020 soit ambitieux, nous pouvons l'atteindre ".

Ecologiquement, Pelamis est exemplaire. Il utilise une énergie sans cesse renouvelée, ne produit pas d'émissions et ne rejette pratiquement aucun déchet. Il n'est pas bruyant et est assez lointain pour ne pas provoquer de gêne visuelle pour les riverains. Il réduit les besoins en énergie fossile : un seul Pelamis économise les émissions de gaz à effet de serre de 2 000 tonnes par an.

L'EMEC souhaite aussi exploiter l'énergie des marées, encore plus prévisibles que les vagues. Un centre d'expérimentation sera construit sur l'île d'Eday grâce à de l'argent européen, britannique et écossais. L'Ecosse se veut à la pointe de la politique britannique encourageant les énergies renouvelables. Celles-ci lui procurent 13 % de son électricité, pour l'essentiel d'origine hydroélectrique ; l'énergie d'origine éolienne terrestre progresse rapidement. Son objectif pour 2010 (18 % d'énergie renouvelable) est plus ambitieux que celui de la Grande-Bretagne dans son ensemble (10 %).

Autre technologie : le projet Limpet de la société Wavegen qui récupère l'énergie de l'air comprimé par la force des vagues. A la différence du concept précédent, le système est sur le rivage, il ne crée donc aucune gêne à la circulation des bateaux et ne nécessite pas de câble sous-marin pour évacuer l'énergie. Un système Limpet fonctionne depuis Novembre 2000, il produit 500 kW et fournit 400 foyers écossais en électricité.

De son côté, l'Université de Manchester développe actuellement, au stade pré-industriel, un appareil innovant, pour capturer l'énergie des vagues. La caractéristique principale de ce système est d'utiliser l'oscillation de la houle à la surface de l'eau qui entraîne l'oscillation verticale de flotteurs en série. Ces flotteurs entraînent à leur tour l'arbre d'un générateur d'électricité placé en hauteur, à l'abri de l'humidité sur, par exemple, des plates-formes pétrolières flottantes hors-service. Chaque plate-forme Bobber peut développer une puissance de 5 MW, comparable à celle d'une éolienne géante, mais sans les problèmes d'impact visuel et d'imprévisibilité du vent.

Pour ces différents systèmes qui exploitent l'énergie des vagues et des marées, le coût du MW installé est à présent proche de celui des éoliennes (environ 1 million d'? du MW). Autre gros avantage : à l'inverse du vent, les marées peuvent être prédites et les machines les plus perfectionnées sont capables de se retourner pour profiter du flux et du reflux de la marée. Avec un facteur de capacité de 45 % environ, elles fonctionnent aussi plus longtemps que les aérogénérateurs qui dépassent rarement les 30 %.

En France, une petite société dont nous avons déjà eu l'occasion de parler, Hydrohelix Energies (installée à Quimper), travaille depuis plusieurs années sur un autre concept très intéressant : il s'agit d'installer des rangées de turbines hydroliennes à axe horizontal, constituées de 3 pales dont le diamètre est supérieur à 5 mètres. Elles seront fixées sur une même structure pour optimiser les connexions électriques. Les installations seront totalement immergées et fixées sur le sol, suffisamment en dessous de l'étiage pour éviter toute gêne à la navigation.

Selon Hydrohelix, les côtes françaises disposeraient d'un potentiel d'au moins 6 GW qui permettrait de couvrir environ 5 % de la production électrique française actuelle. Pour atteindre cette capacité de production de 6 GW il faudrait installer 4 500 hydroliennes au fond des mers. Cela représente un rideau d'hélices de quelque 21 km, disséminé à moins de 6 km des côtes, entre les îles de Sein et Ouessant et face au cap de la Hague, dans le Cotentin. Hydrohélix dit en effet avoir identifié trois sites appropriés au large des côtes françaises, sur lesquels les courants marins peuvent atteindre une vitesse de 12 à 18 kilomètres à l'heure : la chaussée de Sein, dans le prolongement de Ouessant ; le Fromveur entre le Conquet et Ouessant et la pointe de la Hague.

L'énergie des mers, dont notre pays a la chance d'être abondamment pourvu, représente un gigantesque potentiel à exploiter et pourrait, à terme, devenir la quatrième grande source d'énergie propre, avec le vent, le soleil et la biomasse. Pourtant, dans ce domaine d'avenir, la France est en retard et largement distancée par des pays comme la Grande Bretagne, la Norvège ou le Portugal. Cette situation n'est pas admissible et nous devons sans tarder lever les obstacles et les pesanteurs administratifs, juridiques, fiscaux et politiques qui empêchent la France d'être à la pointe européenne de l'utilisation de ces différentes formes d'énergies des mers dont notre pays est remarquablement pourvu.

Cet enjeu énergétique n'est pas seulement écologique, il est aussi technologique et économique. La consommation énergétique de la France a pratiquement stagné en 2005, mais sa facture s'est encore alourdie de 35 % et a atteint 38 milliards d'euros, en raison de la forte hausse du prix des énergies fossiles. Il est évident que notre pays ne pourra supporter longtemps un tel rythme d'augmentation annuelle de notre facture énergétique. En outre, le développement des énergies renouvelables génère la création de milliers d'emplois nouveaux et stimule notre recherche scientifique et notre capacité d'innovation. La France doit préparer l'avenir et se donner enfin les moyens d'exploiter ses gisements considérables d'énergies renouvelables. Dans cette perspective, l'exploitation à grande échelle de l'énergie des mers sous toutes ses formes représente un enjeu majeur pour notre pays si nous voulons rester dans la course compétitive mondiale tout en contribuant de manière exemplaire à la lutte, vitale pour notre avenir, contre le réchauffement climatique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les blogs passent en trois dimensions
Vendredi, 28/04/2006 - 00:00

Les habitués des jeux vidéo ne seront pas dépaysés. Un univers virtuel modélisé en 3D, un personnage que l'on fait avancer à coups de souris, des changements d'angles de vue au gré des déplacements... Pourtant, ici, rien à gagner, pas de mission à remplir, pas de morts vivants ni d'extraterrestres à occire au bazooka. Il ne s'agit que d'un blog.

Une nouvelle plate-forme, appelée « MyBlog3D », a été présentée le 26 avril au salon Laval-Virtual par I-maginer, un éditeur de logiciels nantais spécialisé dans la création d'environnement en 3D, intégrant de l'interactivité en temps réel. Jusque-là centrée sur le marché du B to B et du travail collaboratif (webconférence, classe virtuelle, maquette virtuelle pour projet immobilier...), la société lance ainsi son premier produit grand public. Avec MyBlog3D, l'internaute se retrouvera, au final, assez loin de l'habituelle philosophie du blog, avec du texte, des images fixes et les commentaires des visiteurs. Tout se passe en audio et vidéo.

L'environnement proposé est un loft que l'utilisateur paramètre comme il veut : choix des textures, des couleurs, des objets et, même, de l'ambiance sonore. Et bien sûr, même chose pour le personnage, qui est l'avatar du titulaire du blog, une représentation de lui-même. Chaque blog 3D intègre toutes les fonctions de communication en temps réel : chat, voix sur IP, webcam, envoi de SMS. Il est possible de partager des fichiers, d'exposer ses photos dans le « loft », d'envoyer des pages Web, etc.

Les visiteurs se déplacent, eux-aussi, avec un avatar qu'ils auront paramétré, et entrent ainsi en contact avec le « propriétaire » des lieux. Mais ils peuvent en même temps apparaître avec leur vrai visage dans la fenêtre de réception de la webcam. « Il n'y a que le propriétaire du blog qui a les droits d'administration, précise Philippe Peres, président d'I-maginer. Il est le seul à pouvoir changer les apparences, les ambiances sonores... C'est lui qui va donner accès à son blog par e-mail, en envoyant un lien et un code. Mais la visite est limitée à cinq personnes simultanément. »

A noter que, comme, dans les blogs actuels, il est possible de laisser un commentaire : les visiteurs peuvent venir dans le loft virtuel, même en l'absence du propriétaire, et y enregistrer un commentaire audio, qui sera écouté plus tard.

Côté technique, il suffit juste de télécharger un logiciel de 1,4 Mo. Tout est gratuit, pour le titulaire du blog comme pour les visiteurs. Mais I-maginer a évidemment prévu plusieurs sources de revenus pour ce service. En premier lieu, la publicité, qui sera insérée, sans que les utilisateurs aient leur mot à dire. « Au sein de chaque blog, il y a un panneau fixe de publicité », prévient Philippe Peres. Pour les autres financements, les idées ne manquent pas : achats de sons par les utilisateurs, d'espace pour afficher son propre logo dans son blog ou d'objets sponsorisés à placer dans le loft... I-maginer se rémunérera aussi sur l'envoi de SMS depuis le blog ou dans le cadre de partenariats avec des médias qui voudront diffuser du contenu audio ou vidéo dans le blog, comme les radios.

Yahoo

Les puces High-tech empêchent les erreurs lors des transfusions sanguines
Vendredi, 28/04/2006 - 00:00

Dans la clinique de Sarrebruck, la conservation du sang devient encore plus sûre, grâce aux étiquettes RFID collées directement sur les poches de sang. Ces étiquettes fournissent à tout moment au personnel hospitalier une information plus précise sur chaque poche. La RFID (identification par radiofréquence) est une méthode d'identification par puce qui ne nécessite aucun contact pour lire les données. Cette technologie a jusqu'ici été principalement employée en logistique (transport de marchandises).

Toute l'information sur le produit (notamment le contenu, l'origine et la destination) est programmée dans les puces RFID et la lecture du code de la puce permet d'accéder à toutes ces données. La clinique à Sarrebruck utilise cette technologie depuis 2005, il s'agit du premier hôpital en Allemagne à appliquer cette méthode. Les patients de la clinique sont équipés de petits bracelets RFID qui permettent aux médecins de les identifier à l'aide des PC et empêchent toutes erreurs de prescription de médicament.

Siemens emploie avec succès une solution semblable de RFID au centre médical de Jacobi à New York depuis 2004. La clinique de Sarrebruck élargit maintenant le système pour étiqueter les échantillons de sang, afin de diminuer les risques d'erreur lors des transfusions. Les informations contenues sur le bracelet du patient et sur les poches de sang peuvent ainsi être comparées et la transfusion ne se fait que si les données coïncident.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Quand des enfants se préparent dès la crèche à un monde de robots
Vendredi, 28/04/2006 - 00:00

Un garçonnet câline un petit robot humanoïde après l'avoir bordé pour l'aider à s'endormir. Digne d'un film de science-fiction, cette scène est quotidienne dans une crèche américaine, où enfants et robots cohabitent dans le but d'analyser les relations des uns avec les autres. Ce type d'expérimentation est conduit depuis mars 2005 par le géant de l'électronique nippon Sony dans le cadre de ses recherches sur l'intelligence artificielle, avec le partenariat de l'Université de Californie à San Diego.

L'objectif est de comprendre la façon dont les enfants, curieux par nature, peuvent développer des émotions face à des robots. Et comment, à partir de là, on peut concevoir des appareils plus conviviaux et ouvrir de nouveaux horizons... commerciaux. "Nous, les adultes, avons tendance à demander aux enfants s'ils considèrent les robots comme des jouets ou comme des êtres vivants. Mais en réalité, les enfants ne sont pas enfermés dans ces catégories pré-établies", explique un chercheur de Sony, Fumihide Tanaka, 33 ans. "Si nous parvenons à développer des appareils intelligents, dans un siècle tout le monde considérera ces technologies comme naturelles et ne se posera pas de questions", assure le chercheur.

Depuis le mois de mars, des enfants âgés de moins de deux ans partagent ainsi leur quotidien avec un petit robot haut de 58 centimètres. "Les êtres humains ont assurément une façon innée de communiquer indépendamment du langage. C'est avec les enfants que nous pouvons le mieux observer ce phénomène", souligne M. Tanaka. "L'une des particularités de cette expérience est que nous n'obligeons pas les enfants à venir dans nos laboratoires. C'est nous qui allons les voir là où ils sont", précise-t-il.

Le chercheur, qui reste invisible en coulisses et ne s'immisce pas dans l'aire des enfants, pilote à distance le robot via une télécommande ou, moins souvent, le laisse évoluer de manière autonome. L'ingénieur a ainsi pu observer des changements comportementaux des tout petits en fonction de la présence ou non du robot parmi eux. M. Tanaka se dit convaincu que les enfants ne voient pas davantage le robot comme un jouet que comme un être humain, mais comme une sorte d'hybride des deux. Une notion difficile à appréhender pour les adultes, selon lui.

Initialement, les enfants prêtent en effet peu d'attention à leur compagnon métallique. Mais au bout d'une période d'un à deux mois, ils commencent à l'aider à se relever lorsqu'il tombe. Après trois mois de vie commune, ils l'empêchent même de chuter, ont remarqué les chercheurs. "Les enfants s'adaptent à leur acolyte et compatissent avec lui, même si personne ne les oblige à le faire", commente M. Tanaka.En avril 2005, un nouveau robot, affublé d'un écran sur le ventre, a rejoint la crèche, mais cette fois en tant qu'assistant éducatif. Ces êtres de métal et de puces, au cerveau informatique, sont amenés à jouer un rôle grandissant dans la société japonaise, non seulement auprès des jeunes mais aussi, voire surtout, des personnes âgées dépendantes dont la proportion ne va cesser de croître au Japon dans les prochaines années.

Wanadoo

^ Haut
Matière
Matière et Energie
L'espace à portée de plasma
Vendredi, 28/04/2006 - 00:00

Les yeux levés vers le ciel, avec un rêve : la conquête du système solaire ! À travers le monde, des spécialistes s'ingénient à faire voler, toujours plus loin, sondes et vaisseaux spatiaux. Les procédés se perfectionnent pour des missions interplanétaires sur des centaines de millions de kilomètres. Et certaines innovations amorcent déjà l'exploration spatiale de demain. Pour preuve, le brevet déposé par le Laboratoire de physique et technologie des plasmas1 (LPTP) de Palaiseau, concernant un système novateur de propulsion plasmique, baptisé Pegases2. La nouveauté ? « L'utilisation de gaz électronégatifs, plutôt que l'habituelle matière chargée positivement, en guise de carburant », répond Pascal Chabert, chercheur CNRS au LPTP. Avec, au final, un gain en puissance et l'économie d'une étape dans le fonctionnement du moteur. Explications.

Dans l'espace, la gravitation terrestre est négligeable. La propulsion d'engins requiert donc une poussée modeste mais une forte impulsion spécifique : c'est-à-dire une motorisation qui éjecte à forte vitesse un flux continu de carburant. Initiée au milieu du xxe siècle, la propulsion par plasma a montré toute son efficacité l'an dernier, avec la sonde lunaire de l'Agence spatiale européenne (ESA) Smart-1. Ses qualités sont nombreuses. Un exemple ? Elle consomme cinq fois moins qu'une propulsion chimique classique. Cette économie de gaz - et donc de poids - permet une poussée constante sur de très longues périodes.

Idéale donc pour le changement d'orbite ou pour la propulsion de croisière des sondes spatiales. Mais voilà. Jusqu'ici, les procédés - propulseurs à grille ou de type Hall - n'utilisaient que de la matière chargée positivement pour se propulser. Pour cela, le gaz (souvent du xénon) subit trois transformations avant d'être éjecté : première étape, formation d'un plasma par ionisation du gaz. S'ensuit une accélération des ions positifs par un champ électrique. Enfin, ce jet d'ions est neutralisé par des électrons injectés en aval de l'accélération pour éviter que l'engin ne s'électrise (à la manière d'une voiture qui envoie de petites décharges lorsque l'on touche la carrosserie).

Les atouts de l'innovation brevetée par le LPTP ? Ce système utilise un gaz « électronégatif » (iode ou oxygène), c'est-à-dire capable de capter les électrons libres, ce qui va notamment permettre de sauter cette dernière étape de neutralisation. « Lors de l'ionisation, un faisceau d'ions positifs est généré. Les électrons arrachés sont directement captés pour former d'autres ions, négatifs cette fois. Ces deux faisceaux simultanés, l'un positif et l'autre négatif, augmentent la poussée et rendent inutile tout autre processus de neutralisation », confirme Pascal Chabert. Ce phénomène ainsi que la séparation des deux faisceaux d'ions ont déjà été démontrés au LPTP. Pour ce qui est des manières de les accélérer, le procédé breveté envisage soit un système de grilles polarisées, soit une tuyère magnétique qui remplace les grilles d'accélération et supprime ainsi tout risque d'érosion de celles-ci. Au final, la taille et les performances de ce propulseur à plasma électronégatif peuvent être facilement modifiées pour s'adapter à diverses applications.

CNRS

^ Haut
Espace
Espace et Cosmologie
Les trous noirs joueraient un rôle majeur dans la stabilité de l'Univers
Vendredi, 28/04/2006 - 00:00

Le rendement énergétique des trous noirs les plus anciens reste exceptionnel, selon une étude menée sur neuf trous noirs supermassifs vieillissants. Les trous noirs, sortes de siphons massifs situés au centre de certaines galaxies, sont les "moteurs" les plus efficients et les plus écologiques de l'univers, ont estimé des astrophysiciens américains, qui en ont pour la première fois mesuré le fonctionnement.

Les trous noirs sont 25 fois plus efficients que le moteur au plus haut rendement jamais construit par l'homme, a indiqué Steve Allen de l'université Stanford (Californie, ouest), principal auteur de la recherche. Utilisant le télescope spatial américain à rayons X Chandra, les scientifiques qui ont publié l'étude ont pu évaluer la masse de gaz chaud absorbée par neuf trous noirs anciens, ainsi que le jet de particules à haute vitesse rejeté, qui était jusque-là invisible. Ce phénomène correspond au fonctionnement d'un moteur cosmique, a indiqué M. Allen. Selon lui, les trous noirs plus anciens et ultra-efficients semblent jouer un rôle clé pour maintenir un certain ordre dans les grandes galaxies en empêchant l'éclosion d'un trop grand nombre d'étoiles.

Les jets hautement énergétiques des trous noirs ont en effet un impact important sur leur environnement, expliquent encore les chercheurs : en chauffant les gaz interstellaires, ils les empêchent de se refroidir et de se condenser pour former de nouvelles étoiles. Ils auraient donc un effet régulateur sur la formation d'étoiles dans ces galaxies.

Selon les chercheurs, les trous noirs semblent empêcher que des galaxies n'envahissent leurs voisines. Les galaxies dans lesquelles les trous noirs ont été observés sont plus grandes que la nôtre, la Voie Lactée, et se situent à des distances allant de 50 à 400 millions d'années-lumière. Une année-lumière est la distance parcourue dans le vide par la lumière en un an, soit près de 10.000 milliards de kilomètres.

SD

Mars a eu une enfance humide et tempérée
Vendredi, 28/04/2006 - 00:00

La planète Mars a connu une période assez brève durant laquelle elle était relativement humide et tempérée avant de subir un changement climatique majeur qui l'a rendue aride et froide, des conditions peu propices à la vie, selon une étude internationale publiée aux USA. Se basant sur les données fournies surtout par OMEGA, le spectromètre de la sonde martienne européenne Mars Express, ces experts ont déterminé que la carte minéralogique de la planète rouge qu'ils ont établie est étroitement liée à la présence d'eau liquide à sa surface, comme l'indique l'érosion importante constatée.

Cette carte géologique martienne est la plus étendue jamais réalisée. Elle couvre 90 % de la surface et indique que les conditions favorables à la vie n'auraient existé que dans l'enfance de la planète. "Il y a 3,5 milliards d'années, Mars est devenue de plus en plus sèche et acide, un environnement inhospitalier à la vie, même pour un microbe", a expliqué John Mustard, un géologue de l'Université de Brown (Rhode-Island, est), l'un des co-auteurs de cette étude parue dans la revue américaine Science datée du 21 avril.

Si des organismes vivants se sont développés sur Mars, on en trouvera des traces dans les roches argileuses abondantes et le sol au nord du plateau volcanique Syrtis Major dans les régions de Nili Fossae et de Marwth Vallis, ont estimé ces scientifiques. Ces zones constituent des cibles de choix pour de futures missions robotiques d'exploration, a souligné John Mustard, un scientifique travaillant sur les missions Mars Express et américaine Mars Reconnaissance Orbiter (MRO), récemment mis en orbite autour de la planète rouge. Le MRO est doté d'instruments d'une grande puissance.

Son spectromètre de reconnaissance (CRISM) commencera en septembre à scruter ces régions riches en argile. Les images que transmettra le CRISM seront vingt fois plus précises que celle prises par Mars Express. L'équipe internationale de scientifiques français, russes, allemands et américains, conduite par Jean-Pierre Bibring, astrophysicien de l'université de Paris, a utilisé des données recueillies pendant deux ans par OMEGA (Observatoire pour la minéralogie, l'eau, les glaces et l'activité) pour établir cette nouvelle carte minéralogique de Mars.

BU

Un système propulsif basé sur l'utilisation d'antimatière à l'étude
Vendredi, 28/04/2006 - 00:00

Le NIAC (NASA Institute for Advanced Concepts) va mettre en place une équipe de chercheurs afin d'analyser la faisabilité d'un système propulsif à base d'antimatière. Ce mode de propulsion présenterait de nombreux avantages lors des phases interplanétaires par rapport aux systèmes plus classiques (chimique et nucléaire). L'avantage le plus déterminant concernerait la sécurité de l'équipage pendant le voyage, une propulsion nucléaire réduisant en effet fortement le temps nécessaire pour atteindre Mars (celui-ci passerait de 180 jours à 90 voire 45), et ainsi le temps d'exposition aux rayonnements cosmiques.

L'utilisation d'ergols serait également très coûteuse dans ce genre de mission à cause du poids de ceux-ci. L'impulsion spécifique d'un propulseur d'antimatière tournerait également autour de 900 secondes, c'est-à-dire deux fois plus que les meilleurs moteurs spatiaux actuels. Enfin le lancement, ainsi que les déchets générés seraient plus sûrs que dans le cas d'un moteur nucléaire. Certains obstacles restent néanmoins à surmonter : le coût de création de l'antimatière ainsi que son stockage, inconvénients qui selon le professeur Gerald Smith du Positronics Research, LLC, peuvent néanmoins être maîtrisés grâce à un programme de recherche et de développement adéquat.

USA Espace

Goddard Space Flight Center

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La planète risque de se réchauffer de plus de 3 degrés...
Vendredi, 28/04/2006 - 00:00

La température de la planète risque de croître de plus de 3 degrés Celsius au cours des décennies à venir compte tenu des projections optimistes d'émissions de gaz à effet de serre, a prévenu le conseiller scientifique du gouvernement britannique. "L'augmentation de la température pourrait bien être supérieure à 3 degrés Celsius" si l'on tient compte des projections optimistes des émissions de dioxyde de carbone, a affirmé le professeur David King, qui publie un rapport intitulé "Eviter un changement climatique dangereux". "Nous parlons ici de quelque chose qui va jouer sur des décennies, nous parlons de 100 ans ou à peu près", a-t-il précisé. "Ce sera un défi majeur pour les pays en voie de développement."

Le professeur King estime qu'une telle augmentation de la température exposerait à la famine jusqu'à 400 millions de personnes dans le monde et entre 1,2 et 3 milliards de personnes souffriraient d'un accès insuffisant à l'eau. Il assure également qu'une telle augmentation provoquerait une chute de la production de céréales dans le monde de l'ordre de 20 à 400 millions de tonnes. Enfin, peu d'écosystèmes seraient capables de s'adapter à de telles températures.

Ces prédictions s'appuient sur des émissions de l'ordre "de 500 parties par million (ppm) dans l'athmosphère (soit) probablement ce que nous pouvons réaliser de mieux au travers d'un accord global", a précisé le professeur King sur la BBC. Selon lui, ce niveau d'émissions est deux fois celui de l'ère pré-industrielle. Le gouvernement britannique et l'Union européenne se sont donnés pour objectif à long terme de limiter à 2 degrés Celsius l'augmentation de la température de la planète par rapport aux niveaux de l'époque préindustrielle.

Toutefois, "nous ne devons pas céder au découragement en disant qu'il n'y a rien à faire et donc continuer à vivre comme on l'a fait jusqu'ici", a prévenu le scientifique. "Il est très important de comprendre que nous pouvons gérer le risque pour nos populations". "Si nous allons au-delà de 500 parties par million (ppm), nous allons atteindre des augmentations de température et du niveau des mers au cours du siècle à venir qui seront extrêmement difficiles à gérer pour les populations de la planète", a-t-il mis en garde.

Le professeur King a également critiqué les responsables politiques qui placent tous leurs espoirs dans les nouvelles technologies pour maîtriser le changement climatique. "Il y a une différence entre optimisme et avoir la tête dans le sable", a-t-il déclaré. Pour lui, il est impératif que les discussions en cours sur le changement climatique aient comme postulat de départ cette position qui fait consensus au sein de la communauté scientifique.

BBC

Les ours polaires auront disparu du Canada dans 25 ans
Vendredi, 28/04/2006 - 00:00

Selon Tim Flannery, Les ours polaires auront disparu du Canada dans moins de 25 ans. Pour ce chercheur australien, les ours polaires vont disparaître du Canada dans moins de 25 ans en raison du réchauffement climatique. En effet, le réchauffement climatique réduit considérablement et très rapidement la couche de glace dont les ours ont besoin pour se nourrir et se reproduire.

En novembre et décembre, époque du gel des eaux côtières, les ours polaires retournent sur les glaces pour chasser leur mets de prédilection, le phoque annelé. Les ours polaires attrapent les phoques en faisant le guet près des trous où ces derniers viennent prendre une bouffée d'air, en pénétrant dans les tanières de naissance creusées dans les bancs de neige et en chassant les phoques qui se font chauffer au soleil sur la glace.

La couverture de glace de l'Arctique baisse à raison de 8 % par an et les ours polaires présentent « déjà des signes de stress très importants » selon M Tim Flannery, un scientifique de renommé internationale. Le poids moyen des ours polaires a baissé de 15 % en moyenne.

Pourtant l'avenir « précaire » de l'ours polaire est bien connu au Canada. Bien que les ours polaires ne soient pas en voie de disparition, ils doivent faire face aux dangers communs à tous les grands prédateurs : envahissement de leur habitat par les hommes, chasse illégale et contaminants contenus dans leurs proies. Une nouvelle menace est le changement climatique, qui a des incidences sur l'habitat arctique de l'ours polaire : diminution de la couverture totale de glace, amincissement de la banquise du bassin polaire central et changement du moment de la prise de la glace et de la débâcle dans les secteurs plus méridionaux, dont la baie d'Hudson.

Les scientifiques qui étudient les ours polaires de la partie occidentale de la baie d'Hudson depuis la fin des années 1960 ont constaté que les individus de cette population sont moins gras lorsqu'ils viennent sur le rivage et qu'ils donnent naissance à moins d'oursons qu'il y a 20 ans. Les températures printanières sont plus élevées, ce qui signifie que la glace fond dix jours à deux semaines plus tôt qu'il y a 20 ans. Les ours polaires ont donc moins d'occasions de chasser le phoque, doivent venir sur le rivage plus tôt en saison et doivent maintenant vivre une plus longue période de jeûne.

En 1973, le Canada, le Danemark, la Norvège, l'ancienne Union soviétique et les États-Unis ont signé l'Accord sur la conservation des ours blancs (polaires) afin d'assurer la conservation à long terme des ours polaires. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) a désigné l'ours polaire « espèce préoccupante » au Canada en raison des menaces qui pèsent sur lui.

Le parc national du Canada Wapusk a été créé en 1996 pour protéger la région naturelle des basses terres Hudson-James pour les générations à venir. Le « Wapusk », en langue cri, signifie ours blanc, est une des espèces protégées par le parc. L'été, le parc accueille 1.200 ours polaires dans ses 11.475 km². Parcs Canada collabore avec le Service canadien de la faune d'Environnement Canada afin d'étudier les ours et les changements qui se produisent dans leur environnement.

ANE

Des prévisions météo locales en 2008
Vendredi, 28/04/2006 - 00:00

Le passage d'un orage sur une localité donnée, à une heure précise. Une chute de neige, avec sa hauteur, sur un tronçon routier. Une rafale de vent et sa durée... Ces micro-événements, qui font la pluie et le beau temps au quotidien, Météo France en annonce une prévision améliorée, à partir de 2008, grâce à un nouveau système numérique baptisé Arome. Alors que les modèles météorologiques actuels, Arpège et Aladin, découpent l'atmosphère en mailles de respectivement 25 km et 10 km de côté, Arome aura une résolution de 2,5 km.

Contrepartie de cette précision accrue, les prévisions seront à courte échéance, ne dépassant pas 48 heures. Cette échelle réduite d'espace et de temps permettra d'anticiper "les phénomènes locaux dangereux, tels qu'orages, crues soudaines ou précipitations intenses", espère François Bouttier, responsable de la modélisation au Centre national de recherches météorologiques. Ces informations ciblées devraient intéresser, au premier chef, la sécurité civile et les services de l'équipement, mais aussi le transport aérien ainsi que des secteurs économiques comme le bâtiment et les travaux publics.

Le nouveau logiciel, précise Bernard Strauss, directeur de la prévision à Météo France, sera alimenté par des données extrêmement détaillées, fournies notamment par les satellites géostationnaires Météosat de seconde génération, déjà en orbite, et les futurs satellites MetOp, dont le premier exemplaire doit être placé en orbite polaire en juillet. Il utilisera la puissance d'un nouveau supercalculateur dont l'établissement public sera également doté en 2008. Météo France veut ainsi compléter une offre allant des prévisions immédiates (quelques heures) aux prévisions saisonnières, encore à l'état de recherche.

LM

Un moteur expérimental qui fonctionne au magnésium et à l'eau
Vendredi, 28/04/2006 - 00:00

Un groupe de recherche du Tokyo Institute of Technology a mis au point un prototype de moteur expérimental qui génère une force de rotation à partir de la réaction chimique entre l'eau et le magnésium. Ce prototype consiste en un cylindre métallique possédant une entrée d'eau sur sa partie inférieure et deux sorties pointant dans des directions opposées sur sa partie supérieure. Le cylindre est rempli de morceaux de magnésium et chauffe à 600 degrés celsius.

Quand de l'eau est ajoutée, celle-ci réagit avec le magnésium pour former de l'oxyde de magnésium et de l'hydrogène : Mg + H2O --> MgO + H2. La force propulsive provoquée par la sortie des deux gaz du cylindre fait tourner celui-ci sur son axe. L'hydrogène réagit alors avec l'oxygène de l'air pour former de la vapeur d'eau. Ce moteur n'utilisant pas d'énergie fossile, il n'émet pas de dioxyde de carbone. De plus, l'oxyde de magnésium qui résulte de la réaction peut être recyclé.

En effet, le Tokyo Institute of Technology travaille en collaboration avec Mitsubishi Corp. sur un projet baptisé "Entropia Laser Initiative", dont l'objectif est de recycler l'oxyde de magnésium en l'exposant à un laser fonctionnant à l'énergie solaire.

BE Japon

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer : de plus en plus de guérisons définitives
Vendredi, 28/04/2006 - 00:00

On savait déjà que la mortalité globale par cancer était en recul constant dans notre pays mais une étude de l'Inserm nous apprend qu'il y a également de plus en plus de guérisons définitives. Dix ans après le diagnostic, toutes formes de cancers confondues, la surmortalité annuelle liée à la maladie est tombée à 2 % environ, selon une expertise de l'Inserm. Sur cent personnes, seules deux risquent donc de décéder des suites de leur cancer dans la 10e année après le diagnostic. Ce taux de surmortalité "très faible" de 2 % ne cesse de se réduire, grâce aux progrès thérapeutiques et au dépistage, notamment du cancer du sein, selon le Pr David Khayat, président de l'Institut national du cancer (INCa). "Il y a cinquante ans, à peine un malade sur cinq pouvait espérer guérir ou vivre dix ans après" le diagnostic, a relevé le cancérologue devant la presse. Pour ceux traités dans les quinze dernières années, cette surmortalité n'est que de 1 %, a-t-il ajouté, défendant le droit des cancéreux guéris à l'assurance.

En France, deux millions de personnes ont eu ou ont un cancer. "Les taux de survie en général sont meilleurs chez les plus jeunes", selon le Dr Pascale Grosclaude, épidémiologiste. La surmortalité annuelle est un peu moindre chez les femmes (inférieure à 2 % dans la 10e année après le diagnostic). "Le cancer du testicule (2.000 nouveaux car/an) est un exemple des progrès thérapeutiques majeurs : à partir de la 3e année, quel que que soit le stade du cancer (même métastasé), la surmortalité est proche de zéro", commente Bernard Asselain (Institut Curie, Paris). A l'opposé, dans le cancer du poumon (environ 28.000 nouveaux cas/an), la surmortalité après dix ans reste de l'ordre de 5 %.

"Pour l'ensemble des cancers du sein, tous stades de gravité confondus, la survie à 5 ans est de 83 % et atteint 96 % pour les cancers au stade local sans envahissement ganglionnaire" diagnostiqués très tôt grâce au dépistage, selon M. Asselain. Ces "petits cancers du sein représentent plus de 50 % des diagnostics", estime le Pr Khayat. Pour Jean-Pierre Diaz, de la Fédération des assurances, 2% de surmortalité annuelle signifie "qu'il subsiste un risque résiduel". Mais, "chaque assureur tirera les conséquences" de ces données, qui s'ajoutent à celles dont la profession dispose, a-t-il dit. Une "décision imminente" sera prise à ce sujet, a assuré le Pr Khayat en évoquant la suppression, inscrite dans le plan cancer, des surprimes pour "risque aggravé injustifié", qui renchérissent le coût des emprunts.

Inserm

Un nouveau médicament en prévention du cancer du sein
Vendredi, 28/04/2006 - 00:00

Le Raloxifene, utilisé habituellement contre l'ostéoporose, serait aussi efficace que le Tamoxifene dans la réduction du risque de cancer du sein chez les femmes ménopausées à haut-risque, mais avec moins d'effets néfastes, indique une nouvelle étude américaine. « C'est une bonne nouvelle pour les femmes » a déclaré le Dr Leslie Ford, du National Cancer Institute. « Cette découverte donne aux femmes un réelle alternative afin de combattre les deux principales causes de morbidité et de mortalité dans cette tranche d'âge : le cancer du sein et les fractures » a-t-elle ajouté.

L'étude STAR, initiée en 1999, est l'un des plus vastes essais de prévention clinique du cancer du sein . Il a rassemblé près de 20 000 femmes ménopausées, à haut risque de cancer du sein. La moitié a reçu une dose journalière de Tamoxifène (commercialisé par AstraZeneca sous le nom de Nolvadex), l'autre moitié du Raloxifene (Evista, par le laboratoire Eli Lilly), ce pendant 4 années consécutives. Les deux traitements ont permis une diminution de moitié des risques de développer un cancer du sein. La différence porte sur les effets secondaires : les femmes ayant pris le Raloxifene eurent 36 % moins de risque d'avoir un cancer utérin et 29 % moins de risque de développer des caillots de sang que le groupe de celles traitées avec du Tamoxifene.

Au jour d'aujourd'hui, le tamoxifene, autorisé sur le marché en 1998, reste l'unique traitement de prévention du cancer du sein chez la femme en pré-ménopause. Malgré son efficacité cependant - réduction de moitié des risques de cancer du sein- il est en pratique peu utilisé en raison de ses rares, mais sérieux effets néfastes - cancer de l'utérus, formation de caillots de sang. Des résultats d'études supplémentaires devraient être présentés en juin prochain à l'occasion de la conférence annuelle de la Société américaine d'oncologie clinique.

SAZ

Cancer du col de l'utérus : un deuxième vaccin sur le marché européen l'an prochain
Vendredi, 28/04/2006 - 00:00

Les femmes peuvent se féliciter de cette avancée majeure dans la lutte contre le cancer : Cervarix, un vaccin contre le cancer du col de l'utérus, devrait être mis sur le marché européen en 2007, tout comme son prédécesseur, Gardasil, dont l'efficacité spectaculaire avait été annoncée en octobre 2005 aux Etats-Unis, un an avant sa mise sur le marché prévue pour la fin 2006. Gardasil du laboratoire pharmaceutique Merck et Cervarix, de son concurrent GlaxoSmithKline, ont été présentés lors du congrès Eurogin à Paris. Ces vaccins s'attaquent aux deux papillomavirus responsables de plus de 70 % des cancers du col de l'utérus, les HPV 16 et 18.

Le principe de la vaccination thérapeutique, qui est une forme d'immunothérapie, est d'induire une réponse immunitaire contre une partie des cellules tumorales ciblées (antigène tumoral). Cette réponse se traduit en particulier par la production de "cellules tueuses" capables de détruire très spécifiquement la tumeur.

Jusque-là, la prévention de ce cancer féminin passait par le dépistage: tous les un à trois ans, les femmes faisaient pratiquer un frottis vaginal à la recherche de lésions pré-cancéreuses ou cancéreuses. Mais ce frottis n'est fiable en moyenne qu'à 80 %, selon les spécialistes.

Cancer par excellence évitable, le cancer du col de l'utérus est le deuxième cancer le plus fréquent chez la femme dans le monde et le premier reconnu par l'OMS comme étant attribuable à 100% à une infection. Il provoque chaque année 230.000 décès dans le monde et 500.000 nouveaux cas (80 % dans les pays en développement). En Europe, 65.000 femmes en souffrent et on recense environ 25.000 nouveaux cas par an, avec une mortalité de 4,7 %. En France, le cancer du col de l'utérus touche toujours 4.000 femmes chaque année en France, en tue encore 1.600 et sa fréquence ne diminue plus, notamment chez les femmes de moins de 45 ans.

AP

Des protéines d'algues vertes pour restaurer la vue
Vendredi, 28/04/2006 - 00:00

Les maladies de dégénérescence rétinienne provoquent la mort des cellules photoréceptrices de la rétine. Ceci entraîne une perte totale de la réponse à la lumière et aboutit à la cécité de la personne. Dans un article paru dans le journal Neuron, une équipe de l'école de médecine Wayne State de Detroit, Michigan, a testé la conversion des neurones internes de la rétine en des cellules photosensitives. Leur stratégie a consisté à transmettre l'information lumineuse aux rétines dépourvues de cônes et de bâtonnets, cellules habituellement responsables de la perception de la lumière via l'expression d'une protéine d'algues vertes. Les chercheurs, en utilisant un vecteur adeno-associated virus (AAV), ont fait exprimer la protéine channelrhodopsine (ChR2) dans la rétine des souris transgéniques dépourvues de bâtonnets et de cônes.

Ce traitement a permis une expression stable de la protéine ChR2 dans les neurones rétiniens. Les cellules modifiées encodent le signal lumineux et transmettent l'information au cortex visuel. Puisque les souris réagissent à un signal lumineux, on peut considérer que les souris ont recouvré une certaine forme de vue. Cette protéine membranaire est comparable à la bactériorhodopsine si bien qu'en présence de lumière, sa conformation change, permettant ainsi le mouvement d'ions à travers la membrane.

BE USA

Une équipe de chercheurs localise une zone du cerveau indispensable à la lecture
Vendredi, 28/04/2006 - 00:00

Grâce à l'étude d'un patient présentant des troubles de la lecture après l'ablation d'une petite zone de cortex cérébral, une équipe de recherche de l'hôpital de la Pitié-Salpêtrière à Paris (AP-HP) a pu démontrer que cette zone du lobe temporal gauche était indispensable à la lecture. Ces travaux, dirigés par Laurent Cohen de l'unité Inserm 562 (Institut national de la santé et de la recherche médicale), sont publiés dans l'édition du 20 avril de Neuron. "Au cours de l'évolution, notre cerveau s'est spécialisé dans des tâches diverses, notamment la reconnaissance d'un visage, une fonction qui date d'espèces bien antérieures à la nôtre", a déclaré à l'Associated Press, le Dr Raphaël Gaillard, co-responsable des travaux. "Pour la lecture, on a affaire à un objet culturel très récent", a-t-il ajouté.

On sait aujourd'hui, grâce au développement des techniques d'imagerie et d'enregistrement de l'activité cérébrale de sujets en train de lire, que cette reconnaissance visuelle active une zone du cerveau située sur le dessous du lobe temporal gauche, dans le cortex occipito-temporal. Pour effectuer cette tâche, un grand nombre de neurones s'activent dans cette zone précise, durant quelques fractions de secondes. Observer l'activation de cette zone du cortex durant la lecture ne permet toutefois pas d'affirmer qu'elle est spécifique et indispensable à cette tâche. Le seul moyen de répondre à cette question est d'observer les conséquences d'une lésion ou d'une destruction de cette zone sur la faculté de lire.

C'est ce qu'ont pu faire les chercheurs, en travaillant avec un patient souffrant de crises d'épilepsie rebelles au traitement médical et qui avait bénéficié de l'implantation d'électrodes intra-cérébrales pour l'exploration de son épilepsie. Les électrodes avaient permis d'enregistrer l'activité électrique du cortex temporal pendant la lecture de mots conscients ou subliminaux.

De son côté, l'IRM (imagerie par résonance magnétique) fonctionnelle avait permis de cartographier les activations du cortex temporal pendant l'identification de mots, mais aussi de visages, d'objets, de bâtiments. "C'est le traitement par l'ablation chirurgicale d'une petite zone de cortex temporal gauche qui, après l'opération, a permis d'établir pour la première fois que l'activité de cette région était non seulement associée au traitement des mots, mais qu'elle était également indispensable à cette fonction mentale", a ajouté pour sa part le Dr Lionel Naccache, co-responsable des travaux. "Le patient s'est alors plaint de difficultés de lecture, alors qu'il reconnaissait sans peine visages, objets et bâtiments".

La deuxième série de tests, identique à celle effectuée avant l'opération, a clairement mis en évidence des difficultés de lecture, s'accroissant avec la taille des mots, ainsi qu'une modification de l'activation de zones du cerveau liées à la lecture. "Notre expérience montre qu'il existe bien une région spécifique qui, d'une part s'active au moment de la lecture, mais qui est aussi nécessaire à la reconnaissance des mots", a conclu Raphaël Gaillard.

AP

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La France adopte le passeport numérique
Vendredi, 28/04/2006 - 00:00

Les voyageurs français désireux de visiter les Etats-unis n'auront plus à se munir d'un visa pour pénétrer sur le territoire américain. Depuis le 13 avril, les ressortissants de l'Hexagone peuvent en effet se faire délivrer un passeport électronique. Dans un premier temps réservé aux habitants des Hauts-de-Seine, le nouveau document sera progressivement disponible dans l'ensemble du pays. A la fin du mois de juin, toutes les préfectures le délivreront.

Institué par un décret du 30 décembre 2005, le passeport électronique est mis en place en application des dispositions prévues par un règlement européen du 13 décembre 2004. Il remplacera à terme l'actuel passeport délivré depuis 2001, mais ceux qui auront été délivrés avant la mise en oeuvre du passeport électronique resteront valables jusqu'à la date de leur péremption.

En apparence, rien ne change sur le nouveau passeport. En apparence seulement, car à l'intérieur de la couverture se loge une puce RFID d'une portée de 10 cm. Mise au point par Axalto, celle-ci contient l'ensemble des données d'état civil écrites sur la première page du livret. Elle renferme également une version numérique de la photo d'identité apposée sur le papier, un ajout donnant ses lettres de biométrie au passeport, une première pour un document administratif français. L'ensemble se veut inviolable, ou du moins hautement sécurisé par le système Axseal assurant un cryptage des données sur 112 bits.

La durée de validité du passeport reste inchangée: dix ans pour les personnes majeures, cinq ans pour les personnes mineures, un an pour les passeports délivrés en urgence et sur présentation de justificatifs (maladie, décès d'un proche). Comme par le passé, il faut s'adresser à la mairie dont dépend le domicile pour le faire établir, ou au consulat en cas de résidence à l'étranger.

Pensé et conçu pour minimiser les risques de contrefaçon, le passeport électronique s'entoure de davantage de précautions, au-delà même des technologies utilisées. Ainsi, le ressortissant désireux de se voir délivrer le document de circulation, ne doit plus seulement présenter une pièce d'identité mais une copie intégrale de son acte de naissance, y compris pour un renouvellement. Les mineurs ne pourront plus figurer sur le passeport de leurs parents et devront désormais disposer de leur propre document.

LMI

Les chaînes locales américaines face au défi Internet
Vendredi, 28/04/2006 - 00:00

Les chaînes de télévision locales américaines s'inquiètent de la vente de plus en plus fréquente de séries populaires sur le Net. Les diffuseurs locaux se sont rencontrés à Las Vegas pour discuter des moyens de conserver leurs téléspectateurs... et les revenus générés par la publicité. Les réseaux nationaux vendent de plus en plus souvent en ligne les émissions les plus populaires, une nouveauté que les chaînes locales voient comme une menace pour leurs revenus. Des séries comme "Perdus" et "La loi et l'ordre" sont maintenant disponibles sur Internet pour 1,60 euro par épisode dès le lendemain de leur première diffusion.

Les petites chaînes locales font le gros de leurs profits dans la vente de publicités lors d'émissions locales mais craignent que la vente de séries populaire sur Internet n'entraîne une chute du nombre de téléspectateurs, diminuant ainsi le prix des écrans publicitaires. Déjà, plusieurs chaînes locales tentent de vendre sur Internet leurs émissions produites localement. Impossible de savoir pour l'instant si cette nouveauté arrivera à générer des revenus pour compenser les pertes provoquées par la diminution du nombre de téléspectateurs. Peu importe, les chaînes locales estiment ne pas avoir le choix.

"La question est de savoir si elles adhèrent à ces nouvelles formes de diffusion ou si elles attendent et deviennent de moins en moins pertinentes?" dit Jimmy Schaeffler, analyste du Groupe Carmel, une firme de recherche en marketing.

Les chaînes locales craignent que les réseaux nationaux ne les oublient dans ce virage technologique. Elles avertissent que ce serait une erreur estimant agir comme des locomotives pour leurs séries."Nous avons l'infrastructure, nous avons une présence dans les marchés locaux que personne ne peut imiter", souligne Paul Karpowicz, propriétaire de 12 stations affiliées.

L'Association américaine des diffuseurs s'est réunie récemment à Las Vegas pour envisager un partage des revenus de la vente en ligne. La semaine dernière, le diffuseur national NBC Universal a conclu une entente pour promouvoir la ventes des émissions locales de ses 213 chaînes affiliées. De son côté, Fox a conclu une entente pour partager les revenus de la vente d'émissions en ligne.

AP

Les États-Unis veulent généraliser les cartes d'identité RFID longue portée
Vendredi, 28/04/2006 - 00:00

Le ministère américain de la Sécurité intérieure (Department of Homeland Security) préconise de distribuer des cartes d'identité électroniques intégrant des puces électroniques à radiofréquences (RFID).

Baptisé "Pass" (People access security service), ce document de voyage de nouvelle génération aurait la même valeur légale que le passeport et simplifierait les déplacements des américains vers deux pays voisins. Ce système est déjà testé à certains postes depuis 2005. Les résultats seraient suffisamment encourageants pour qu'il soit généralisé d'ici 2008. Pass n'est pas sans rappeler les systèmes de télépéage rapide des autoroutes françaises. Lors du passage aux postes-frontières, les voyageurs présentent leur carte munie d'un identifiant unique devant le lecteur, sans descendre du véhicule. Les données sont transmises automatiquement par ondes radio.

La portée de 9 mètres des puces RFID suscite cependant de nombreuses inquiétudes et interrogations. Il aurait été possible d'utiliser des RFID avec une portée de quelques centimètres, nécessitant ainsi un passage de la carte sur une borne par les voyageurs. Mais ce type de solution «ne répond pas aux demandes de la police des frontières», désireuse d'accélérer les passages et d'améliorer la sécurité, se défend-il. Et de mettre en exergue les risques de vol, lorsque l'on doit sortir une carte par la fenêtre de la voiture.

DHS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Lancement des premiers projets d'innovation industrielle
Vendredi, 28/04/2006 - 00:00

Jacques Chirac a lancé le 25 avril six projets d'innovation industrielle visant à "inventer les produits de demain", du véhicule hybride au moteur de recherche multimédia sur l'Internet, en passant par un système d'économie d'énergie domestique et a prôné une coopération avec les partenaires européens.

"Le conseil de surveillance de l'Agence s'est réuni il y a quelques jours pour approuver les premiers grands projets. Les contrats pourront bientôt être signés avec les entreprises, après l'agrément de la Commission européenne", a déclaré le chef de l'Etat lors d'un discours à l'Elysée. "Ces grands programmes se concentrent sur des défis technologiques essentiels pour notre avenir", a-t-il ajouté devant une assemblée de grands patrons, après avoir déploré le retard français en la matière par rapport à d'autres pays, comme les Etats-Unis ou le Japon. « Ces projets "nous permettront d'inventer les procédés, les applications et les produits de demain", a souligné M. Chirac, reconnaissant que la France accuse du retard en la matière. "Parmi les trente entreprises mondiales qui investissent le plus dans la recherche, on ne compte à ce jour qu'une seule entreprise française", a-t-il ajouté.

L'effort de recherche et développement sera de 600 millions d'euros pour cinq projets, hors celui de moteur hybride. Ils sont essentiellement nationaux, mais Jacques Chirac a assuré que l'Agence d'innovation industrielle (AII), qui les sélectionne et les co-finance, doit être dotée "d'emblée d'une dimension européenne".

L'agence, créée fin août 2005 et qui étudie une trentaine d'autres projets, doit servir à "entraîner la puissance et le talent de notre continent tout entier", a expliqué le chef de l'Etat, qui a invité la Commission européenne à "redoubler d'efforts pour que tous les pays européens s'engagent dans la voie" d'une "grande politique industrielle". Les premiers projets retenus par l'AII et annoncé par Jacques Chirac font la part belle aux technologies de l'information, aux biotechnologies, aux transports du futur et à l'énergie

Le projet "Bio-Hub", présenté par l'amidonnier Roquette Frères, vise à fabriquer des produits chimiques à partir de produits agricoles.

Proposé par Schneider Electric, le programme Homes prévoit de réduire de 20 % la consommation d'énergie des bâtiments à l'aide de systèmes automatiques pour l'éclairage, le chauffage, la ventilation, etc.

Le projet NeoVal, présenté par Siemens, vise à développer une nouvelle génération de métros automatiques, qui s'alimentent en énergie lors de leur seul passage en station.

"Quaero" est un programme franco-allemand de logiciels de recherche multimédia destiné à concurrencer Google. "TVMSL" est un système de télévision sur mobile diffusée par satellite, et "VHD" est un programme déjà mis au point par PSA de véhicule hybride diesel électrique, qui doit encore trouver des moyens de commercialisation abordable.

D'une durée de trois à sept ans, ces projets bénéficient chacun de budgets variant de 62 à 250 millions d'euros, co-financés par les entreprises et l'Agence d'innovation industrielle (AII). Ils seront menés en collaboration avec certains des 66 pôles de compétitivité déjà approuvés.

Ainsi, selon l'entourage du chef de l'Etat, "Bio-Hub" est doté d'un budget de 96 millions d'euros, dont 43 millions fournis par l'AII, la moitié en subventions et l'autre moitié en avances remboursables en cas de réussite du projet. Une trentaine d'autres projets seront examinés par l'Agence d'ici la fin de l'année, a précisé Jacques Chirac, citant notamment un projet franco-allemand d'imagerie de très haute précision, Iseult.

L'AII, présidée par le PDG de Saint-Gobain Jean-Louis Beffa, est pour sa part dotée d'une enveloppe de 1,7 milliard d'euros. Elle retient des projets lors de ses conseils de surveillance et signe alors un contrat avec un industriel, lui-même en liaison avec une série d'entreprises et notamment des PME, ainsi que des laboratoires publics et privés. Si ces projets échouent, les pertes financières sont partagées par cet industriel et l'Agence. S'ils réussissent, assure l'entourage de Jacques Chirac, ils peuvent induire au total "des dizaines de milliers d'emplois indirects".

Présidence de la République

AII

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top