|
|
Edito
Le pouvoir numérique a changé de nature
Un ours en peluche interactif doté d'une caméra pour permettre aux parents de surveiller à distance leurs enfants, ou d'autres personnes : c'est l'un des nombreux projets présentés au "TechFest", le salon annuel de la technologie de Microsoft. Il y a quelques jours, les équipes de recherche de Microsoft ont eu l'occasion de présenter à Redmond, dans l'Etat de Washington, 150 projets à des industriels, en espérant que certains d'entre eux se concrétisent sur le plan commercial. Le nounours interactif "Teddy" ressemble à beaucoup d'autres, mais son drôle de chapeau bicorne et ses yeux cachent quatre micros et une caméra, et il est doté d'une technologie de reconnaissance du visage et de la voix. Assis dans un coin, il peut tourner la tête pour suivre les déplacements d'un enfant dans une pièce, permettre à ses parents de lui parler grâce à un téléphone incorporé et le surveiller via sa caméra et une connexion à Internet. D'autres projets de robots présentés au salon ont pour but de créer un être virtuel qui pourrait se déplacer pour aller répondre au téléphone ou ouvrir la porte au plombier en l'absence du maître des lieux. De nombreuses entreprises produisent déjà des robots pour les entreprises, et les fabricants de jouets ont créé des peluches qui peuvent "mémoriser" des informations personnelles comme le nom d'un enfant. Mais Steven Bathiche, un responsable de la recherche de Microsoft, souligne que sa société veut aller plus loin. "L'objectif est d'être dans deux endroits à la fois", souligne-t-il. Une autre innovation remarquable concerne un logiciel destiné à surveiller l'état du trafic routier. Baptisé "SmartPhlow » ce logiciel utilise la technologie ZoneZoom et ne se contente pas de suivre l'évolution de la circulation : il utilise des données en temps réel et en archive pour prédire quand le prochain embouteillage pourrait avoir lieu. Le logiciel, compatible avec les téléphones les plus perfectionnés ou un ordinateur classique, prend en compte toutes sortes de données, de la météo aux accidents en passant par les manifestations sportives, pour établir ses prévisions. Raman Sarin, un ingénieur de Microsoft auteur du logiciel, affirme qu'au moins 2.000 employés de la société utilisent déjà un prototype du programme dans la région de Seattle. Microsoft envisage de travailler avec des partenaires pour le commercialiser aux Etats-Unis. Autre innovation qui semble tout droit sortie du film de science-fiction "Minority Report" le TouchLight. Il s'agit d'une interface tactile combinant deux caméras à un projecteur qui permet à l'utilisateur de déplacer, de manipuler et de réagencer à la main des éléments et images sur son écran d'ordinateur. Avec un tel système on peut imaginer des réunions de travail virtuelles, des visites virtuelles de bâtiments ou encore des essayages virtuels de vêtements (Video de démonstration TouchLight). Il reste que le premier « quinquennat » de Steve Ballmer à la tête de Microsoft laisse une impression mitigée. D'un côté, son chiffre d'affaires est passé d'un peu moins de 23 milliards de dollars en 2000 à 36,8 milliards en 2004, et ses réserves de liquidités ont plus que triplé sur cette période. Mais de l'autre, le cours de l'action s'est effondré en bourse, passant de 47,8 dollars en février 2000 à environ 26 dollars aujourd'hui. En outre, depuis l'investiture de Steve Ballmer, Microsoft a dû livrer d'incessantes et difficiles batailles juridiques. Notamment avec le Département de la Justice (DoJ) américain, qui envisageait de diviser l'entreprise par activité pour régler les questions antitrust encore en instance. Un juge avait même ordonné cette division. Mais la firme a finalement obtenu en appel l'annulation de cette décision, et obtenu un accord à l'amiable avec le DoJ. Ballmer est parvenu, non sans peine, à sortir Microsoft des principaux contentieux judiciaires. Il a également réussi à négocier des accords à l'amiable avec des rivaux comme Sun ou AOL ainsi qu'avec les consommateurs. En revanche la cohérence de la stratégie de Microsoft n'apparaît pas de manière évidente au cours de ces dernières années. À la fin des années 90, Microsoft a investi à perte des sommes considérables dans des acteurs des secteurs du câble et des télécoms. Par ailleurs, l'éditeur a appauvri ses propres ressources en développement dans un certain nombre de domaines, comme son service Internet MSN et toute une gamme de services web. Mais dans le même temps, la firme a continué à diversifier son portefeuille de technologies et à étendre son emprise sur le marché des technologies de l'information. Microsoft a notamment cherché à s'implanter dans de nouveaux domaines, tels que les logiciels d'entreprise et s'est affirmé comme un acteur majeur de l'industrie des loisirs avec sa console de jeux Xbox et les nombreux produits dans le domaine des nouveaux médias. Microsoft s'oriente également vers des marchés comme les logiciels de sécurité, avec le lancement au début du mois de son logiciel anti-spyware. Comme je l'expliquais dans mon éditorial de la lettre 322, Microsoft, après avoir longtemps essayé d'imposer ses logiciels pour créer et distribuer musique et vidéo, s'est finalement résolu à opérer un grand revirement stratégique en essayant de répondre aux nouvelles attentes des consommateurs qui souhaitent avant tout un accès facile et ouvert aux contenus numériques. Confronté à la montée en puissance continue de Linux et du navigateur Mozilla, Microsoft a compris que l'avenir se jouerait sur le terrain de la convergence et des loisirs numériques. La clef de voûte de cette stratégie est le logiciel Windows Media Center, qui permet au PC de se transformer en véritable plate-forme multimédia et de regarder sur son ordinateur des films, des photos ou d'écouter de la musique en utilisant une télécommande. L'autre axe stratégique de Microsoft est sa console de jeux Xbox qui a su s'imposer sur un marché extrêmement compétitif mais qui recèle d'immenses marges de progression avec l'arrivée dans les foyers de l'internet à très haut débit. Mais il est peu probable que Microsoft parvienne à imposer ses logiciels sur les mobiles 3 et 4G qui seront les principaux vecteurs de la nouvelle économie numérique dominée par la mobilité, la consommation de musique, de vidéos et de jeux en ligne et accès permanent à son environnement numérique personnel. Après que le pouvoir numérique ait été quasiment monopolisé pendant 40 ans par Intel et Microsoft, une nouvelle ère commence. Désormais la valeur ajoutée numérique, ne réside plus dans les ordinateurs (puces ou logiciels), ni même dans les réseaux physiques de télécommunications mais dans l'aptitude à produire, combiner et vendre des flux de contenus numériques attractifs et ubiquitaires, c'est-à-dire disponibles pour tous, partout et tout le temps. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Alcatel annonce qu'il fournit au centre de services médicaux « Montedomini et San Silvestro » une solution innovante de communications permettant la télé assistance médicale et le monitoring de patients âgés ou de personnes handicapées de l'agglomération de Florence en Italie. Depuis 1992, les opérateurs du centre de services assistent en moyenne 400 personnes par an en les contactant régulièrement par téléphone. La nouvelle solution permettra une meilleure interaction entre les patients et les opérateurs grâce à la vidéo téléphonie sur le réseau ADSL. Les familles et les spécialistes équipés d'un PC multimédia pourront également se joindre aux communications. Cette solution aura pour résultats une meilleure assistance, ainsi qu'une réduction des coûts d'intervention à domicile et d'hospitalisation. Jusqu'à 2500 patients pourront ainsi être pris en charge. Alcatel est responsable de la fourniture du centre de vidéo téléphonie, de l'installation et de l'intégration des équipements d'abonnés, de la mise en service, des tests de réception et de la gestion du projet. Cette solution comprend l'installation chez le patient d'un boîtier de réception (set top box). Connecté à un récepteur TV et à une webcam, le boîtier permet l'établissement de communications par vidéo téléphonie par le patient. Ce boîtier sera raccordé aux appareillages médicaux de monitoring des paramètres vitaux - rythme cardiaque, respiration, température corporelle. Des capteurs seront utilisés pour détecter des conditions inhabituelles ou critiques de l'environnement domestique. Le boîtier collectera ainsi différents signaux qui seront transmis par ADSL au centre d'appels où les opérateurs pourront assister les patients. La solution comprend également le centre de vidéo téléphonie de Genesys, filiale d'Alcatel, qui associe les fonctions classiques d'un centre d'appels à la gestion des communications par vidéo téléphonie. En cas d'urgence, les patients pourront appeler le centre d'appels et fournir les informations utiles à l'évaluation de leur état - une possibilité qui n'existait pas auparavant. « Cette solution offre d'énormes avantages pour les personnes âgées ou invalides en leur facilitant la vie de tous les jours tout en préservant des liens sociaux qui évitent leur isolement », déclare Fabio Focardi, directeur du centre de services médicaux Montedomini et San Silvestro. « Les patients se sentiront plus à l'aise et en plus grande sécurité car ils recevront l'aide dont ils ont besoin sans sortir de chez eux. Nous sommes très heureux de pouvoir offrir ce service à nos concitoyens. » « Ce projet montre comment les technologies du haut débit peuvent être mises en oeuvre pour améliorer la qualité de vie des personnes au quotidien », ajoute Frédéric Rose, Président des activités intégration et services d'Alcatel. « Cette solution innovante illustre également notre capacité à servir les besoins du secteur de la santé s'agissant de services critiques d'assistance. » Edubourse
|
|
|
|
|
Le WiMAX, technologie radio qui doit permettre de délivrer du haut-débit dans les zones enclavées et privées d'ADSL, va être testé dans le département du Tarn. C'est la société d'économie mixte e-tera, opérateur de télécommunications, créé en mai 2000 par les conseils généraux du Tarn, du Gers et du Tarn-et-Garonne (déjà gestionnaire d'un réseau de fibre optique ouvert aux opérateurs de services, comme Free ou neuf telecom) qui effectuera les tests. L'expérimentation débutera en avril prochain, pour une durée de six mois. La station de base WiMAX, déployée sur un point haut de la commune de Gaillac, sera reliée par liaison sans fil au réseau de fibre optique d'e-tera. Pour l'opérateur de réseaux, « cette démarche revêt un double objectif : d'une part, procéder à une validation technologique du WiMAX en zones rurales et, d'autre part, rechercher un modèle économique possible pour la desserte en haut-débit de ces territoires. » OINet
|
|
|
|
|
|
|
|
L'ART a rendu public le 8 mars 2005 un rapport qui intéressera les collectivités souhaitant devenir des opérateurs WiMAX. Cette technologie d'accès sans fil à l'Internet haut débit, permet d'atteindre, théoriquement, des débits de 70 mégabits par seconde dans un rayon de 50 Km (en pratique plutôt 25 Mbits dans un rayon de 20 Km). Le WiMAX est donc considéré par les pouvoirs publics et par les industriels comme une alternative sérieuse et économiquement viable à l'Internet filaire (DSL). Il peut également compléter d'autres solutions d'accès sans fil et notamment le WiFi et l'UMTS (technologie de la 3G). Le rapport juridique réalisé pour l'Autorité de régulation des télécommunications (www.art-telecom.fr) par Daniel LABETOULLE, ex-président de la section contentieux du Conseil d'Etat, indique que les collectivités doivent pouvoir disposer d'autorisations d'utilisation de fréquences (BLR dans la bande 3,4-3,8 GHz). Par ailleurs, le rapport souligne que c'est à l'ART de définir la zone géographique liée à une autorisation de fréquences. Quant à la sélection (enchères ou autres modes) entre candidatures concurrentes, elle "impose une pluralité de critères". Les conclusions de ce rapport juridique sont donc plutôt positives pour les collectivités locales. Elles doivent désormais être prises en compte par le régulateur pour les futures attributions des licences WiMAX. L'ART indique souhaiter coopérer avec l'ensemble des acteurs du secteur pour que progresse le dossier. A l'heure actuelle en France, seul l'opérateur Altitude Telecom dispose d'une licence WiMAX sur l'ensemble du territoire métropolitain mais cette situation de monopole ne devrait pas perdurer très longtemps. ART
|
|
|
|
|
|
|
|
Les internautes avides de téléchargement peuvent se réjouir. Après l'ADSL, Swisscom va équiper son réseau avec la technologie "Very High-Speed Digital Subscriber Line" (VDSL). Elle offrira des débits 5 fois supérieurs à ceux disponibles à ce jour. Les premiers tests avec le VDSL se dérouleront cet été, a déclaré à Zurich Adrian Bult, le patron de Swisscom Fixnet. L'équipement du réseau s'effectuera dans le même temps. Et la filiale de l'opérateur de télécommunications en charge du réseau fixe entend desservir la moitié de la population suisse en 2007. Reste que pour l'instant le géant bleu ignore combien de rues devront être équipées et à quel endroit débuteront les travaux. Autre inconnue : le coût de l'opération, que M. Bult n'a pas souhaité dévoiler. Seule révélation : Swisscom investit chaque année un demi-milliard de francs dans son réseau fixe. Un montant qui de l'avis de M. Bult ne devrait pas "changer de manière significative". Afin de pouvoir bénéficier de la technologie VDSL, le réseau doit disposer de liaisons en fibres optiques jusqu'aux centraux locaux ou même jusqu'au dernier branchement de câbles avant les immeubles dans la rue. A ces endroits, Swisscom branchera un modem VDSL vers la ligne téléphonique conduisant au domicile des clients. Ceux-ci devront aussi se doter d'un modem VDSL reliant leur ordinateur à la prise du téléphone afin de surfer à haute vitesse sur le réseau des réseaux. Les débits dépendent fortement de la longueur de la ligne entre le central téléphonique ou le point d'accès local et le domicile des clients. Si la distance est équivalente à 1,4 kilomètre, les taux de transfert atteignent 13 megabits par seconde (Mbit/s). A 300 mètres ces derniers bondissent à plus de 50 Mbit/. Le Temps
|
|
|
|
|
|
|
|
Quelque 40 % des services de base fournis par les administrations publiques sont entièrement accessibles en ligne dans l'Union européenne, indique une étude publiée mardi par la Commission européenne. Dans les seuls quinze "anciens" membres de l'UE, le pourcentage atteint 46 %, contre 20 % en 2001, selon cette étude réalisée par le cabinet de conseil Capgemini pour l'exécutif européen. Le pays le plus avancé en la matière est la Suède, avec un taux de 74 %, suivi de près par l'Autriche (72 %). La France arrive en dixième position avec un pourcentage de 50 %. A l'exception de l'Estonie, les dix nouveaux pays membres se retrouvent plutôt en bas de tableau. Mais, se félicite la Commission dans un communiqué, ils "se situent dans la situation qui était celle des Etats membres de l'UE-15 il y a seulement deux ans". Toutefois, d'une façon générale, "il y a de la marge en Europe pour atteindre un haut niveau de services publiques réellement" interactifs, conclut l'étude. Une évolution encouragée par la Commission, pour qui l'utilisation la plus large possible de ces services en ligne "stimulera l'efficacité et partant, la productivité et la compétitivité de toute l'économie". Parmi les services en ligne les plus "sophistiqués", c'est à dire qui peuvent être traités entièrement sur internet, se retrouvent ceux liés à l'impôt sur le revenu, à l'impôt sur les sociétés, à la taxe sur la valeur ajoutée (TVA) ou encore aux déclarations douanières, selon l'étude. En revanche, les services portant sur des obligations administratives des citoyens comme les procédures d'immatriculation de voiture ou les demandes de permis de construire sont généralement beaucoup moins performants en ligne. CE
|
|
|
|
|
|
|
|
La société FamilyMail Inc. vient d'annoncer la sortie de la dernière édition de son logiciel de gestion des courriels « FamilyMail V.8.2 Christmas Edition » qui permet aux utilisateurs d'ordinateurs les plus inexpérimentés de gérer de manière très simple leurs courriels. Et de préciser que « sans requérir de formation préalable et sans souris, les utilisateurs seniors peuvent recevoir les courriels de leurs enfants et petits-enfants et afficher les photos attachées comme dans un diaporama. » L'interface ergonomique, permet aux débutants de se familiariser immédiatement avec le monde de l'informatique. La complexité des ordinateurs empêche de nombreux seniors de vouloir apprendre à utiliser un ordinateur, précise la société dans son communiqué de presse. Ce logiciel souhaite « combler la fracture numérique » et permettre aux personnes âgées de « rester en contact avec les jeunes générations ». La convivialité de ce logiciel e-mail a été obtenue grâce à des recherches et des études menées auprès de seniors, en prenant en compte des facteurs aussi divers que leur perception de l'ordinateur, les problèmes sensori-moteurs, ou leur compréhension du langage technique. Le design de FamilyMail a par ailleurs remporté la Médaille d'Or du Label Européen d'Excellence, à l'ouverture du CeBIT 2004. La version 8.2 contient désormais un filtre anti-spam, qui permet de s'assurer du contenu des courriels et de supprimer automatiquement les courriels non sollicités. Son architecture propriétaire lui permet également d'échapper à la plupart des virus qui sévissent sur les logiciels traditionnels, précise le fabricant. Ce logiciel est prévu pour être installé et configuré par les membres de la famille ou les amis possédant des compétences informatiques de base. Le programme fonctionne facilement sur les toutes les machines, même les plus anciennes. Dès son installation, l'ordinateur lance le programme automatiquement et « contourne » le panneau Windows qui permet normalement de rentrer le mot de passe et le nom d'utilisateur, et se branche simplement sur l'Internet afin de télécharger les courriels. SA
|
|
|
|
|
|
|
|
Les opérateurs mobiles Orange et Bouygues Telecom ont annoncé, lundi 7 mars, leur intention de tester la diffusion de la télévision hertzienne sur des téléphones mobiles à tuner intégré. Avec, pour les contenus, TF1 et TPS (détenu par TF1 et M6). Intention car, malgré une annonce publique, tout reste encore à faire. Et avant tout l"attribution d'une fréquence par le Conseil supérieur de l'audiovisuel (CSA). TPS, Orange et Bouygues Telecom doivent en effet présenter leur dossier au CSA afin d'obtenir l'autorisation d'émettre, à titre expérimental et sur Paris. Cette première phase vise un minimum de 200 clients à partir du mois de juin et pendant six mois. Au programme : chaînes d'informations, de sport, d'émissions jeunesse, de musique, de jeux, sélectionnées au sein du bouquet TPS. Début janvier, SFR a déposé une demande au CSA pour une initiative concurrente avec Canal+ qui doit démarrer au deuxième trimestre 2005. Dans un cas comme dans l'autre, l'idée est d'utiliser la norme DVB-H, un dérivé de celle de la télévision numérique terrestre, pour ne plus encombrer les réseaux mobiles. Cette norme permet à un point d'émission unique de desservir quantité de récepteurs, contrairement aux réseaux « point à point » des opérateurs. Lesquels, du coup, ne peuvent diffuser de la télévision en direct et privilégient les modèles « à la demande ». Avec l'UMTS ou la norme EDGE "dès que nous allons monter en pression, nous allons être limités par les capacités spectrales", a-t-il ajouté pour expliquer l'intérêt de la norme DVB-H. M. Lombard, nouveau PDG de France Télécom, a indiqué que Orange, filiale de téléphonie mobile de France Télécom, "frise" les 50.000 abonnés à l'UMTS. Les initiateurs des deux projets considèrent qu'une offre de télévision mobile avec la norme DVB-H serait complémentaire avec les offres de technologies mobiles avec l'UMTS. TSR.Ch
|
|
|
|
|
|
|
|
Après trois années de purgatoire, l'industrie des télécommunications et de l'informatique se retrouvera du 10 au 16 mars au salon CeBIT, avec l'espoir de retrouver son glorieux passé. Pendant une semaine, les exposants d'une industrie évaluée à 2.000 milliards de dollars battront le pavé des 27 hangars de l'ancien aérodrome de Hanovre, dans le nord de l'Allemagne, pour y présenter leurs derniers gadgets et services à plus de 510.000 visiteurs. Les ventes de téléphones mobiles ont grimpé de 30 % l'année dernière et celle des équipements informatiques de 15 %, grâce à la baisse conjuguée des prix et l'arrivée de nouvelles fonctionnalités comme l'accès internet sans fil, des tuners radio et des appareils photo numériques. "Il y a tout juste deux ans, Intel avait profité du CeBIT pour lancer Centrino, sa plate-forme mobile sans fil, et maintenant on ne peut plus acheter un ordinateur portable sans le WiFi", s'enthousiasme Magnus McEwen-King, à la tête de Broadreach, une société qui fournit des relais WiFi pour se connecter sans fil à internet dans les lieux publics. Les produits et services exposés lors de cette manifestation ne feront véritablement leur apparition sur le marché que dans quelques années. L'Institut allemand Fraunhofer va présenter par exemple un moniteur, doté d'un angle de vue de 60 degrés, permettant de regarder des images en trois dimensions sans l'aide de lunettes spéciales, ainsi que la possibilité de manipuler des objets grâce à des capteurs biotechnologiques. Les principaux constructeurs électroniques, comme Samsung et Sharp, dévoileront des téléviseurs plats de plus grande taille et de meilleure qualité. D'autres présenteront même des écrans pliables. Avec l'arrivée en masse des cartes tuner TV et autres boîtiers multimédia capables de diffuser par exemple sur la chaîne hi-hi la musique stockée dans le PC, il sera de plus en plus difficile de faire la distinction entre un téléviseur et un ordinateur. La ligne de démarcation entre les télécommunications et l'internet devient également de plus en floue, à mesure que des dizaines de sociétés lancent des produits qui permettent de passer des appels gratuitement via le net en utilisant la technologie VoIP. Siemens, Motorola, Good Way Technologies et Greatwall Infotech dévoileront ainsi des combinés fixes et mobiles conçus en partenariat avec Skype, l'un des principaux acteurs de la téléphonie sur internet. Les cinq premiers fabricants de téléphones mobiles tenteront de se démarquer des petits constructeurs en lançant des combinés difficilement imitables. Sony Ericsson présentera par exemple son premier téléphone mobile conçu autour d'un Walkman. Les derniers modèles de Nokia, de Samsung et de Motorola sont également attendus. Mais le clou du spectacle se fera autour des produits destinés à améliorer la navigation et le déplacement dans l'espace (GPS), des nouvelles piles à combustibles de Toshiba qui remplaceront les batteries traditionnelles jugées trop polluantes ou encore de la reconnaissance faciale qui se substituera aux mots de passe classiques. Reuters
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'installation du plus grand accélérateur de particules du monde, le LHC (Large Hadron Collider), a commencé lundi à la frontière franco-suisse avec l'introduction d'un gigantesque électro-aimant supraconducteur dans le tunnel circulaire accueillant cette nouvelle machine qui devra aider à comprendre la formation de l'univers, a annoncé le Laboratoire européen pour la physique des particules (CERN). La construction de cette cathédrale de béton armé, située à 90 mètres sous terre, mesurant 53 mètres de long, 24 de haut et 27 de large a débuté le 1er septembre 1998. Cent vingt ouvriers y ont travaillé à raison de six jours par semaine en rotations de trois fois huit. Ils ont excavé quelque 250 000 mètres cubes de déblais, évacués par 35 000 camions bennes ! Quant aux armatures en acier qui étayent le béton (3 500 000 kilos), leur poids correspond environ à celui de la Tour Eiffel... Cet aimant géant de 35 tonnes et de 15 mètres de long est le premier à trouver sa place dans ce tunnel de 27 kilomètres de circonférence enfoui à 100 mètres sous terre à la frontière franco-suisse, à l'ouest de Genève. Au total, 1.232 aimants de même taille seront mis en place pour accélérer les protons à une vitesse proche de celle de la lumière (300.000 km/seconde), a précisé Renilde Vanden Broeck, porte-parole du CERN. Le LHC produira ainsi des collisions de protons à une énergie de 14 TeV (14.000 milliards d'électron volts), soit une puissance supérieure à celle du LEP (Large Electron-Positron Collider), accélérateur de particules démantelé en 2000 par le CERN, qu'il est aujourd'hui appelé à remplacer. Nous sommes comme des enfants devant le sapin de Noël, imageait quant à lui Michel della Negra, physicien responsable de l'ensemble du détecteur de particules «CMS». Sauf que notre cadeau, c'est Mère Nature qui nous l'offrira. Avec le LHC, nous allons ouvrir une fenêtre qui n'a encore jamais été ouverte jusqu'ici, sauf probablement lors de la création de l'univers à ses tout débuts. Nous espérons ainsi faire des découvertes qui permettront peut-être d'unifier les trois forces fondamentales qui régissent notre monde. LHC
|
|
|
|
|
|
|
|
Plus performants sans être beaucoup plus gourmands en énergie... la société Intel a levé un coin du voile sur ses futurs microprocesseurs dits "multicoeurs", qui comprendront deux "moteurs" ou plus sur une même puce. Le No1 mondial du microprocesseur prévoit d'étendre cette technologie à l'ensemble de ses produits, des circuits intégrés des ordinateurs portables à ceux des serveurs. Au total, Intel compte 15 programmes en cours pour développer des puces à deux coeurs (dual-core) ou avec de multiples coeurs (multicore). La firme prévoit de commercialiser des processeurs dual-core pour PC au deuxième trimestre, qui seront disponibles dans deux versions, haut de gamme et courants. Elle devrait également lancer des dual et multi-core pour serveurs et ordinateurs portables en fin d'année et en 2006. La puce haut de gamme pour PC, baptisée "Intel Pentium Processor Extreme Edition", fonctionne à une vitesse de 3,2 gigahertz, plus lente que les 3,8 GHz affichés par le meilleur Pentium 4 actuel. Pourtant, lors d'une démonstration, elle a accompli une tâche en deux fois moins de temps que ce processeur à un seul coeur. Stephen Smith, vice-président de Digital Enterprise Group, filiale d'Intel, souligne que le gain de performances des nouvelles puces dépendra du travail demandé. Les multicoeurs sont les plus efficaces lorsque le logiciel est conçu pour distribuer les tâches sur leurs différents centres nerveux. La nouvelle technologie devrait également améliorer les performances lorsque des programmes multiples fonctionnent en même temps, ajoute M. Smith. En outre, les puces Extreme Edition utiliseront une technologie qui double pratiquement le volume de travail qui peut être géré par chacun des deux coeurs. Pour cette raison, le système fonctionnera comme s'il y avait quatre coeurs au lieu de deux. Intel n'est pas seule à se lancer dans les multicoeurs. Son rival Advanced Micro Devices (AMD) prévoit également de commercialiser des puces dual-core cette année. Par ailleurs, IBM, Toshiba et Sony ont entamé conjointement le développement d'un processeur multicoeur basé sur une architecture complètement nouvelle, qui devrait notamment équiper la prochaine génération de consoles de jeux PlayStation de Sony. Les industriels du secteur se tournent vers le "multicore" alors que le nombre de transistors sur les puces ne cesse d'augmenter, confirmant ainsi une célèbre prédiction faite en 1965 par le cofondateur d'Intel, Gordon Moore. Mais alors que la progression des vitesses d'horloge aboutit à une plus grande consommation d'énergie, elle ne se traduit pas par une nette amélioration des performances, ce qui menace la croissance historique des capacités de l'informatique. Les multicoeurs devraient être le moyen de continuer à "augmenter la puissance de traitement de manière exponentielle avec le temps", estime le PDG d'Intel, Craig Barrett. AP
|
|
|
|
|
|
|
|
Cela semble difficilement réalisable : définir des guides d'onde magnétique sur des puces de silicium afin d'acheminer des masses d'atomes superfroids dans des cavités, où leurs fonctions d'onde peuvent interférer les unes avec les autres. Le résultat ? C'est dans les circuits que les atomes traitent l'information. Irréalisable ou non, la technique est en train d'être perfectionnée par une demi-douzaine de laboratoires de recherche dans le monde dans le but de construire un analogue atomique pour des dispositifs optoélectroniques à laser. Les scientifiques sont déjà en train de réaliser des expériences utiles sur ces puces et indiquent que des versions commercialisables pourraient apparaître dans seulement quelques années. En effet, les partisans prévoient que la technologie devrait non seulement être applicable mais pourrait représenter un progrès aussi fondamental que celui du laser. L'intérêt de la fabrication de processeurs dotés d'un condensat Bose-Einstein (BEC) sur une seule puce, qui utilise les atomes froids à la place des électrons pour traiter les informations, réside dans les avantages uniques que les atomes apportent à la science avancée du rayonnement cohérent. Les BEC présentent la propriété qui rend la lumière laser si utile : la cohérence. Dans un groupe d'atomes proches du zéro absolu, tous ont la même fonction d'onde et, par conséquent, tous représentent une grande superparticule. Le développement est sur le point de créer quelques composants de base tels que les interféromètres. Cependant, il existe au moins un chercheur, Dana Anderson de l'Université du Colorado, qui pense que la pénétration par effet tunnel de l'atome devrait bientôt être démontrée. A l'instar de la pénétration par effet tunnel de l'électron, propriété clé des électrons qui fait fonctionner les dispositifs à semi-conducteurs, la pénétration par effet tunnel de l'atome pourrait effectuer le même travail que les puces BEC, rendant ainsi possible la fabrication d'analogues de transistors et d'autres dispositifs. Si la discipline naissante que l'Agence des projets de recherche avancée de défense appelle « l'atometronique » parvient à être appliquée, à quelles applications pourraient être destinées les puces atomiques ? Dans la catégorie d'applications à court terme, Mme Anderson a cité la détection d'inertie, les phénomènes optiques non linéaires et à lumière lente et le calcul quantique. A long terme, elle suppose que la technologie devrait s'éloigner des laboratoires de physique pour intégrer l'électronique standard. Une seule puce avec sa propre source d'atomes cohérents devrait permettre de réaliser des versions atomiques de composants conventionnels tels qu'un amplificateur à micro-ondes d'un son très faible. EET
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Dans notre univers, la matière ordinaire ou baryonique, ne représente que 5 % du total. Et encore la matière visible qui donne sa substance à nos corps ou aux étoiles ne ressemble-t-elle qu'à une mince pellicule de givre à la surface de l'ensemble : 0,5 %. Les 95 % restant participent à l'énorme masse "manquante", qui échappe à notre regard. Les certitudes sont rares et les hypothèses nombreuses pour tenter de résoudre cette énigme cruciale pour la compréhension de l'évolution cosmique. Pourquoi les astronomes sont-ils certains que celle-ci ne représente qu'un vingtième de la totalité de la masse critique de l'Univers ? Tout simplement parce que la théorie du Big Bang, ce modèle standard cosmologique qu'aucune observation n'a démenti jusqu'ici, a fixé très précisément la quantité de matière qui a participé aux fusions nucléaires des premières minutes de l'Univers, à l'origine des tout premiers éléments chimiques. Ceux-ci se sont ensuite combinés dans les fonderies surchauffées des étoiles pour donner les éléments lourds qui nous composent aujourd'hui. Mais ils n'ont jamais été assez nombreux pour aller au-delà des 5 %. La matière noire, composée d'éléments invisibles, sans rayonnement, électriquement neutres et qui n'interagissent pratiquement pas avec la matière ordinaire, fournirait 25 % de la masse critique de l'Univers. Principalement répartie en halos autour des parties visibles des galaxies, c'est elle qui leur fournit le supplément de force d'attraction nécessaire pour garder les étoiles en leur sein. Mais pour l'instant un seul des composants de cette matière noire a eu l'obligeance, en 1956, de se signaler aux physiciens des particules. Ce sont les neutrinos, d'une masse infime et d'une vitesse extrême, dégageant de la chaleur. Ils composent la "matière noire chaude" qui n'a qu'un seul défaut : celui de ne contribuer que très marginalement à la totalité de la masse de l'Univers, aux alentours de 0,3 %. En plus grande quantité, l'hyperactivité des neutrinos aurait dilué les ferments des galaxies et empêché la formation d'un Univers tel que celui que nous connaissons. Les astronomes ont donc postulé l'existence d'une "matière noire froide", composée d'éléments plus massifs et moins actifs, davantage conforme aux modèles théoriques mais souffrant aussi d'un handicap majeur : personne n'a pu, jusqu'ici, en démontrer l'existence. Le principal élément candidat pour fournir les plus gros bataillons de matière noire froide est le neutralino. Plusieurs expériences, telles que celle, franco-allemande, menée sous plusieurs centaines de mètres de rochers, dans les Alpes, le traquent actuellement. La confirmation matérielle de son existence aurait des répercussions immenses sur la cosmologie moderne, mais toutefois bien insuffisantes pour lever la totalité du mystère de la masse manquante. Les deux tiers de la masse totale de l'univers serait en effet constituée de cette mystèrieuse énergie noire dont on ne sait pas grand choses. Non seulement elle apporterait 70 % de la masse cosmique, mais, en plus, elle fournirait une réponse satisfaisante à cette découverte déduite, en 1998, de l'éloignement inattendu de certaines supernovae et qui n'en finit pas d'estomaquer les astronomes : l'expansion de l'Univers est en train d'accélérer. Une force qui repousse au lieu d'attirer serait en train de prendre le dessus sur la gravité. Cette force, Albert Einstein en avait eu l'intuition, dès 1917, lorsqu'il l'avait glissée dans sa théorie de la relativité générale pour contrebalancer l'attraction gravitationnelle de la matière et garantir un Univers stable. Il l'avait baptisée "constante cosmologique", puisqu'elle s'exerçait en tout point avec la même puissance. Mais il y avait renoncé quelques années plus tard, la considérant inutile à partir du moment où l'expansion de l'Univers avait été démontrée. Avec l'énergie noire, la "constante cosmologique" est donc de retour. Mais sous quelle forme réelle peut se traduire un tel principe théorique ? Certains ont pensé qu'il s'agissait de l'"énergie du vide", due aux fluctuations des champs quantiques du vide. Mais cette théorie souffre de plusieurs graves défauts : la physique quantique, dont elle est issue, n'est pas compatible avec la gravitation. Surtout, mise en équation, l'énergie du vide est d'un tel ordre de grandeur qu'elle pulvériserait l'Univers instantanément. D'autres physiciens ont donc pensé que l'énergie noire ne pouvait être constante, qu'il fallait lui donner corps en inventant une force d'une nature nouvelle, la "quintessence", variable dans le temps. En l'état actuel des recherches, le débat fait rage pour trouver ces fameux 70 % de la masse critique, puisque aucune théorie n'a réussi à s'imposer aux autres. Le Monde
|
|
|
|
|
|
|
|
C'est l'une des plus grosses structures massives détectées dans l'Univers. Un amas de galaxies renfermant des milliers de galaxies. Et cette découverte apporte la preuve que la structure des étoiles, des galaxies et des amas s'est formée rapidement après le big bang, bien plus tôt que ne le pensaient les scientifiques jusqu'à présent. La découverte a été faite par l'Observatoire XMM-Newton de l'ESA et le télescope VLT de l'ESO, l'Obervatoire austral européen, au Chili. Ces travaux ont été présentés lors d'une rencontre scientifique à Hawaï par un scientifique américain, Christopher Mullis. "Nous sommes très surpris de voir que cette magnifique structure a pu exister à des temps si reculés", a déclaré le chercheur, dont les travaux doivent être publiés par le Journal d'Astrophysique. "Nous sommes en présence d'un réseau complet d'étoiles et de galaxies qui est en place juste quelques milliards d'années après le big bang, comme un royaume qui émergerait du jour au lendemain". Cet amas aurait au moins 11 milliards d'années, alors que l'univers lui-même a environ 14 milliards d'années. Bien qu'il appartienne à un univers très jeune, cet amas présente les caractères de la maturité, qu'il s'agisse de la couleur rouge de ses galaxies de type elliptique, des étoiles anciennes qu'elles contiennent ou de la forme sphérique de l'amas. Il ressemble à des amas beaucoup plus récents. Les astrophysiciens ne s'attendaient pas à trouver ce type d'objet dans un univers aussi lointain. L'amas de galaxies se trouve à environ 9 milliards d'années lumière de la Terre, soit un demi-milliard d'années lumière plus loin que l'observation la plus lointaine réalisée jusqu'alors. Ce qui veut dire que l'amas était "mûr" lorsque l'Univers n'avait que 5 milliards d'années, et que les étoiles et galaxies se sont formées et assemblées en amas en seulement quelques milliards d'années. "Sachant que l'Univers a, environ, 13,7 milliards d'années, nous avons sous-estimé à quel point le jeune Univers a mûri rapidement pour atteindre son état actuel", a commenté Piero Rosati, co-auteur de la recherche, s'exprimant à Garching (Allemagne) au siège de l'ESO. Les astronomes vont à présent essayer de découvrir d'autres amas aussi anciens. AJ
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Pour la première fois un vaccin thérapeutique a permis d'augmenter de 18 % la survie chez des malades souffrant d'un cancer avancé de la prostate ne répondant plus au traitement hormonal. Ce vaccin thérapeutique de cancer, appelé APC8015 est susceptible de devenir le nouveau traitement standard pour les patients atteints d'un cancer métastasé de la prostate. L'étude américaine est la première à démontrer un avantage en terme de survie pour une thérapie immunologique appliquée au cancer avancé de la prostate. L'étude va être présentée à Orlando, en Floride, à l'occasion d'un colloque sur le cancer de la prostate organisé par la société américaine d'oncologie clinique. Ce vaccin thérapeutique APC8015 est conçu pour stimuler le système immunitaire qui va ainsi attaquer sélectivement les cellules exprimant une protéine PAP, protéine présente dans 95% des cellules du cancer de prostate. Cette étude en double aveugle a été réalisée sur 127 hommes souffrant d'un cancer métastasé de la prostate ne répondant plus à la thérapie hormonale. Les patients ont reçu trois doses du vaccin à intervalles de deux semaines, et ont été suivis pendant trois ans. La survie globale des patients recevant le vaccin a été de 25.9 mois, comparés à 22 mois dans le groupe placebo. Trois ans après, les patients vaccinés encore en vie étaient trois fois plus nombreux (34 %) que ceux du groupe placebo (11 %). Le traitement a été bien toléré avec peu d'effets secondaires. De nombreux vaccins thérapeutiques sont actuellement en phase d'expérimentation sur l'animal et sur l'homme, pour lutter contre plusieurs types de cancer : lymphome, leucémie, cancers du cerveau, du sein, du poumon, du rein, de l'ovaire, du pancréas, des testicules et du rectum. En 2004, 26.000 américains sont morts du cancer de la prostate. Ce cancer est le plus souvent diagnostiqué dans le monde entier. Sur les 185.000 américains atteints chaque année par le cancer de la prostate, un tiers environ présentent ou développent un cancer métastasé, d'où l'espoir soulevé par cette nouvelle thérapie immunologique. Article @RTFlash SD
|
|
|
|
|
|
|
|
Les biologistes se lancent dans la réalisation d'un catalogue génétique de toutes les espèces de la terre ! La première conférence internationale sur le «code-barres de la vie» (DNA-barcode) s'est tenue au Muséum d'histoire naturelle de Londres début février. Ce projet devrait permettre une identification rapide des espèces en mettant à disposition une base de données géante. Cette base sera réalisée à partir du même gène pour toutes les espèces animales. Le programme a été créé par un consortium international de muséums. Une association caritative américaine, l'Alfred P. Sloan Foundation de New York, le sponsorise à la hauteur de 670 000 dollars. Cet argent est destiné à l'identification et au regroupement d'information sur les espèces vivantes dans le cadre de projets impliqués dans la génomique environnementale, la biomédecine et la protection des espèces menacées. En réalité, cet argent permet tout juste la coordination du projet par un secrétariat et l'organisation de réunions. Le financement des recherches est laissé aux fonds habituels de chaque pays. La viabilité du projet repose sur le choix du gène. La séquence du gène idéal ne doit pas varier au niveau intraspécifique et doit être suffisamment différente d'une espèce à l'autre pour toutes les discriminer. A l'heure actuelle aucun gène universel présentant ces caractéristiques n'a été trouvé. Pourtant travailler sur un seul gène présente de nombreux avantages. Tout d'abord, les outils permettant de le localiser et de l'extraire seront préparés à grande échelle et à moindre coût. De plus, les séquences pourront être facilement alignées et donc comparées entre les différentes espèces. Ces informations apporteront des éléments sur l'étude de l'évolution. Le gène choisi pour caractériser les animaux est un gène mitochondrial avec une séquence d'ADN (acide désoxyribonucléique) courte. Malheureusement les exceptions sont nombreuses. Le taux de mutations de ce gène est trop variable chez les hyménoptères et pas assez chez les coraux et les plantes. Dans le futur, une base de données pour les plantes sera créée à partir d'un autre gène. Les spécimens utilisés pour constituer cette librairie proviendront essentiellement des trois plus grands muséums du monde, ceux de Washington, Londres et Paris. Avec approximativement 1,7 million d'espèces nommées et entre 10 à 15 millions restant à décrire, c'est un vrai travail de fourmis qui s'annonce. Toutes les espèces non référencées pourront être intégrées rapidement puis décrites, à l'ancienne, par les taxonomistes, le premier point d'entrée d'une espèce dans la biologie. Certes il existe déjà des séquences disponibles sur Internet pour certaines espèces mais beaucoup de noms d'espèces associés s'avèrent faux. Voilà pourquoi les taxonomistes seront chargés de créer cette base de données et devront à la fois déterminer les espèces et faire les extractions d'ADN. Figaro
|
|
|
|
|
|
|
|
Une équipe américaine soutient qu'elle est parvenue à réactiver entièrement, de l'oeil au cerveau, les nerfs optiques endommagés de souris. Les chercheurs américains de l'institut Schepens de recherche sur les yeux, affilié à l'école de médecine de l'université Harvard, estiment que leur réalisation offre de l'espoir aux gens qui souffrent de glaucome, une maladie dont l'un des effets est l'augmentation de la pression sur les nerfs optiques, qui finissent par se briser. Ce groupe de chercheurs avait déjà découvert que l'incapacité du nerf optique à se régénérer était liée au fait que le gène BCL-2 était désactivé. Ils pensent aussi que le processus de régénération peut être bloqué, peu de temps après la naissance, par la création d'une cicatrice qui apparaît sur le cerveau et qui contribue à la spécialisation des cellules. Ainsi, les scientifiques ont créé des souris sur lesquelles le gène BCL-2 était toujours actif. Ils ont rapidement observé que les animaux pouvaient régénérer les tissus des nerfs optiques, mais seulement lorsqu'ils étaient jeunes, avant que leurs cerveaux ne développent la cicatrice. Dès que cette dernière est formée, la régénération devient à nouveau impossible. Les chercheurs ont donc créé des souris dont le gène BCL-2 est actif, mais aussi dont l'habilité à produire la cicatrice est réduite. C'est ainsi qu'ils ont pu observer une régénération des nerfs optiques. Comme le souligne le Dr Dong Feng Chen, qui dirige ces recherches, " nous avons franchi une étape importante qui montre qu'il est possible de régénérer et de restaurer la fonctionnalité du nerf optique même quand celui-ci est endommagé d'une façon qui était jusqu'à présent considérée comme irreversible." La prochaine étape consiste à déterminer si les nerfs régénérés sont fonctionnels. L'équipe pense que la technique gène BCL-2/cicatrice peut aussi fonctionner pour régénérer d'autres tissus du système nerveux central. BBC
|
|
|
|
|
|
|
|
Faire du sport réduirait de 50 % le risque de maladie de Parkinson. Des chercheurs américains viennent en effet de démontrer le rôle central de l'activité physique dans la prévention de la maladie... mais chez les hommes, uniquement ! "Chez les femmes, cette relation n'a pas été statistiquement signifiante", assure en effet le Pr Alberto Ascherio, de la Harvard School of Public Health de Boston. Pour arriver à ce résultat, il a suivi avec son équipe, 125 000 femmes et hommes de plus de 50 ans. Pendant 14 ans, les chercheurs ont observé leur style de vie, et la place du sport dans leur quotidien. Conclusion, un homme qui fait de l'exercice régulièrement - et depuis son adolescence - diviserait par deux son risque de développer la maladie. Mais une femme, non. A ce jour, les auteurs ne connaissent toujours pas la raison de cet état de choses. Un point leur paraît cependant irréfutable : l'activité physique protège les cellules cérébrales, particulièrement celles qui produisent la dopamine. Or ce sont là justement, les cellules détruites par la maladie. D'après le Pr Ascherio, "cette découverte est vraiment prometteuse. Car elle suggère que le sport pratiqué de façon régulière peut contribuer à prévenir la maladie de Parkinson. Même si bien sûr, des études complémentaires sont indispensables pour comprendre le mécanisme qui aboutit à ce résultat." En attendant, chaussez vos baskets ! Neurology
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
La SNCF va doter ses agents d'assistants personnels connectés à son réseau Wi-Fi. L'objectif est de réduire la fraude. Après l'Ile-de-France, le projet, nommé Accelio, sera étendu en 2006 au reste du territoire. Début 2006, la SNCF commencera à fournir à ses 10.000 contrôleurs des assistants personnels (PDA) compatibles Wi-Fi, afin d'optimiser le contrôle des billets à bord des trains. Le projet, baptisé Accelio, figurait dans les cartons depuis 1995 ; il a été réactivé en 2003 grâce aux avancées techniques des PDA et au développement des réseaux sans fil Wi-Fi. Le réseau d'Ile-de-France est déjà équipé depuis fin 2004. Ses 2.000 agents des lignes E, C ou D du RER utilisent quotidiennement un PDA (le Fujistu Loox 610) pour vérifier les billets dits de "télébilletique". Il s'agit des titres de transports vendus sous forme de cartes à puce, comme la carte "Imagine R" pour les jeunes, ou la carte Orange annuelle. À leur prise de service, les contrôleurs synchronisent leur PDA dans la gare avec le système d'information de la SNCF via le réseau Wi-Fi. La liaison entre l'appareil et le réseau est sécurisée notamment par un VPN (Virtual Private Networking ou réseau privé virtuel). En fin de journée, les statistiques de contrôle sont envoyées au système d'information par le même canal. Accelio exploite le réseau Wi-Fi interne de la SNCF, mais l'utilisation des bornes de SFR, premier acteur Wi-Fi dans les gares, est à l'étude. D'ici à la fin de l'année, une connexion quasi permanente des PDA au réseau Wi-Fi sera mise en place, notamment pour informer en temps réels les usagers des perturbations du trafic. Les agents, grâce aux informations reçues sur leur PDA, pourront ainsi communiquer des itinéraires de désengorgement ou des correspondances. Après l'Ile-de-France, la SNCF va étendre son système à l'ensemble du territoire. ZDNet
|
|
|
|
|
Le service postal britannique (Royal Mail) a décidé d'investir 2,9 millions d'euros en 2005 dans les identifiants électroniques à fréquence radio (RFID). Les RFID, doivent lui permettre d'optimiser le fonctionnement de sa chaîne logistique : suivre des flux de courriers afin de repérer et de corriger les problèmes d'acheminement. Ils ne seront pas utilisés pour le suivi des colis, précise le Royal Mail. Le déploiement de ces équipements doit se faire en partenariat avec l'opérateur British Telecom. Le Royal Mail veut ainsi répondre aux objectifs d'efficacité imposés par Postwatch. Cet organisme indépendant, qui contrôle la qualité des services postaux du pays, menace de lui infliger une amende de 102 millions d'euros s'ils ne sont pas atteints. RFID
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
L'Américain Steve Fossett, 60 ans, est devenu le 3 mars 2005 le premier homme à réussir le tour du monde en avion en solitaire, sans escale ni ravitaillement. Après moins de trois jours de vol, l'aventurier a atterri, à bord de son avion ultra-léger Virgin Atlantic GlobalFlyer, jeudi à 13H48 locales (20H48, heure française) sur l'aérodrome de Salina, au Kansas, en plein milieu des Etats-Unis. Il aura mis très précisément 67 heures et une minute à boucler son tour du monde de 37 000 Km, au cours duquel il aura survolé l'Atlantique Nord, l'Afrique du Nord, le Moyen-Orient, la Chine, le Japon, le Pacifique puis la côte Ouest américaine au niveau de Los Angeles. Pendant son voyage, Steve Fossett a également battu le record de la distance parcourue sans atterrissage, qui avait été établi en 1962 par un bombardier B-52. Cet exploit s'ajoute à ceux déjà réussis par Steve Fossett, le premier homme à avoir réalisé le tour du monde en ballon en solitaire. Il a également établi plus de cent records du monde officiels, dans les airs mais aussi sur les mers en voilier. Mais ce dernier défi ne fut pas de tout repos. Après avoir surmonté les problèmes techniques, la panne de GPS, l'inconfort d'un cockpit pressurisé de moins de deux mètres de long, le pari de Fossett avait été remis en cause dans la journée de mercredi, quand il avait été découvert que l'avion disposait de 1,18 tonne de carburant de moins que prévu. L'avion avait utilisé trop de carburant lors de son décollage de l'aérodrome de Salina lundi à 18h47 locales, avait précisé Fossett lors d'une communication avec les journalistes rassemblés sur la base de Salina. Le pilote avait finalement décidé de poursuivre l'aventure malgré la faiblesse des réserves de carburant alors que son avion se trouvait au nord d'Hawaï. Un des casse-têtes du voyage aura été de limiter autant que possible la consommation de carburant puisque l'appareil ne disposait que de 8,6 tonnes de kérosène, soit 8 3% de son poids total, pour alimenter son unique réacteur. Pour cela, GlobalFlyer a dû se positionner à plus de 13.000 m d'altitude afin de profiter des jet-streams, les forts courants lui permettant de voler à plus de 600 km/h avec un réacteur fonctionnant au ralenti. Heureusement, GlobalFlyer a été aidé par la persistance de vents d'altitude forts. "Le jet stream a été extraordinaire. Cela m'a permis de gagner du temps", s'est félicité Steve Fossett. Le vol a été financé par l'homme d'affaires britannique Richard Branson, complice de Fossett dans plusieurs aventures, notamment en ballon. Il y a vu l'occasion de tester les matériaux composites ultra-légers dans le but de réduire le poids, et donc la consommation de carburants, des avions de ligne. Fabriqué en fibres de carbone-époxy et de graphite, le Virgin Atlantic GlobalFlyer ne pèse que 1,5 tonne à vide. FC
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|