RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 328
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Mars 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
CeBIT : la 3G veut séduire le consommateur avec la TV, la musique et l'internet
Des images en 3D visibles sans lunettes spéciales
L'UWB va supprimer les câbles du PC
SAP et Intel s'associent dans la technologie RFID
Google propose de personnaliser le choix d'informations en ligne
Nokia lance un projet de télé cellulaire
Le marché de la fibre optique va connaître une croissance réelle
Matière
La révolution des micro et nanotechnologies est en marche
Espace
Une première "galaxie obscure" détectée par des scientifiques
Terre
Le lien entre activité solaire et réchauffement de la Terre se confirme
Vivant
Les ARN interférents confirment leurs potentialités thérapeutiques
Un lien entre cancer du sein et tabagisme passif
Une nouvelle forme de diabète serait liée à la maladie d'Alzheimer
Paludisme : plus d'un demi-milliard de cas par an dans le monde
Nouveaux médicaments plus efficaces contre l'hypertension
Identification d'un gène responsable de la cécité liée au vieillissement
Génomique : lancement d'une plate-forme de calcul informatique partagé
Homme
Classement mondial des TIC : Singapour détrône les USA
TIC : une entreprise sur 10 vend par un moyen électronique
Dans un revirement de jurisprudence, la cour d'appel de Montpellier légitime la copie privée
Faire ses courses au doigt mais pas à l'oeil
Recherche
Lancement à Lyon de TOPCOMBI, pour une chimie compétitive et propre
Edito
De Borges à Google : le rêve d'une bibliothèque universelle devient réalité



Fin 2004, Google a annoncé son projet pharaonique consistant à numériser, d'ici 10 ans, les dizaines de millions de livres contenus dans les plus grandes bibliothèques anglo-saxonnes. Même si Google reste très discret sur les technologies qui vont être mises en oeuvre pour cette numérisation d'ouvrages d'une ampleur sans précédent, ce projet ne devrait pas a priori poser de problèmes techniques majeurs mais représente en revanche un véritable défi quant à la logistique nécessaire pour manipuler les ouvrages. Le but de cette opération, dont le coût total est estimé à 200 millions de dollars, est de rendre accessibles gratuitement, sur le Net, les millions d'ouvrages ainsi numérisés.

Ce projet, baptisé Google Print, a rencontré un accueil très favorable aux Etats-Unis et peut déjà compter sur la collaboration active des bibliothèques de trois universités américaines, Harvard, Michigan et Stanford, de la New York Public Library et de la Bodleian Library, rattachée à l'université d'Oxford, au Royaume-Uni. Au total, c'est plus de 50 millions de volumes représentant plus de 15 milliards de pages qui devraient être numérisés d'ici 2015 !

Les livres seront numérisés en mode texte et non en mode image. Un tel choix technologique permettra d'effectuer des recherches en texte intégral dans les pages des ouvrages numérisés et d'y retrouver certains mots ou expressions. Ce n'est pas le seul avantage du mode texte : les documents ainsi mis en ligne sont moins volumineux, plus souples d'utilisation et accessibles aux internautes connectés à bas débit. Les premiers projets de bibliothèques en ligne ont, au contraire, plutôt exploité le mode image. C'est le cas de Gallica, la bibliothèque virtuelle de la Bibliothèque nationale de France (BNF), qui dispose à ce jour d'environ 80 000 ouvrages en ligne.

En outre, malgré le recours au mode texte, l'interface graphique de Google Print permettra de présenter l'ouvrage, page par page, sous un aspect proche de l'original. Le travail de numérisation sera effectué sur place, dans chacune des bibliothèques. Google conservera une copie digitale de chaque oeuvre et en remettra une seconde à ses partenaires, qui pourront l'utiliser comme bon leur semble, y compris autoriser le téléchargement et l'impression de certains textes à partir de leur propre site Web. Depuis n'importe quel ordinateur, les internautes pourront consulter intégralement ces ouvrages, en mode texte. En revanche, ils n'auront pas la possibilité de les télécharger, de les sauvegarder ni de les imprimer depuis le site Google, qui a désactivé les fonctions copie et impression.

En Europe, le moins que l'on puisse dire est que ce projet suscite de nombreuses interrogations, surtout en France où l'on redoute la domination d'une vision américaine du monde. C'est ainsi que Jean-Noël Jeanneney, le président de la Bibliothèque nationale de France (BNF) et ancien secrétaire d'État à la Communication, a récemment déclaré " Les critères de sélection de Google seront puissamment marqués car toute entreprise de ce genre implique des choix drastiques. S'affirme ainsi le risque d'une domination écrasante de l'Amérique dans la définition de l'idée que les prochaines générations se feront du monde". Il souhaite donc, à juste titre, que l'Europe se lance dans un projet similaire à celui de Google.

Il est vrai que si le projet de Google suscite tant de réactions sur notre vieux continent c'est aussi parce qu'il éclaire d'une lumière cruelle notre retard en matière de numérisation du savoir. Aujourd'hui seule une part infime des ouvrages contenus dans les grandes bibliothèques européennes a été numérisée et est disponible librement sur le Net. En ce qui concerne la France, la situation n'est pas plus brillante et notre pays commence seulement à se donner les moyens de numériser ses grandes bibliothèques et leurs fonds d'une exceptionnelle richesse.

Bien sûr, nous ne devons pas être naïfs et même si l'entreprise de Google ne dissimule pas un affreux complot ourdi par Coca Cola et Hollywood pour nous imposer la suprématie culturelle américaine, il est certain que Google n'est pas entièrement désintéressé dans cette aventure et va chercher à rentabiliser et à exploiter ce lourd investissement. Il faut pourtant remettre le coût de ce projet en perspective. Google Print devrait coûter environ 150 millions d'euros sur 10 ans. Cette somme peut sembler importante mais en réalité, et au risque de choquer, je dirai qu'elle est presque insignifiante au regard de l'enjeu politique et culturel que représente ce projet de bibliothèque virtuelle universelle. Le coût de ce projet représente en effet moins de 0,25 % du budget annuel de l'Union européenne et moins du millième des dépenses de l'Etat en 2005 !

A qui fera-t-on croire que l'Europe est incapable, si elle en a la volonté politique, de mettre en oeuvre un projet d'un ampleur comparable à celui de Google afin de numériser en quelques années l'essentiel du contenu de ses grandes bibliothèques ?

Au lieu de voir dans ce projet de Google la main de l'impérialisme culturel américain, d'adopter une position défensive et d'en rester au stade des incantations et des procès d'intention, il serait beaucoup plus efficace et constructif de nous donner les moyens politiques et budgétaires, au niveau national mais surtout au niveau européen, de mettre en oeuvre rapidement un projet de bibliothèque virtuelle européenne aussi ambitieux que celui de Google en nous appuyant sur l'extraordinaire patrimoine culturel de notre continent mais également sur sa diversité linguistique qui constitue un atout culturel capital face à l'unilinguisme anglo-saxon.

Il est peut être temps que notre pays sorte enfin de cette schizophrénie permanente qui consiste à dénoncer avec violence l'hégémonie économique, technologique et culturelle américaine sans jamais se donner les moyens et les ambitions politiques de contrer efficacement les Etats-Unis sur ces domaines effectivement stratégiques que sont la recherche, l'innovation, la sécurité collective et bien sûr l'accès à la culture et au savoir.

Dans sa géniale et prophétique nouvelle intitulée « La bibliothèque de Babel et écrite il y a plus de 70 ans, le grand écrivain José Luis Borges imagine une bibliothèque totale, contenant un nombre infini de livres, en apparence tous plus incohérents les uns que les autres. Chaque livre de la Bibliothèque est constitué de 410 pages, chacune de 40 lignes de 80 signes. L'alphabet original comprend 22 lettres, le point, la virgule et l'espace.

La bibliothèque imaginée par Borges est une métaphore de l'univers avec ses dimensions mystérieuses, inépuisables et à jamais irréductibles à une compréhension totale. Dans la bibliothèque de Borges, chaque livre renvoie à une infinité d'autres livres, tel un jeu de miroir sans fin : « Et si la bibliothèque contenait tous les mondes » écrit Borges. 50 ans avant l'avènement du Web, Borges avait déjà inventé le concept d'hyperlien et d'hypertexte, et pressenti l'avènement des mondes virtuels !

Nous avons aujourd'hui la possibilité de construire un espace virtuel ouvert, vivant et ubiquitaire qui permettrait à chacun non seulement d'accéder à une bibliothèque universelle presque infinie, mais également d'établir une infinité de relations nouvelles et créatrices entre les livres et les concepts, et d'enrichir ainsi lui-même cet espace cognitif. Cette bibliothèque planétaire en ligne représente un saut sans précédent dans l'histoire de la connaissance et dans la démocratisation de l'accès au savoir, à condition toutefois qu'elle préserve la diversité culturelle et linguistique des peuples et des nations qui composent l'humanité.

Cette bibliothèque virtuelle universelle pourrait également donner un nouveau souffle au livre électronique et permettre enfin le décollage de ce nouveau médium qui en est le prolongement numérique naturel. Lancé à grand renfort de publicité en mars 2001 au Salon du livre, le livre électronique français n'a jamais réussi à conquérir le grand public, alors qu'il s'agit pourtant d'un concept aux extraordinaires potentialités. Les raisons de cet échec sont multiples : problèmes récurrents de droits d'auteur, catalogue insuffisant, guerre des formats et des standards, prix trop élevé, poids excessif, et manque d'ergonomie.

Mais s'il devenait possible, à l'aide d'un livre électronique au confort de lecture amélioré, d'accéder gratuitement et facilement, via le Net, non pas à quelques milliers de livres, mais à plusieurs dizaines de millions d'ouvrages, libres de droits et numérisés dans le même format, le livre électronique pourrait se banaliser très rapidement et devenir une nouvelle passerelle d'accès universelle au savoir et à la culture. Nous aurions alors réalisé le rêve de Borges d'un livre qui contient tous les livres.

Si nous ne voulons pas, pour reprendre un célèbre slogan publicitaire, que dans quelques années les Etats-Unis puissent dire au monde entier « La bibliothèque universelle, Borges l'a rêvée, Google l'a fait », il appartient à l'Europe de se mobiliser, comme elle a déjà su le faire avec succès dans d'autres domaines scientifiques ou industriels, pour réaliser une grande bibliothèque virtuelle européenne digne de ce nom. Celle-ci sera non seulement un outil d'accès à la connaissance irremplaçable mais aussi un facteur essentiel de compétitivité dans l'économie numérique mondialisée ainsi qu'un puissant moteur dans l'accélération de la construction politique et culturelle de l'Europe.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
CeBIT : la 3G veut séduire le consommateur avec la TV, la musique et l'internet
Jeudi, 17/03/2005 - 00:00

Après plusieurs années de morosité, le CeBit de Hanovre qui a fermé ses portes le 16 mars a été un incontestable succès. Cette grand messe mondiale de la high tech a réuni, sur 308.800 mètres carrés (trois fois le parc des expositions de la Porte de Versailles) près de 6.300 sociétés, venant de 69 pays et ce cru 2005 a privilégié la mobilité et confirmé, avec l'arrivée en force de la 3G et de l'UMTS, la convergence numérique entre le téléphone, l'ordinateur, la vidéo et l'électronique de loisirs.

A la maison, l'ordinateur est en train de s'imposer comme la plate-forme fédératrice et incontournable de commandes et d'échanges de données numériques, avec l'engouement du grand public pour le concept du Multimédia Home Center. Qu'il s'agisse de la chaîne Hi Fi, du téléviseur, du magnétoscope, du magnétophone ou de l'appareil photo numérique, tous ces appareils et flux numériques peuvent être remplacés ou pilotés par le PC qui est devenu une véritable station multimédia, de plus en plus conçu et orienté vers les loisirs. Un récent sondage DPA révèle d'ailleurs que 55 % des ménages allemands considèrent que, bientôt, un ordinateur remplacera toute leur installation actuelle de magnétoscope, lecteur DVD, téléviseur. Et dans la tranche des 14-34 ans, ils sont 75 % à en être persuadés.

"Cela va être une année forte", a promis mercredi lors d'une conférence de presse Bernd Bischoff, patron du premier fabricant d'ordinateurs européen Fujitsu-Siemens. Leurs deux entreprises ont de quoi se réjouir : les entreprises recommencent à investir pour renouveler leurs équipements informatiques datant d'avant 2000. Autre source d'espoir, la téléphonie mobile de troisième génération UMTS. Rien qu'en Allemagne, le nombre d'utilisateurs est censé décoller pour atteindre 2,5 millions de personnes fin 2005, dix fois plus qu'un an plus tôt.

Télévision ou musique sur téléphone portable, offres pour surfer sur internet à la maison : les opérateurs de téléphonie mobile présentent au CeBIT moult services liés à l'UMTS, espérant tenir leur pari de faire dès cette année de la technologie un marché de masse. "Nous ne voulons pas vendre des normes, des abréviations techniques, mais des applications", a assuré René Obermann lors d'une conférence de presse en ouverture du salon high-tech de Hanovre. Le patron de T-Mobile, la filiale de téléphonie mobile du premier opérateur européen Deutsche Telekom, résume le credo de toute un secteur. Après avoir payé des milliards pour les licences de téléphonie mobile de troisième génération UMTS, les opérateurs doivent trouver des clients, et tentent de les convaincre à coup de promesses de services.

Faire du téléphone portable une console de jeux vidéo ou un baladeur musical est déjà un classique pour cibler les jeunes. La surenchère se fait surtout sur l'ampleur du catalogue. La filiale allemande du britannique mmO2, O2, promet l'accès à 230.000 titres, celle du leader mondial de la téléphonie mobile Vodafone, D2, à 500.000. En matière de divertissement, un autre axe est la télévision, avec plusieurs démonstrations au CeBIT.

T-Mobile propose aux utilisateurs de l'UMTS d'un service de "vidéoclips", des formats courts spécialement conçus pour le téléphone mobile : moments forts d'un match de football ou flash d'informations par exemple. Chez Vodafone, D2 offre en prime la version classique d'Eurosport et d'une chaîne météo allemande. L'opérateur néerlandais KPN débute lui cet été aux Pays-Bas des tests de télévision numérique pour téléphone portable, pour une mise sur le marché espérée en 2006.

Pour la vidéo-téléphonie, "le marché de masse n'est pas encore là", nuance Lutz Schueler, un responsable d'O2. La société espère plutôt empiéter sur le terrain des opérateurs classiques. Elle a présenté au CeBIT une alternative au réseau fixe, "surf@home" : un boîtier d'environ 10 centimètres sur 20 permettant d'évoluer sur internet grâce à l'UMTS chez soi, avec un ordinateur portable ou de bureau classique. Une solution qui laisse sceptique l'opérateur historique. "Aucun opérateur de téléphonie mobile en Allemagne ne pourra offrir dans un avenir prévisible une réelle alternative à un accès DSL sur un réseau fixe", selon René Obermann.

Quelle que soit la voie choisie, les opérateurs sont condamnés à réussir s'ils veulent rentabiliser leurs coûteux investissements. Ils tentent en tout cas de s'en convaincre. "L'UMTS est le moteur de croissance des prochaines années", a assuré le patron de Vodafone D2, Juergen von Kuczkowski. "T-Mobile a créé les conditions pour entrer sur le marché de masse", a indiqué René Obermann. Rien qu'en Allemagne, le nombre d'utilisateurs de l'UMTS est censé décoller à 2,5 millions fin 2005, contre dix fois moins fin 2004. Vodafone compte à lui seul dépasser le million. Pas sûr toutefois que les services y suffisent. Il faudra que les équipementiers, souvent critiqués par les opérateurs, fournissent des terminaux en nombre et qualité suffisante.

Et une autre variable sensible pour les consommateurs sera la tarification. Son niveau d'abord : "si le prix monte trop haut, il ne pourront pas s'en servir", note Irwin Jacobs, PDG de l'équipementier américain Qualcomm. Mais aussi sa transparence. Les derniers tarifs d'O2 sont libellés en minutes, et non en fonction du volume de données transférées car, juge Lutz Schueler, "les clients ne savent pas ce qu'est un mégaoctet. Mais ils comprennent quand on leur parle de durée".

Côté mobile, les fabricants font assaut d'imagination pour inciter les consommateurs à changer leur portable et à passer à la 3G. Nokia, premier fabricant mondial, a présenté son nouveau modèle, le 6680, qui possède deux caméras intégrées permettant des vidéo-conférences en direct. Le fabricant sud-coréen de téléphones portables Samsung a présenté, pour sa part, le premier téléphone portable couplé à un appareil photo à 7 mégapixels, le SCH-V770. Il est d'ailleurs possible de lui ajouter des objectifs, dont un grand-angle. Ce mobile n'a plus rien à envier aux appareils photos numériques haut de gamme et montre que la tendance est aux appareils et terminaux polyvalents et hybrides. Sony Ericsson n'est pas en reste et compte faire un tabac avec son téléphone portable combiné à un Walkman numérique alors que Vodafone propose un service de télévision digitale pour les portables et les ordinateurs de poche.

Ce CeBIT a également été l'occasion de découvrir une pléiade d'innovations dont certaines préfigurent ce que sera notre vie quotidienne dans quelques années. Ainsi, le groupe allemand Infineon Technologies a participé à la création d'une veste "multimédia" avec le couturier Rosner. Coupée dans du coton italien de haute qualité, cette veste comprend un baladeur MP3 et un téléphone mobile doté d'un système "bluetooth". Dans la "mp3blue", les touches du téléphone et du baladeur sont placées sur les manches, les écouteurs et le micro étant intégrés au col. Le baladeur MP3 s'arrête automatiquement lorsque le téléphone sonne et une batterie rechargeable permet d'avoir huit heures d'autonomie.

Pour sa part, l'Université canadienne Acadia fait jouer grâce à un logiciel deux pianos séparés par l'Atlantique. Une pression sur la touche d'un piano à Hanovre est répercutée presque en temps réel sur celle d'un piano de Nouvelle-Ecosse.

L'institut allemand de recherche Fraunhofer a présenté un écran qui projette des images apparaissant en trois dimensions sans nécessiter le port de lunettes spéciales et sans avoir besoin de se trouver dans l'axe des images. L'écran, présenté au salon informatique CeBIT à Hanovre, génère deux images en deux dimensions légèrement décalées pour faire apparaître les objets en trois dimensions. Une lentille située en face de l'écran projette un rayon lumineux vers l'oeil gauche de l'utilisateur et un autre vers le droit, rendant inutile le port de lunettes 3D. Si le sujet bouge vers un côté, une caméra au-dessus de l'écran enregistre le mouvement et adapte la lentille. (voir article plus bas)

Sony a dévoilé son premier baladeur vidéo, le VAIO HVP20. Doté d'un écran TFT de 3,5 pouces le baladeur embarque un disque dur de 20 Go qui peut être utilisé comme un disque externe. Compact et capable de lire les films au format MPEG 2, le baladeur a une autonomie annoncée de quatre heures. Sony a également présenté une caméra vidéo numérique HDV, haute définition (avec 8 millions de pixels), qui se rapproche des caméras HDTV professionnelle. En matière musicale, Sony reste à la pointe avec ses nouveaux baladeurs Hi-MD et notamment le MZ-NH1, capable d'utiliser des MiniDisc de 1Go ! (450?)

Le numéro un des processeurs Intel a confirmé son engagement sur le très lucratif marché du numérique domestique et de la domotique. Intel place ses prochains processeurs multi-coeurs au centre de ses solutions « pour la maison ». Une technologie d'hyperthreading et de multi-tâche, qui selon lui, motorisera un serveur central multimédia et interactif. Exemple d'utilisation : la diffusion simultanée sur deux écrans, d'un jeu gourmand en ressources, et d'une vidéo très haute définition. Autre complément du concept Intel de la maison numérique, le Wimax, sur lequel Intel compte s'appuyer pour étayer ses offres.

Intel a, par ailleurs, annoncé un partenariat avec SAP visant à généraliser l'usage de la technologie RFID (Radio Frequency Identification) dans les entreprises. Concrètement, il s'agit d'établir des liens directs entre le lecteur RFID et les applications métiers (business Process). Intel s'engage alors à rendre plus « intelligent » les lecteurs RFID, afin que ces derniers puissent alimenter les applications SAP (notamment SAP Auto-ID Infrastructure) en données compréhensibles. (voir les précisions dans l'article suivant). Samsung a exposé un 'Camcorder', au format 6 x 9 x 3 cm, qui combine un dictaphone, un appareil photo numérique et un lecteur MP3,

Vodaphone a fait la démonstration du terminal mobile V980 de Samsung, qui retransmet des programmes TV. Un boîtier DVB-T, le Video Walker, récepteur TV avec une micro antenne indépendante, permet de réceptionner des programmes TV (de TV numérique terrestre) sur son PC portable. La société Avermedia Technologies basée à Taipei propose une télécommande TV de la taille du pouce, dont le tuner transforme un ordinateur portable ou un PC en écran de télévision digitale.

L'Allemand Desko promet lui d'en finir avec les queues aux guichets de contrôle des passeports, grâce à un scanner permettant la lecture d'une puce contenant les données personnelles et biométriques du titulaire, intégrée au document.

Ce CeBIT aura également été marqué par la banalisation des PDA navigateurs. PalmOne et ViaMichelin ont ainsi présenté à Hanovre une configuration GPS (navigateur, géolocalisation) du terminal PDA Zire 31 avec carte flash "SD" (de 256 Mo). La solution clés en main est proposée à partir de 329 euros. PalmOne et TomTom, en parallèle, se sont eux aussi associés pour proposer une solution du même genre, avec navigateur GPS. Les deux fournisseurs -constructeurs de terminaux et éditeurs de solutions de cartographie numérique- proposent de convertir les terminaux PDA Tungsten T3, T5 et Zire 72 de PalmOne en terminaux de géolocalisation et navigation GPS. La connexion sans fil est du type 'bluetooth'. TomTom dispose d'une base de 100.000 points d'intérêts (sites particuliers, stations services, restaurants, parkings, aéroports...) avec radioguidage. Le prix de la première configuration débute à 319 euros. GNS a présenté le premier prototype de GPS intégrant un module "Dead Reckoning" pour garder une position sous les tunnels.

Mais le clou de cette édition 2005 restera sans doute l'innovation présentée par g.tec Guger Technologies, une société autrichienne, propose un ordinateur de poche contrôlé par la pensée. Grâce à deux électrodes placées sur l'ordinateur et sur les tempes de l'utilisateur, Christopher Guger a montré comment il pouvait déplacer le curseur par sa seule volonté."Chaque pensée produit des changement dans les ondes transmises au cerveau", a expliqué le Dr Guger, ajoutant: "certaines pensées déclenchent des changements spécifiques qui peuvent être identifiés par l'ordinateur et utilisés pour produire certains effets".

Enfin, signe des temps, Fujitsu Siemens fait la promotion d'un "PC vert", défenseur de l'environnement. Explication: le Scenic C820 se veut écologique, car il intègre moins d'un gramme de plomb sur sa carte mère.

Les dépenses technologiques par habitant dans le monde en 2004 :

-* Suisse : 2673?

-* Suède : 2374?

-* Danemark : 2351?

-* Japon : 2262?

-* Norvège : 2107?

-* USA : 1966?

-* GB : 1908?

-* Finlande : 1831?

-* Allemagne : 1566?

-* France : 1513?

-* Italie : 1153?

-* Espagne : 914?

Article @RTFlash

Des images en 3D visibles sans lunettes spéciales
Jeudi, 17/03/2005 - 00:00

L'institut allemand de recherche Fraunhofer a mis au point un écran qui projette des images apparaissant en trois dimensions sans nécessiter le port de lunettes spéciales et sans avoir besoin de se trouver dans l'axe des images. L'écran, présenté au salon informatique CeBIT à Hanovre, génère deux images en deux dimensions légèrement décalées pour faire apparaître les objets en trois dimensions. Une lentille située en face de l'écran projette un rayon lumineux vers l'oeil gauche de l'utilisateur et un autre vers le droit, rendant inutile le port de lunettes 3D. Si le sujet bouge vers un côté, une caméra au-dessus de l'écran enregistre le mouvement et adapte la lentille. D'autres constructeurs électroniques, le néerlandais Philips et le japonais Sharp, ont également développé des écrans 3D sans lunettes. Mais comme ils ne surveillent pas les mouvements de l'utilisateur, ce dernier doit trouver lui-même la meilleure position et s'y tenir.

L'impression de relief est générée par un système astucieux : l'écran projette simultanément deux images bidimensionnelles qui présentent la particularité d'être légèrement décalées l'une par rapport à l'autre. En somme, l'écran exploite le principe même de la vision stéréoscopique humaine. Tout simplement. Encore fallait-il y penser... Et lui donner vie.

Précisément, avec le nouveau système, c'est ce point de vue qui change. Plus besoin de lunettes spéciales ! L'écran est carrément auto stéréoscopique. Le secret réside dans ceci : qu'à tout moment, chaque oeil ne puisse voir qu'une seule des deux images projetées.

Tout ceci nécessite forcément un matériel technique adapté pour saisir l'image ainsi projetée. Ce n'est plus une mais deux caméras qui filment le sujet ou la scène sous deux angles légèrement différents - ceux qui seront exploités à la projection. Les deux images obtenues sont alors divisées en bandes verticales étroites puis recomposées en alternant une bande issue de l'image de la première caméra et d'une bande de l'autre image. Au final, le contenu de l'image apparaît dans l'air, un peu en avant de l'écran.

Reuters

L'UWB va supprimer les câbles du PC
Jeudi, 17/03/2005 - 00:00

Le bluetooth est-il condamné ? Très engagé dans le développement des technologies radio Wifi ou le Wimax, le géant du microprocesseur Intel se penche également sur la technologie UWB pour supprimer les câbles autour du PC. L'UWB (Ultra Wide Band) est une technologie sans fil prévue pour la transmission de données à courte portée (jusqu'à 10 mètres) et à très haut débit (jusqu'à 480 Mbps) en utilisant le moins d'énergie possible. Elle est particulièrement adaptée à la transmission sans fil de contenus multimédias de haute qualité (des vidéos, par exemple) entre des équipements électroniques et des périphériques d'ordinateurs. Intel a profité de son forum développeurs, organisé en début de semaine à San Francisco, pour annoncer son rapprochement avec la WiMedia Alliance et la Multi-band OFDM Alliance (MBOA) en vue d'accélérer la définition de spécifications techniques standard.

“Un des facteurs-clefs de succès de l'UWB réside dans le soutien très important qu'il a rencontré auprès de l'industrie, ainsi que dans la coopération entre les industriels concernés par le développement de ces spécifications. En tout, ce sont près de 200 entreprises qui ont participé au projet”, remarque Kevin Kahn, senior fellow, Intel Corporate Technology Group. “De plus, grâce à la fusion de WiMedia et de la MBOA, l'association va gagner en cohérence et développer une spécification d'interopérabilité mieux intégrée.”

Ces travaux devraient permettre à Intel de mettre en place d'ici peu une technologie USB "sans-fil", offrant sensiblement les mêmes débits que l'USB 2.0 actuellement disponible sur tous les nouveaux PC. L'UWB devrait ainsi faire de l'ombre à la technologie bluetooth, dont la portée est équivalente mais dont les débits sont largement plus faibles. Reste à savoir si les deux technologies coexisteront dans les PC ou si le UWB aura la peau de la dent bleue...

NE

SAP et Intel s'associent dans la technologie RFID
Jeudi, 17/03/2005 - 00:00

L'éditeur allemand de logiciels SAP et le fondeur américain Intel ont annoncé le 10 mars leur coopération pour inciter les entreprises à adopter la technologie RFID (radio frequency identification). Les deux sociétés ont précisé dans un communiqué publié lors du salon informatique CeBIT que leur collaboration permettrait aux entreprises d'intégrer les données issues des puces RFID fixées sur leurs produits, depuis des serveurs à processeurs Intel ou à travers la plate-forme logicielle Netweaver de SAP.

SAP et Intel, en associant leur savoir-faire, ont décidé de proposer, aux entreprises, le choix entre l'intégration de "hardware" RFID directement dans leurs systèmes de traitement, en "backend", ou le recours à des partenaires capables de piloter les solutions. La première option serait plutôt appropriée pour des environnements professionnels relativement peu complexes, tandis que la seconde devrait aider les entreprises à mieux gérer un projet plus complexe intégrant des équipements et du logiciel de différents fournisseurs.

Selon les deux groupes, cette coopération repose sur un "nouveau concept de RFID devant permettre aux entreprises d'intégrer des données de traçabilité directement dans les applications maîtresses". Pour Intel, le dispositif doit fonctionner sur toutes plates-formes -serveurs, postes de consultation, notebooks... et systèmes lecteurs de RFID. Intel et SAP souhaitent favoriser la standardisation des outils de RFID afin de faire émerger des applications plug and play et vont monter des passerelles RFID en associant des composants standard et des solutions logicielles compatibles (SAP de préférence). L'objectif est de parvenir à une meilleure intégration dans le business process management.

Selon le cabinet d'études In-Stat, le marché global des étiquettes RFID (identification par radiofréquence) devrait passer de 300 millions de dollars en 2004 à 2,8 milliards de dollars en 2009. La technologie RFID, qui permet en théorie de suivre à la trace tout type d'objet, souffre toujours de lourds coûts d'intégration et de problèmes techniques. Elle a été adoptée par plusieurs groupes de grande distribution comme l'américain Wal-Mart et l'allemand Metro. SAP, premier éditeur mondial de progiciels, mène par ailleurs une campagne politique pour apaiser les inquiétudes des groupes de défense des libertés individuelles qui redoutent des dérives, notamment en matière d'intrusion dans la vie privée.

Intel

Google propose de personnaliser le choix d'informations en ligne
Jeudi, 17/03/2005 - 00:00

L'américain Google, premier moteur de recherche sur internet, a doté son site d'informations de nouveaux outils permettant aux clients de personnaliser leur sélection de nouvelles. Cette annonce intervient après que Yahoo et la division MSN Internet de Microsoft ont ajouté sur leurs sites des outils pour faciliter la création de pages d'accueil personnalisées, avec des informations choisies. Les nouveaux outils de Google News permettent des créer des pages spéciales où sont sélectionnées des informations provenant de l'ensemble du web. Il est possible de modifier l'aspect de la page d'accueil de Google News en choisissant des rubriques prioritaires comme la santé ou le sport. L'utilisateur peut aussi créer de nouvelles catégories pour rassembler les nouvelles en fonction d'un mot clé particulier. Google News est disponible également sur les téléphones mobiles et les appareils portables qui peuvent lire les pages web. La personnalisation des nouvelles n'est, elle, pour l'instant disponible que sur les ordinateurs personnels.

Google

Nokia lance un projet de télé cellulaire
Jeudi, 17/03/2005 - 00:00

Nokia Corp vient de lancer un projet pilote pour permettre aux usagers de téléphones cellulaires de visionner des programmes de télévision sur leur appareil dans la région d'Helsinki. Pour le premier projet de ce type en Finlande, Nokia s'est assuré la collaboration de YLE TV, le premier diffuseur en importance du pays, de chaînes de télé commerciales de pointe ainsi que les services de fournisseurs de services mobiles majeurs comme TeliaSonera et Elisa. Outre la programmation de télé finlandaise, 500 usagers choisis pour mettre ce service à l'essai ce service peuvent aussi capter des chaînes de télé internationales, comme BBC World et CNN, et capter des programmes de radio.

Canoe

Le marché de la fibre optique va connaître une croissance réelle
Jeudi, 17/03/2005 - 00:00

Si le va-et-vient passé des marchés peut être considéré comme un indicateur, la reprise du transport des télécommunications suite à la récession pourrait bien mener à 20 années de croissance stable, a indiqué l'ancien directeur de recherche de Corning Inc. dans une intervention lors de la conférence OFC/NFOEC le 8 mars 2005. Donald Keck a pris l'exemple des périodes fastes des chemins de fer et du pétrole pour montrer que les déploiements de fibres optiques jusqu'au domicile surviennent à un moment où la confiance regagne les marchés des équipements de télécommunications et les opérateurs.

Les « grands booms » dans les nouvelles technologies entraînent inévitablement des investissements massifs, rendant les bulles inévitables, selon M. Keck. Lorsque les bourses s'effondrent, la colère du public est tangible et justifiée, a ajouté M. Keck. Mais cette colère est rarement dirigée vers la technologie impliquée dans le boom. Au moment où la récession frappe, la technologie a été largement adoptée par le grand public. La colère est donc dirigée vers les autorités, avec des demandes pour davantage de réglementation. C'est précisément de tels troubles post-récession qui ont entraîné la loi Sarbanes-Oxley, a expliqué M. Keck.

Aujourd'hui, il n'y a pas de raison de penser que l'intérêt ressuscité dans les fibres jusqu'au domicile ou noeud soit la même chose que ce qui s'est passé pour la large bande. Pour M. Keck, les déploiements financés par les gouvernements en Asie sont fondés sur une demande réelle des clients résidentiels pour la large bande afin de prendre en charge des applications tels que les jeux 3D en ligne.

Bien que l'utilisation de la large bande en Amérique du Nord soit à la traîne par rapport à l'Asie pour ce qui est des déploiements FTTx, M. Keck pense que la demande pour la large bande devrait s'accélérer par le biais de nouvelles applications dans des domaines tels que les sciences de la vie et la médecine, où entre 40 et 50 pétaoctets d'informations devraient être nécessaires pour traiter les données médicales de seulement 40 % de la population mondiale. M. Keck cite le journaliste du New York Times, Thomas Friedman, et fait observer l'ironie de voir des pays en voie de développement surpasser les Etats-Unis en termes de déploiements de fibres : « Il n'y a plus de premier, deuxième ou tiers monde parce que tout le monde veut rejoindre le monde rapide. »

EET

^ Haut
Matière
Matière et Energie
La révolution des micro et nanotechnologies est en marche
Jeudi, 17/03/2005 - 00:00

Certains peuvent s'en réjouir, d'autres s'en indigner : un monde où les clés, les mots de passe, les passeports, les caissières et les contrôleurs n'auraient plus de raison d'être, un monde où après l'implantation sous-cutanée d'une puce plus petite qu'un grain de riz, on puisse être traqué dans tous ses déplacements, n'est plus tout à fait du domaine de la fiction. En Australie, le personnel de toutes les banques est implanté d'office et les militaires sont également "pucés". La généralisation des micro puces est inexorable, promettant autant d'avancées radicales que de risques potentiels pour les libertés de l'individu, selon des spécialistes des micro et nanosystèmes réunis cette semaine au CNRS, à Paris.

L'essor de ces systèmes miniaturisés, intégrant des capteurs capables de sentir le monde extérieur et des actionneurs pouvant agir sur cet environnement, donc une technologie dérivée des circuits intégrés, ne remonte qu'aux années 1990, rappelle Christian Bergaud. Il est co-directeur de l'un des vingt labos spécialisés du CNRS, le LIMMS (Laboratory for Integrated Micro Mechatronic Systems), structure franco-japonaise qui fête ses dix ans.

"Rien que la combinaison de la mécanique et de l'électronique donne des possibilités très intéressantes, et aujourd'hui la majorité des champs de la science sont impliqués", explique le chercheur. "La majorité des disciplines scientifiques est impliquée et nous vivons déjà avec des micro-interrupteurs dans nos téléphones mobiles, des capteurs de choc pour airbags, etc", ajoute-t-il.

Dans le domaine aéronautique et spatial, l'intérêt de la miniaturisation va sans dire : pour les satellites, une première stratégie consiste à garder la même architecture en remplaçant les composants classiques par des microsystèmes. Les 3 tonnes de SPOT-5 sont ainsi réduites à une chez son successeur, les satellites Pléiades. "La seconde stratégie passe par un concept nouveau, celui des nano-satellites de l'ordre du centimètre-cube, que l'on peut associer en constellations pour effectuer des tâches complexes", explique Dominique Collard (CNRS - Valenciennes).

Spécialiste des applications pour la biologie et la santé, Bruno Le Pioufle (ENS Cachan) affirme que "l'on va vers des laboratoires entiers qui tiendront sur une puce". Selon lui, "la miniaturisation et la parallélisation offrent une augmentation phénoménale des capacités d'analyse. Il est aussi cher de construire un transistor qu'un million de transistors, et si l'on fait tenir un millier d'éprouvettes sur un centimètre carré, on peut détecter un très grand nombre de gènes analysables simultanément, un grand nombre de produits de gènes (puces à protéines) et on peut tester simultanément un très grand nombre de médicaments sur des cellules vivantes (puces à cellules)". De surcroît, "plus c'est petit et plus le temps de réaction est court soit une efficacité bien supérieure des analyses", ajoute-t-il.

"On s'oriente vers un système de plus en plus adapté pour des investigations in vivo (à l'intérieur du corps)", conclut Bruno Le Pioufle, qui cite les micro-cathéters qui traumatisent de moins en moins les tissus environnants. A un horizon plus lointain, il est possible d'envisager des microsystèmes autonomes qui se déplaceraient dans le corps humain, "comme des microcapsules intestinales dotées d'électronique et d'appareillage pour effectuer des analyses, déposer des médicaments ou réaliser des biopsies".

AFP

^ Haut
Espace
Espace et Cosmologie
Une première "galaxie obscure" détectée par des scientifiques
Jeudi, 17/03/2005 - 00:00

Un objet très massif, invisible en optique, qui pourrait être la première "galaxie obscure" (ou noire) jamais observée, vient d'être détecté en radio par une équipe internationale, annonce l'Observatoire de Paris-Meudon (Hauts-de-seine). Des galaxies présumées sombres avaient bien été détectées jusqu'ici, mais on y avait ensuite découvert des étoiles. Ce n'est pas le cas cette fois. Le compte rendu de cette observation, sous la direction de Robert Minchin, de l'Université de Cardiff (Grande-Bretagne), sera publié prochainement dans l'Astrophysical Journal.

Pour expliquer le mouvement des étoiles et des galaxies, les astronomes postulent l'existence de matière sombre (ou noire), qui constituerait 25 % de la masse totale de l'Univers, soit cinq fois plus que la matière normale (baryonique). Celle-ci est elle-même vue à hauteur de 10 % seulement (en radio, en optique, dans l'infrarouge...) dans les étoiles, les galaxies... Le reste (70 % de la masse de l'Univers) serait de l'énergie noire (ou énergie du vide)... ou toute autre chose.

Cette matière sombre constitue toujours un mystère. Par ailleurs, les modèles de formation des galaxies laissent entendre qu'il en existe un bien plus grand nombre que ce que nous voyons actuellement. Ces deux idées ont conduit à conclure à l'existence de galaxies obscures, qui se formeraient lorsque la densité de matière est trop faible pour conduire aux conditions qui permettent la formation stellaire.

Avec le radiotélescope Lovell de Jodrell Bank (Angleterre), l'antenne géante d'Arecibo (Porto Rico), ainsi que le Réseau Géant américain, le VLA (Very Large Array), à Socorro (Nouveau-Mexique), Robert Minchin et ses collègues sont allés à la recherche de galaxies obscures en étudiant la distribution de l'hydrogène gazeux dans l'Univers.

Dans l'amas Virgo (de la Vierge) - amas de la Voie lactée le plus proche (à 50 millions d'années-lumière) constitué de plus d'une centaine de galaxies de types divers -, l'équipe a découvert une masse d'hydrogène neutre de 200 millions de fois celle du Soleil, invisible en optique. Les différentes observations spectrographiques de cet objet, provisoirement dénommé VIRGOHI21, montrent que sa vitesse de rotation est celle des galaxies relativement massives. Par ailleurs, la recherche de traces d'étoiles y a été infructueuse jusqu'à la brillance de magnitude 27,5, limite actuelle du visible. Ces observations de VIRGOHI21 correspondent à celles d'une distribution d'hydrogène dans un disque plat en rotation, comme dans les galaxies spirales normales. Après avoir passé près de cinq ans à éliminer toute autre explication à ses détections, l'équipe de Robert Minchin estime donc avoir décelé la première véritable galaxie obscure.

AFP




^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le lien entre activité solaire et réchauffement de la Terre se confirme
Jeudi, 17/03/2005 - 00:00

Jamais depuis 11.000 ans, le Soleil n'a été aussi actif qu'au cours des 70 dernières années. Ce constat a été établi par Sami Solanki, de l'Institut Max Planck (Allemagne) et ses collaborateurs finlandais et suisses. L'activité solaire se manifeste par une augmentation du nombre de zones sombres à la surface du Soleil tous les 11 ans. En période de grand calme, l'étoile peut en être totalement dépourvue, alors qu'elle présente plus d'une cinquantaine de taches lors du maximum de ce cycle. Durant cette phase active, le champ magnétique du Soleil s'intensifie et convoie vers la Terre des flots de particules chargées. Mais jusqu'au début des années 1980, ni les astronomes ni les climatologues ne voyaient un lien entre les taches et l'énergie rayonnée.

Cependant, entre 1645 et 1715, période où on a noté une absence totale de taches solaires, un froid sans précédent s'est abattu sur l'Europe. La Tamise a même gelé pendant l'hiver 1683-1684. Ce “petit âge glaciaire” a été attribué à une activité solaire minimale. Au point qu'aujourd'hui les climatologues estiment qu'un minimum solaire entraîne un refroidissement du climat de l'ordre de 0,5 à 1°C.

L'équipe allemande qui a étudié l'activité solaire s'est basée sur la mesure, dans les arbres, du taux de carbone 14 (l'isotope lourd du carbone, noté 14C, qui se forme lorsque les rayons cosmiques percutent les molécules de la haute atmosphère). En période de forte activité magnétique du Soleil, les rayons cosmiques sont davantage déviés dans l'espace et il se forme moins d'atomes de 14C : ce point représente un indice précieux pour les astronomes. La quantité de 14C emmagasiné au cours de la croissance des arbres permet de tracer, l'évolution de l'activité solaire dans le temps.

Reste à jauger la fiabilité de ces données et estimer la part du Soleil dans l'augmentation de la température... Pour le premier volet, une confirmation devrait bientôt arriver : une équipe française traque l'évolution d'un autre isotope que l'on trouve dans les couches successives de glace déposées au cours du temps, celui du Béryllium qui devrait varier de concert avec le 14C. En ce qui concerne la responsabilité du Soleil, les chercheurs s'accordent au moins sur un point : l'activité solaire ne peut expliquer qu'un quart à un tiers du réchauffement actuel. Le reste est bien dû à l'effet de serre déclenché par le gaz carbonique émis par l'activité humaine.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les ARN interférents confirment leurs potentialités thérapeutiques
Jeudi, 17/03/2005 - 00:00

Découvert par hasard au début des années 90 par des généticiens qui voulaient modifier la couleur de leurs pétunias, le mécanisme de l'ARN interférent (ARNi) a été utilisé avec succès par des chercheurs suisses sur des souris atteintes de la sclérose latérale amyotrophique (SLA). Ce mécanisme leur a permis de réduire au silence le gène responsable de la destruction des neurones moteurs dans les formes héréditaires de la SLA.

L'ARNi permet aux cellules de lutter contre certains envahisseurs, comme les virus. Ce mécanisme interrompt le travail de l'ARN messager qui transporte le code génétique indispensable à la synthèse d'une protéine du noyau de la cellule vers le site de fabrication de la protéine. Depuis la découverte de ce mécanisme les chercheurs s'en servent pour réduire des gènes au silence.

C'est ce qu'ont fait Patrick Aebischer et ses collègues de l'Ecole Polytechnique Fédérale de Lausanne (EPFL). Grâce à de petits brins d'ARNi, les chercheurs ont réduit l'expression de la version mutée du gène SOD1 chez des souris atteintes de la forme humaine de la SLA. Ils ont également inséré une version normale du gène grâce à un vecteur viral (un lentivirus génétiquement modifié). Chez les souris ainsi traitées le commencement de la maladie a été retardé et sa vitesse de progression ralentie, soulignent les chercheurs.

NM

Un lien entre cancer du sein et tabagisme passif
Jeudi, 17/03/2005 - 00:00

Les experts d'une agence publique américaine chargée de l'environnement viennent de publier le premier rapport de grande ampleur établissant un lien entre le cancer du sein et le tabagisme passif. Ce rapport préliminaire de 1.200 pages, rédigé par des scientifiques de l'Office chargé des répercussions des problèmes liés à l'environnement sur la santé se fonde sur plus de 1.000 études concernant les effets du tabagisme passif et expose en détail les différents problèmes de santé liés au tabagisme passif, notamment des complications respiratoires, des maladies cardio-vasculaires et plusieurs cancers, une grande partie de ces effets étant déjà largement documentés. Mais le rapport établit pour la première fois un lien entre le tabagisme passif et le cancer du sein.

Selon ses conclusions, les femmes exposées à la fumée de cigarettes des autres, auraient jusqu'à 90 % de risques supplémentaires de développer un cancer du sein par rapport aux femmes qui ne sont pas exposées. Pour Allan Hirsch, le porte-parole de cette agence, les conclusions de ce rapport, notamment dans le domaine du cancer du sein, reposent sur plusieurs études qui s'attachent aux effets à long terme du tabagisme passif, notamment chez les femmes en pré-ménopause. Terry Pechacek, porte-parole du bureau sur le tabac et la santé des Centers for Disease and Control (CDC, organismes spécialisés dans la prévention des maladies et la santé publique) estime que ce rapport est susceptible de déclencher un débat national sur le lien établi avec le cancer du sein. Il pense également qu'il faut "continuer et renforcer l'évaluation scientifique" sur ce dossier.

CARB

Une nouvelle forme de diabète serait liée à la maladie d'Alzheimer
Jeudi, 17/03/2005 - 00:00

Diabète de type un, deux et bientôt trois ? Des chercheurs viennent peut-être de découvrir une nouvelle forme de la maladie. Cérébrale celle-ci. Il semblerait en effet qu'une baisse de l'insuline dans notre cerveau soit liée à la maladie d'Alzheimer. Nous savions depuis un moment déjà que notre cerveau produisait de l'insuline. Une hormone indispensable à la survie des neurones et des cellules cérébrales. Nous savions aussi que le diabète pouvait entraîner une dégénérescence nerveuse, qui affecte notamment les membres inférieurs des diabétiques.

Une étude du Pr Suzanne de la Ponte et de son équipe, du Rhode Island Hospital aux Etats-Unis, va plus loin. Elle établit une relation directe entre diabète et maladie d'Alzheimer. Les chercheurs ont analysé post mortem, le cerveau de plusieurs patients atteints de maladie d'Alzheimer. Et ils ont constaté que la présence d'insuline y était "significativement réduite", particulièrement au niveau du cortex frontal, de l'hippocampe et de l'hypothalamus... Des zones directement affectées par la maladie. En clair, une chute de la production d'insuline cérébrale entraînerait une dégénérescence des cellules du cerveau, un signe avant-coureur de la maladie d'Alzheimer. Mais "ces anomalies -la baisse de production d'insuline cérébrale n.d.l.r.-ne correspondent nullement à un diabète de type 1 ou 2. Ils semblent être les conséquences d'une maladie plus complexe, peut-être un diabète de type 3" concluent les auteurs.

Journal of Alzheimer's Disease

Paludisme : plus d'un demi-milliard de cas par an dans le monde
Jeudi, 17/03/2005 - 00:00

Plus de 2 milliards de personnes dans le monde sont exposées au paludisme et environ 515 millions auraient souffert en 2002 de crises de paludisme, selon une étude redessinant la carte de la maladie, publiée dans la revue scientifique britannique Nature à paraître jeudi. L'épidémie serait plus répandue en Asie du Sud-Est que ne l'estime l'Organisation mondiale de la Santé (OMS), selon les auteurs qui présentent leur propre modèle d'estimations.

Dans le monde, de 300 millions à 600 millions de personnes ont eu en 2002 une crise de paludisme provoquée par le Plasmodium falciparum, le parasite responsable de la forme la plus répandue et la plus grave de paludisme, soit 50 % de plus que les estimations de l'OMS, soulignent-ils, en se référant à des statistiques remontant à 1998. Pour 2004, un document préliminaire de l'OMS estime à 402 millions le nombre de cas de paludisme dans 111 pays, dont 311 millions (de 270 à 400 millions) causés par le Plasmodium falciparum : 70 % ont concerné l'Afrique sub-saharienne et 18 % le Sud-Est asiatique.

Pour Robert Snow, du Kenya medical Research Institute de Nairobi et les autres auteurs de l'étude publiée dans Nature, pour lutter efficacement contre la maladie et déterminer les priorités, il faut revoir la cartographie de la maladie, en particulier hors d'Afrique. En 2002, 25 % des cas de paludisme ont été enregistrés dans les régions très peuplées d'Asie du Sud-Est, selon leurs travaux qui s'appuient notamment sur les études épidémiologiques figurant dans la banque américaine de données médicales PubMed.

Avec 365 millions de cas, soit 70 % du total, l'Afrique reste le premier continent victime de la malaria, autre nom donné au paludisme. En Afrique, les bureaux régionaux de l'OMS recherchent "activement" les données épidémiologiques de la maladie, alors que dans les autres régions du monde, ils s'appuient "passivement" sur des statistiques nationales, soulignent les auteurs de l'étude. Hors d'Afrique, le nombre de cas de paludisme à Plasmodium falciparum avait été estimé à 51 millions en 1995, "notre estimation de 150 millions de cas est considérablement plus élevée", soulignent-ils mettant en doute la fiabilité des statistiques nationales.

Alors que l'initiative de l'OMS "Faire reculer le paludisme" veut diviser par deux la mortalité d'ici 2010 et que l'OMS entend également arrêter l'extension de la maladie d'ici 2015, les agences internationales devraient, selon ces experts, revoir en priorité leur collecte de statistiques pour mesurer "l'ampleur du défi" qu'elles se sont fixé. Jugeant "importants" les travaux de Robert Snow et son équipe, le patron du Fonds mondial contre le sida, la tuberculose et le paludisme, Richard Feacham, a jugé qu'avoir des "chiffres exacts" était indispensable pour lutter contre la maladie, et que le Fonds devrait revoir à la hausse ses besoins en financement. Le paludisme tue plus d'un million de personnes par an dans le monde, dont 90 % en Afrique.

BBC

Nouveaux médicaments plus efficaces contre l'hypertension
Jeudi, 17/03/2005 - 00:00

Un cocktail de nouveaux médicaments a permis de réduire les risques d'infarctus et de complications cardio-vasculaires liées à l'hypertension, de 25 % et 15 % respectivement, selon une étude médicale présentée à Orlando. Cette étude, dont les résultats préliminaires ont été présentés devant le Congrès annuel de l'American College of Cardiology, a été conduite sur 19.000 personnes de 40 à 79 ans dans plusieurs pays européens du nord.

Selon une première analyse des données de ce vaste essai clinique, cette stratégie de traitement permettait de diminuer d'un tiers les risques de développer du diabète par rapport aux médicaments utilisés jusqu'à présent contre l'hypertension. L'étude fait ressortir qu'une combinaison du neutralisateur de calcium amlodipine et de l'inhibiteur de l'enzyme de conversion (IEC), perindopril, est nettement plus efficace contre l'hypertension que le traitement traditionnel à base de beta bloquants combinés à des diurétiques. Les beta bloquants, qui sont pour la plupart tombés dans le domaine public, sont vendus sous forme de médicaments génériques et communément prescrits depuis de nombreuses années pour traiter l'hypertension et les maladies cardio-vasculaires.

L'hypertension artérielle est le facteur de risque de maladies le plus commun dans le monde et selon les projections, elle devrait affecter 1,5 milliard de personnes dans le monde d'ici 2020, a relevé le Dr. Sever qui a supervisé cette étude. Il est donc essentiel de mettre au point des traitements plus efficaces, a-t-il ajouté.

NROM

Identification d'un gène responsable de la cécité liée au vieillissement
Jeudi, 17/03/2005 - 00:00

Des chercheurs américains ont identifié un gène qui serait responsable de près de la moitié des cas de dégénérescence maculaire liée à l'âge (DMLA), la principale cause de cécité chez les personnes de plus de 50 ans dans les pays riches. Jusqu'à présent le principal facteur de risque connu était une histoire familiale de la maladie. De précédents travaux avaient établi un lien entre la DMLA et une région située sur le chromosome 1. L'équipe dirigée par Josephine Hoh (Yale University) est allée plus loin en identifiant précisément le gène CFH. Ces résultats sont publiés aujourd'hui dans l'édition électronique de la revue Science. La macula est une petite zone située au centre de la rétine qui est essentielle pour l'acuité et la vision centrale. Les personnes atteintes de dégénérescence de la macula ne peuvent plus lire, conduire ou même reconnaître des visages.

Les chercheurs ont comparé une zone spécifique du chromosome 1 chez 495 personnes atteintes de DMLA, 185 personnes exemptes de la maladie, et enfin 182 personnes issues de familles à risque ayant ou non développé la maladie. Ils ont observé la même mutation sur le gène CFH chez la moitié des personnes atteintes de dégénérescence maculaire ou à très haut risque. La corrélation est encore plus forte chez les personnes souffrant des plus graves formes de DMLA.

Joséphine Hoh et ses collègues estiment que cette mutation génétique est impliquée dans environ 43 % des cas de DMLA. Cette découverte devrait permettre de mieux comprendre l'apparition et le développement de la maladie. A l'heure actuelle il n'y a pas de traitement de cette dégénérescence. La forme la plus rapide de la maladie, dite humide, peut être stoppée par une intervention mais la forme la plus lente dite sèche ou atrophique -qui est aussi la plus fréquente- n'est pas curable.

Science

Génomique : lancement d'une plate-forme de calcul informatique partagé
Jeudi, 17/03/2005 - 00:00

Lancée lors du Téléthon 2001, une première opération Décrypthon 3 avait permis la réalisation, en quelques semaines, d'une première base de données de toutes les protéines du monde vivant grâce à 75.000 ordinateurs individuels mis en réseau. Aujourd'hui, le Programme Décrypthon lancé le 15 mars permet à la recherche d'aller encore plus loin et encore plus vite dans la compréhension du vivant. Le Programme Décrypthon est une plate-forme technologique de pointe reposant à nouveau sur le Grid Computing (grille informatique). Cette plate-forme sera composée de deux grilles spécifiques pour générer la puissance de calcul nécessaire au traitement de projets de recherche très complexes.

Une grille dite "universitaire" est constituée des supercalculateurs des centres universitaires de Bordeaux 1, Lille 1 (USTL) et Pierre et Marie Curie (Paris 6 Jussieu), auxquels seront ajoutés des serveurs de dernière génération offerts par IBM. Un serveur central, fédérant l'ensemble de ces ressources, sera également offert par IBM à l'université d'Orsay (Paris Sud) qui en assurera l'exploitation. L'ensemble de ces ressources sera connecté par le réseau à haut débit Renater (Réseau National de Télécommunications pour la Technologie, l'Enseignement et la Recherche) qui relie les établissements français d'enseignement supérieur et de recherche.

Par ailleurs, une grille dite "d'internautes" pourra être activée dans un deuxième temps en fonction des projets scientifiques à venir. Elle accueillera alors les ordinateurs individuels d'internautes souhaitant participer au Programme Décrypthon en mettant à disposition des scientifiques des "cycles de calcul" non utilisés par leur machine.

TSR

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Classement mondial des TIC : Singapour détrône les USA
Jeudi, 17/03/2005 - 00:00

La nouvelle est historique : le 'World Economic Forum' vient de rendre son rapport annuel global, qui classe les performances de 104 Etats de la planète selon l'exploitation qu'ils font des technologies de l'information. Cette année, le grand gagnant est Singapour, qui détrône l'ancien grand leader de ce classement : les Etats-Unis. A l'inverse, les Etats-Unis reculent et passent de la première à la cinquième place après avoir gardé pendant trois ans d'affilée la tête de ce classement annuel.

Ce rapport, qui passe en revue Singapour s'est surtout distingué dans trois grandes catégories : les efforts des autorités pour appuyer l'utilisation des TIC, la qualité du système d'éducation en place, le coût abordable des télécommunications et des accès Internet. Si les Etats-Unis, après trois années de règne, ont perdu leur leadership, c'est plus à cause d'une montée en puissance des pays concurrents que d'une érosion de son utilisation des TIC : le rapport souligne que le pays est toujours extrêmement performant, que ses institutions de recherche et son système d'instruction sont de qualité. Des atouts importants, auxquels viennent s'ajouter un marché du capital-risque qui donne du dynamisme à l'innovation.

Les pays nordiques du continent européen continuent de se distinguer : le 'World Economic Forum' a attribué à l'Islande, la Finlande, le Danemark et la Suède les deuxième, troisième, quatrième et sixième places du classement. L'Islande est la nation qui a le plus amélioré sa condition dans le domaine des TIC : le pays était dixième au classement 2004. La France, en 20ème position, a en revanche perdu une place.

Du côté asiatique, Hong Kong et le Japon sont entrés pour la première fois au top ten du classement, tandis que l'Australie, Taiwan, la Nouvelle-Zélande, la Corée et la Malaisie se sont respectivement positionnés aux 11ème, 15ème, 21ème, 24ème et 27ème places. L'Inde et la Chine ont marqué des points, en glissant de la 45ème et 51ème places en 2003 à la 39ème et 41ème places cette année.

En Amérique du Sud, le Chili se classe 35ème, loin devant le Brésil (46ème), le Mexique (60ème) et l'Argentine (76ème). En Europe, c'est l'Estonie qui attire le plus les regards cette année : saluant la performance d'un cadre réglementaire facilitant l'usage des TIC, le rapport classe le pays à la 25ème place. En Afrique enfin, l'Afrique du Sud et la Tunisie ont bien renforcé leur position, passant des 37ème et 40ème rangs aux 34ème et 31ème cette année.

WEF

TIC : une entreprise sur 10 vend par un moyen électronique
Jeudi, 17/03/2005 - 00:00

L'usage des technologies de l'information et de la communication (TIC) est désormais largement répandu dans les entreprises françaises du secteur tertiaire, selon une étude de l'INSEE. La quasi totalité (97 %) des entreprises du commerce et des services, comptant plus de 10 salariés, étaient équipées en micro-ordinateurs à la fin 2002, relève l'étude. Elles utilisent pour 84 % le courrier électronique et pour 82 % l'Internet, auquel elles se connectent principalement pour rechercher des informations gratuites (9 entreprises sur 10), utiliser des services bancaires et financiers (6 sur 10) et pratiquer une veille professionnelle (6 sur 10). En revanche, seule une entreprise sur dix vend à distance par un moyen électronique (internet, échange de données informatisées et minitel), et cela ne représente en moyenne que 10 % de son chiffre d'affaires. D'ailleurs, si une majorité (61%) des entreprises ont une vitrine électronique, ce n'est souvent que pour se faire connaître et exposer produits et prix.

Insee

Dans un revirement de jurisprudence, la cour d'appel de Montpellier légitime la copie privée
Jeudi, 17/03/2005 - 00:00

Voila un arrêt qui n'a pas fini de faire couler beaucoup d'encre ! La cour d'appel de Montpellier vient en effet rendre une décision, le 10 mars, qui considère que le prévenu, poursuivi pour avoir téléchargé et copié 500 films, a respecté le droit de la propriété intellectuelle, puisqu'il n'en a fait qu'un usage privé. Les éditeurs vidéo se sont immédiatement pourvus en cassation.

La cour a confirmé la relaxe, prononcée en première instance par le tribunal de Rodez, à l'encontre d'un internaute poursuivi pour avoir téléchargé ou copié à partir de DVD prêtés, environ 500 films. Du côté des plaignants déboutés, figurent le Syndicat national de l'édition vidéo (SEV), la Fédération nationale des distributeurs de films (FNDF) et le studio Twentieth Century Fox.

Dans son arrêt, le juge s'appuie sur les articles L.122-3, L.122-4 et L.122-5 du code de propriété intellectuelle, qui stipulent que «lorsqu'une oeuvre a été divulguée, l'auteur ne peut interdire les copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective». La cour rappelle que «tout au plus, le prévenu a admis avoir regardé une de ces copies en présence d'un ou deux copains et avoir prêté des CR gravés à quelques copains». Elle estime qu'«on ne peut déduire de ces seuls faits que les copies réalisées ne l'ont pas été en vue de l'usage privé visé par le texte».

Cet arrêt est capital car le juge n'a pas tenu compte du fait de savoir si les fichiers d'origine sont licites ou pas, car d'un point de vue juridique, la loi ne distingue pas la source. Sa décision ruine l'argument selon lequel il faut absolument avoir l'original d'un CD ou d'un DVD pour être autorisé à en faire une copie à usage privé.

Cet arrêt prend le contre-pied du verdict, en première instance, rendu le 2 février dernier. La cour d'appel de Montpellier contredit également une décision du TGI de Paris du 4 mai 2004, déjà saisi par le SEV et qui estimait que la copie «d'une oeuvre éditée sur support numérique» peut «porter atteinte à son exploitation normale».

On ne s'en étonnera pas, les plaignants ne sont pas du tout satisfaits de cette décision. Ceux-ci rappellent que «le litige concerne des copies de films effectuées sur CD, dont une partie provenait de téléchargements préalablement effectués et qu'il considère que la copie, à partir d'une source illicite comme peut l'être un site d'échanges (ou de peer-to-peer) est toujours illégale». Le SEV a donc décidé de se pourvoir en cassation.

Si la Cour de cassation confirme l'arrêt de la Cour d'Appel de Montpellier, cela aura des conséquences considérables sur les industries du disque et du cinéma et risque notamment de conduire à l'instauration d'une taxe sur tous les disques durs ou de permettre le prélèvement d'une licence légale sur les abonnements internet. Autant dire que la décision de la Cour de Cassation est attendue avec impatience et sera examinée à la loupe par tous protagonistes.

Article @RTFlash

Faire ses courses au doigt mais pas à l'oeil
Jeudi, 17/03/2005 - 00:00

Les clients d'une chaîne allemande de supermarchés pourront bientôt payer leurs courses en posant leur doigt sur un scanner, évitant ainsi d'avoir à chercher espèces ou cartes de crédit. "Il suffit de se faire enregistrer une fois avec sa carte d'identité et ses coordonnées bancaires", a expliqué Roland Fitterer, responsable d'un magasin de Rülzheim, dans le sud-ouest de l'Allemagne, qui teste le système depuis novembre dernier. Le scanner compare ensuite l'empreinte digitale et celle conservée dans la base de données. L'enseigne envisage d'installer le système dans tous ses supermarchés de la région. Les responsables d'Edeka assurent qu'il ne peut pas être pris en défaut. Il existe une chance sur 220 millions que deux personnes possèdent une empreinte digitale similaire.

Reuters

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Lancement à Lyon de TOPCOMBI, pour une chimie compétitive et propre
Jeudi, 17/03/2005 - 00:00

Le 11 mars, les représentants de 22 institutions, issues de 11 des 25 pays-membres de l'UE, se sont retrouvés à Lyon pour lancer TOPCOMBI (*Towards Optimised Chemical Processes and New Materials by Combinatorial Science), un ambitieux projet intégré du 6e Programme Cadre pour la Recherche et le Développement Technologique (RDT) en Europe.

D'une durée de 5 ans et d'un budget de 23 M?, financé à 50 % par la Commission européenne, il a démarré le 1er mars 2005 avec pour coordonnateur scientifique Claude Mirodatos, directeur de recherche du CNRS à l'Institut de Recherches sur la Catalyse. Ce projet est relié à la volonté de la Commission européenne de développer une plate-forme technologique européenne pour la chimie durable afin de soutenir une industrie chimique européenne compétitive et propre. Le projet entend ainsi contribuer de manière significative à réduire les émissions de CO2 à court terme, et à atteindre les objectifs de Kyoto.

Cette plate-forme trouve ses premières fondations dans la plate-forme régionale de tests rapides de catalyseurs initiée par le programme « Emergence », soutenue par l'industrie lyonnaise (IFP, ARKEMA - TOTAL et RHODIA), ainsi que par le Conseil régional. Les objectifs affichés : accroître les efforts concertés au niveau européen et régional pour réhabiliter la chimie, en améliorer son statut de principale industrie, l'adapter aux contraintes européennes : moins polluante, moins coûteuse et plus miniaturisée.

Ces efforts relèvent d'un fort partenariat puisque 22 partenaires européens y sont associés. Issus de 11 pays différents, ce partenariat se distribue comme suit : 5 PME, 8 grandes entreprises (dont la compagnie française ARKEMA du groupe TOTAL), 7 universités et centres de recherche, 1 organisation spécialisée dans le management de projets et en communication scientifique, soit 2/3 d'industriels. Intégrant la masse critique d'activités et de ressources nécessaire pour atteindre des objectifs technologiques et scientifiques ambitieux dans le domaine de la catalyse, TOPCOMBI a pour finalités de :

-* maintenir et renforcer la compétitive et la viabilité de l'industrie chimique en Europe, et plus localement en Rhône-Alpes, grâce aux nouvelles techniques de chimie combinatoire,

-* pousser et soutenir la recherche chimique en Europe, en accélérant notamment la découverte de procédés catalytiques plus sûrs, plus propres, plus compacts et moins coûteux,

-* rationaliser l'utilisation des ressources énergétiques, réduire les émissions et améliorer globalement la qualité de l'environnement, enfin intensifier l'utilisation des bio-ressources renouvelables.

TOPCOMBI devrait à terme conforter la compétitivité et l'excellence du pôle chimie rhônalpin qui emploie plus de 100000 personnes.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top