RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 128
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Janvier 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La carte de France de l'Internet haut débit
L'inventeur du Web plaide pour la simplicité --
Artificial Life lance ses Web Services
Indétectable mouchard
Bientôt des antivols dans les disques durs
La question du brevetage des logiciels à nouveau au coeur de l'actualité
Linux prend Microsoft de vitesse pour l'Itanium
Les créatures virtuelles deviennent de plus en plus « vivantes
Un ange gardien pour populariser l'E-book
Avenir
Tourniquet à photons
Un biceps microscopique
Matière
Un écran plat conçu sur le mode de l'arc en ciel
Stocker l'hydrogène grâce aux nanotubes de carbone
Espace
L'univers se refroidit, le big-bang se vérifie
Terre
Chaud, chaud, l'Hexagone
Vivant
Premiers tests d'un vaccin contre le cancer du pancréas
Détecteur de métaux à ADN
Se faire vacciner par le biais de la nourriture : bientôt une réalité ?
Le thé et le vin protégeraient de l'infarctus du myocarde
La recherche marque un point décisif contre la maladie d'Alzheimer
Plus vieux mais pas plus bête
Recherche
Une puce Bluetooth dans les pneus
Les flottes suivies au mètre près
Bruit antibruit
Le MIT révèle son top 10 des technologies d'avenir
Edito
La nouvelle économie n'est pas celle de la gratuité mais celle du partage



Après avoir erré pendant des dizaines de millénaires, l'Homme a créé la civilisation moderne en devenant propriétaire d'un lieu, d'un espace sur lequel il s'est sédentarisé. Cette notion de propriété est co-substantielle de l'idée de la cité sur laquelle, depuis les grecs anciens, repose la Démocratie. Or, sans que nous en ayons encore bien conscience, ce socle qui soutient nos sociétés modernes depuis plus de 40 siècles est en train de se fissurer. Alors que depuis des millénaires, des guerres meurtrières et souvent fratricides ont été déclarées, et malheureusement se déclarent encore, pour conserver ou conquérir de nouveaux territoires qui nourrissent l'idée de patrie dès que la terre et le sang se mélangent, il est intéressant de noter que dans nos sociétés les plus avancées l'Homme accorde dorénavant plus d'importance au Temps qu'à la propriété d'espaces nouveaux. Nos ancêtres qui avaient besoin d'espace pour se nourrir et donc pour seulement survivre ne disposaient que de peu de temps puisque très souvent leur vie était très brève (moins de 30 ans sous Robert II le Pieux en l'An 1001). Or, le temps a cette particularité singulière face à l'espace, au sol, aux objets : personne ne peut en être propriétaire. Un bien rare est cher : les règles du marché ne s'appliquent pas au temps. Si nous revenons à nos ancêtres, il y a mille ans, nous constatons que leur vie était liée au rythme long des saisons et qu'hormis la phase vitale de reproduction, le temps était plus dicté par les semailles et les récoltes que par le quotidien. Aujourd'hui, alors que les enfants qui naissent en ce début du 3e millénaire dans nos pays sanitairement développés ont une chance sur deux de devenir centenaires, jamais le temps n'a semblé si rare. « Je n'ai pas le temps » est devenu une expression commune dans nos sociétés modernes. Notre vie est de plus en plus longue. Le temps mis à notre disposition est de plus en plus abondant et pourtant il nous devient de plus en plus précieux : nous sommes aux antipodes des règles d'airain du marché. Cela va nous obliger en ce début de troisième millénaire à repenser tous nos systèmes économiques : celui qui gagnera demain ne sera plus celui qui détiendra le plus de biens mais celui qui sera le plus rapide. C'est donc bien la notion de propriété qui se trouve en première ligne. La rapidité avec laquelle on peut accéder à l'usage d'un bien va devenir plus importante que sa possession. L'ère industrielle qui avait supplanté nos sociétés agraires en permettant au plus grand nombre de devenir propriétaire de biens matériels va devoir inexorablement s'effacer devant une nouvelle économie qui, instantanément, mettra à disposition de chacun, dans la limite de ses capacités contributives, les biens et les services dont il a besoin. Cette nouvelle économie avec ses nouvelles approches sociales et culturelles qui, très rapidement, va faire éclore une nouvelle politique (gestion de la cité), et donc une nouvelle Démocratie, est en train de prendre forme sous nos yeux sans que nous sachions encore bien la distinguer. Les biens immatériels devenant dorénavant plus importants que les biens matériels, ces nouveaux biens vont être mis à la disposition du plus grand nombre sans qu'il soit nécessaire d'en acquérir la propriété. Hier, seules les entreprises les plus riches pouvaient acquérir des logiciels « propriétaires » très onéreux. Maintenant, grâce aux nouvelles technologies, des millions d'utilisateurs peuvent instantanément accéder à des logiciels ouverts tout en ne réglant que des coûts marginaux. L'erreur qui a été faite lors des balbutiements de la nouvelle économie à la fin du 20e siècle a été de confondre la liberté avec la gratuité. Si nous voulons que la pompe de la nouvelle économie s'amorce avec force, il faut que nous acceptions de rémunérer l'usage d'un bien. La notion de propriété d'un bien va de plus en plus s'effacer pour laisser place à l'usage de ce bien mais pour que cette profonde mutation se passe sans trop de heurts, il nous faut très vite comprendre que la nouvelle économie n'est pas celle de la gratuité mais celle du partage.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La carte de France de l'Internet haut débit
Samedi, 06/01/2001 - 00:00

Ville par ville, et pour la première fois, SVM et VNunet ont établi la carte de France de l'Internet haut débit. Câble, ADSL et, bientôt, boucle locale radio... Attention, tout le monde n'est pas logé à la même enseigne. Découvrez en exclusivité si votre ville est raccordée, parmi les 400 répertoriées. Cliquez vite sur votre département ! Trop lent votre modem 56K ? L'Internet rapide par le câble ou l'ADSL vous fait envie ? Consultez vite notre carte de France de l'accès haut débit. Pourquoi une telle carte ? Parce que tous les français ne sont pas égaux devant le haut débit. Ainsi, fin 2000, le déploiement de l'ADSL ne touche qu'un tiers du territoire. Fin 2001, deux tiers seront couverts mais cela devrait constituer la limite de la technologie. Les zones les plus reculées seront donc, une fois de plus, sacrifiées. Quant au câble, les opérateurs se sont partagé les villes et doivent encore travailler aux raccordements des foyers. Pour vous permettre de vous y retrouver, nous avons répertorié 400 villes, ce qui correspond à presque toutes les localités de plus de 20 000 habitants. Et nous ne manquerons pas de mettre cette liste à jour régulièrement. Qu'est-ce que le haut débit va changer dans le paysage technologie français ? Quel calendrier de déploiement ? Quelle technologie ? Et pour quel prix ? Vous trouverez toutes les réponses à ces questions dans le numéro de janvier de SVM, actuellement en kiosque. A bon entendeur...

Vunet : http://www.vnunet.fr/htdebit/carte.htm

L'inventeur du Web plaide pour la simplicité --
Samedi, 06/01/2001 - 00:00

Le Web a commencé il y a dix ans avec un seul site: l'annuaire du Centre européen de recherche nucléaire (CERN) de Genève. Aujourd'hui, son inventeur, Tim Berners-Lee, constate le succès de la Toile, qui s'est enrichie de sept millions de sites mais il s'inquiète des velléités de contrôle sur ce qui a été conçu comme un réseau sans propriétaire privé. L'idée de l'informaticien britannique du CERN était de permettre des recherches dans des bases de données différentes, grâce à Internet, un ''inter-réseau'' créé pour l'armée américaine dans les années 1960. La simplicité de cette Toile (en anglais ''web'') est à l'origine de son succès, attesté par les 360 à 400 millions d'internautes actuels. ''Ce que je crains, c'est qu'on en fasse un système compliqué et que dans dix ans on se rende compte que cette technologie a des limites'', explique Tim Berners-Lee à l'agence Associated Press, s'inquiétant de ce que des sociétés tentent de mettre la main sur le Web en imposant des formats spécifiques et incompatibles entre eux. L'inventeur de la Toile, lui, n'a pas cherché à devenir riche, au contraire: il a formé en 1994 le World Wide Web Consortium, instance internationale administratrice de la Toile, qui veille à ce qu'elle demeure un système sans propriétaire grâce notamment à des standards d'échange des données. Il prépare d'ailleurs des normes pour le Web du futur afin de lutter contre le danger de fragmentation du réseau. Pendant plusieurs années, Berners-Lee a travaillé à son projet dans la plus grande discrétion, avec l'accord de ses supérieurs, et il a encore fallu plusieurs années pour que lui et ses collaborateurs croient à la pérennité de l'invention. ''Nous nous attendions à ce qu'un produit commercial ou un système fonctionnant sur Internet nous mette hors-course''. Mais la gratuité du Web l'a sauvé, contrairement au Gopher, réseau payant de l'Université du Minnesota, en 1993. Quelques mois plus tard, l'invention du navigateur Mosaic de l'Université de l'Illinois, premier à combiner textes et images, assurait le succès du ''World Wide Web'' (les fameux trois w des adresses électroniques). L'équipe à l'origine du Mosaic devait former Netscape, première société à commercialiser un navigateur (Netscape Navigator) pour la Toile, donnant le coup d'envoi de la Toile pour le grand public, et bientôt suivie par Microsoft et son ''Internet Explorer''. La voie était aussi ouverte à l'exploitation commerciale d'Internet. ''Ce qui m'a épaté dans les débuts, c'est la masse d'énergie placée bénévolement dans le développement de cette technologie. Dans le monde entier des gens ont donné un temps fou et des idées, collaborant sans concurrence'', se souvient Michael Folk, l'un des responsables de l'équipe universitaire du Mosaic. Tim Berners-Lee n'est pas pour autant choqué par le côté commercial du Web. ''Il n'a pas été conçu pour être restreint à aucun domaine'', rappelle-t-il, soulignant qu'il existe des sites non-commerciaux, notamment des pages personnelles ou des sites d'éducation et de recherche. ''Il est essentiel d'avoir une organisation neutre'', pour Tim Berners-Lee, qui n'a aucun regret, à part peut-être celui d'avoir écrit les adresses Web avec une double barre oblique (''//''). ''Je ne me rendais pas compte du nombre de personnes qui s'en serviraient et du temps que cela prendrait à dire ''slash, slash''''. Pour ne rien dire de la gymnastique articulatoire des trois doubles V.

Yahoo : http://fr.news.yahoo.com/001229/5/t48w.html

Artificial Life lance ses Web Services
Samedi, 06/01/2001 - 00:00

Artificial Life attaquera le marché européen des Web services en lançant en janvier prochain en Allemagne un nouveaux service Web financier et un site à partir duquel les utilisateurs pourront accéder à une technologie surnommé BotMe. Cette technologie permettra aux utilisateurs d'employer les robots Internet d'Artificial Life dans une nouvelle interface Web personnalisé et sur des terminaux mobiles. Crée en 1994, Artificial Life, fournit des robots Internet "conversationnels" pour les services clients des sites marchands, la formation en ligne, la response automatisée d'e-mails, l'aide à la navigation Web, etc. Et aussi un porte folio de gestion de services financiers. On note parmi ses clients Credit Suisse First Boston, Advance Bank, Eagle Star, et MobilCom.

France.internet.com : http://france.internet.com/

Indétectable mouchard
Samedi, 06/01/2001 - 00:00

Timing Attack permettrait aux éventuels indiscrets (Etats, entreprises...) de lire et d'analyser le contenu de la mémoire cache de n'importe quel ordinateur. Le scénario du "crime parfait" est le suivant: un internaute clique sur un site "espion". A ce moment là est activé un programme Java, aussi simple qu'indétectable (car il n'a pas besoin de se graver sur le disque dur), capable de décoder la mémoire cache de l'ordinateur piégé. Dans cette mémoire se trouvent enregistrées les dernières opérations effectuées par le surfeur, ce qui représente une information providentielle pour les vautours du renseignement en tout genre. En effet, en décodant l'historique des récentes navigations, une entreprise est à même de cerner les goûts, la tendance ou non à consommer sur le net d'un internaute donné...les indélicats obtiendraient ainsi les réponses aux réponses aux questions qu'ils se posent : "le site de mon concurrent apparaît-il dans la mémoire cache?" ou "l'expression achat en ligne a-t-elle été utilisée dans les deux derniers jours?". Indétectable et infaillible à 98%, très simple à programmer, cet outil plus qu'indiscret pourrait bien faire des ravages: accès aux mots de passe (web bancaire), flicage total des opinions (pages politiques), aperçu des habitudes de consommation (sites de vente en ligne)... rien n'échapperait au Timing Attack. L'équipe de chercheurs précise que pour l'instant, il n'y aucun moyen de prouver que cette technologie ait déjà été utilisée. En attendant, reste à espérer que les logiciels de navigation sur le web fassent des progrès, et soient capables de détecter l'indétectable.

Newsnet : http://www.lesnews.net/a.asp?ref=00122701

Bientôt des antivols dans les disques durs
Samedi, 06/01/2001 - 00:00

Le groupe “4C” composé d'Intel, IBM, Matsushita et Toshiba a créé une nouvelle technologie destinée à mettre fin au téléchargement de fichiers musicaux protégés par le copyright. Connue sous le nom de CPRM (Content Protection for Recordable Media), cette protection contre la piraterie déjà utilisée sur les supports amovibles, telles que les cartes mémoires des baladeurs MP3, pourrait être également intégrée aux disques durs. La technologie tend à neutraliser la copie de certains fichiers d'un disque dur à l'autre. Un disque dur équipé du système CPRM est "signé", c'est-à-dire qu'il intègre dans ces dispositifs de stockage une clé de numérisation unique, calculée à partir de son numéro de série. Un fichier CPRM arrivant sur le disque est reconnu et immédiatement codé selon la clé de numérisation. Ainsi verrouillées, les données de ce fichier ne sont alors plus accessibles qu'avec un numéro d'authentification qui leur permettra d'être décodées. Pour disposer de ce numéro il faut se connecter à un serveur central. Celui-ci fournit alors à l'utilisateur un numéro d'authentification spécifique au disque sur lequel le fichier est stocké. Il prend comme base de calcul la clé de numérisation du disque dur. Impossible donc d'utiliser un numéro pirate, puisque l'authentification est basée sur le numéro de série du support de stockage et non plus celui du produit. On le comprend, le CPRM vise à soulager les grandes majors du cinéma et de la musique qui ont vu leurs contenus transiter librement sur le net avec des logiciels tels que Napster ou Gnutella. Ces dernières craignent une répercussion sur les ventes de CD et dans une moindre mesure de DVD, bien que le transfert de vidéos pirates sur le net tende à se développer avec l'arrivée des connexions à haut débit. Ce dispositif pourrait arriver très vite sur le marché. IBM a ainsi annoncé être en mesure d'intégrer le système sur ses disques durs dès juin 2001.

ZDnet :

http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=17514

La question du brevetage des logiciels à nouveau au coeur de l'actualité
Samedi, 06/01/2001 - 00:00

Encore une fois, le système des brevets dans le domaine des logiciels s'illustre par un conflit juridique. NetZero, un des fournisseurs d'accès Internet financé par la publicité, poursuit un de ses concurrents, Juno Online, pour avoir violé son brevet sur les pop-up publicitaires. Même si cette technique est présente partout sur le Net, le bureau américain des brevets a accordé à NetZero une patente sur le concept de fenêtre de publicité en pop-up permettant de financer l'accès Internet. Comme un grand nombre de sites Web, Juno utiliserait ces fenêtres publicitaires s'ouvrant automatiquement lorsque les internautes accèdent à ce site Web. Ce nouveau procès n'est pas le premier épisode judiciaire entre les deux protagonistes. En juin 2000, c'est Juno qui attaquait NetZero pour violation de brevet sur une autre technologie publicitaire. Il s'agissait alors du concept de stockage d'un contenu publicitaire sur le disque dur du client et de sa diffusion lorsque les internautes ne sont plus en ligne. L'enjeu de ce procès n'est pas de condamner la pratique du site de Juno mais de le faire payer et ainsi créer un précédent pour les autres concurrents de NetZero qui seront poussé à payer l'usage de ce brevet plutôt que de s'engager dans des procès. Cette praique est appliquée par les principaux groupes américains. Leur stratégie est de déposer des milliers de brevets sur certains concepts logiciels pour rendre très difficile la concurrence. Plusieurs actions en justice sont actuellement traitées aux USA sur le thème des brevets logiciels. British Telecom a entrepris une action contre Prodigy, l'un des principaux fournisseurs d'accès Internet américain sur l'emploi abusif du concept de liens hypertextes. Là aussi, la compagnie anglaise a réussi à faire enregistrer son brevet auprès de l'autorité américaine de gestion des brevets. La situation française et européenne n'est pas comparable et ce type de conflit n'est pas encore envisageable dans l'Hexagone. Au niveau européen, les logiciels sont exclus du domaine des brevets.

TF1 :

http://infos.tf1.fr/info/multimedia/article.cfm?&id_contenu=147302

Linux prend Microsoft de vitesse pour l'Itanium
Samedi, 06/01/2001 - 00:00

L a prochaine puce d'Intel tournera sous Linux avant Windows. L'Itanium, anciennement connu sous le nom de code de Merced, s'adresse au marché des serveurs et stations haut de gamme. Principale évolution, il s'agit d'un processeur 64 bits, contre 32 bits pour les puces actuelles. Cela signifie qu'il peut traiter deux fois plus de données par cycle d'horloge et qu'il doit fonctionner avec un système d'exploitation adapté, fonctionnant lui aussi en 64 bits. Microsoft a prévu de sortir une version 64 bits de Windows au second semestre 2001. Or, selon des sources proches d'Intel, citées par CNET, la nouvelle puce pourrait être en circulation dès le mois de mai. Soit bien avant qu'une plate-forme Windows ne soit disponible. Un délai que vont exploiter les distributeurs de Linux tels que Red Hat, Turbolinux ou Caldera, qui ont annoncé être en mesure de proposer des solutions pour Itanium en même temps que la sortie du nouveau fleuron d'Intel. Principale explication : Linux tourne avec des processeurs 64 bits depuis des années, notamment sur les stations de calcul Alpha de Compaq. Son adaptation pour l'Itanium est donc beaucoup plus rapide que celle de Windows, qui a été développé exclusivement en 32 bits.

Les créatures virtuelles deviennent de plus en plus « vivantes
Samedi, 06/01/2001 - 00:00

« SPÉCIALISTE du personnage virtuel. » Telle est la qualité revendiquée par la société Attitude Studio, fondée en mars et dirigée par un jeune homme de vingt-quatre ans, Marc Viance. La première création de l'entreprise se nomme Eve. Elle a vingt-deux ans et toutes les ambitions. Un premier clip vidéo d'une minute trente démontre son réalisme. « La pierre angulaire de notre travail consiste à donner de la vie à nos personnages », résume Marc Viance. En quoi Eve se distingue-t-elle d'autres personnages virtuels tels qu'Ananova, la première présentatrice artificielle d'information (Le Monde du 21 avril), ou Lara Croft, l'héroïne du jeu vidéo Tomb Raider ? « La première n'existe que sur Internet, elle est coupée aux épaules et ne dispose que de deux formes de bouche tandis que la seconde n'évolue que dans des situations de combat et d'action sans grande expressivité du visage », répond sans ménagement le PDG. Attitude Studio prétend, avec Eve, créer une « véritable » personne. Relever un tel défi impose de franchir une étape technique décisive. Il s'agit en effet de doter le comportement de la créature virtuelle d'un degré de réalisme suffisant pour faire tomber le spectateur sous le charme. Intégrée à un décor artificiel ou réel en compagnie d'autres acteurs, en chair et en os ou en images de synthèse, Eve doit paraître vivante, faire preuve d'un caractère propre et exprimer des émotions humaines. La courte vidéo suffit pour démontrer que le pari est pratiquement gagné. Eve « existe » et, avec un peu d'entraînement, elle devrait rapidement démontrer qu'elle est « vivante ». Pour parvenir à un tel résultat, Attitude Studio ne lésine pas sur les moyens et va jusqu'à se priver de l'un des atouts du recours à l'informatique. En effet, au lieu de faire l'économie d'un acteur humain, elle fonde sa technique sur la numérisation en trois dimensions (3 D) du corps et du visage d'un comédien en chair et en os. L'entreprise fait appel aux techniques connues de capture de mouvement (motion capture). Plusieurs caméras enregistrent les déplacements dans l'espace de trente-six marqueurs, des repères visuels fixés sur les membres et les articulations de l'acteur. Thierry Mugler a utilisé ce procédé pour donner à son mannequin virtuel la démarche caractéristique des modèles de défilé de mode. A ce stade, le personnage virtuel peut être créé en associant des caractéristiques physiques prédéfinies, correspondant à Eve par exemple, et le jeu enregistré de l'acteur humain. Il ne reste plus qu'à intégrer l'ensemble dans un décor, réel ou artificiel, en tenant compte des effets de lumière et d'ombres. La recherche de réalisme peut s'appliquer également à des créatures aussi imaginaires que les célèbres monstres d' Alien en leur donnant des attitudes humaines. Un véritable comédien peut jouer une scène avec Sigourney Weaver avant qu'il ne soit remplacé par le corps fantasmagorique du visiteur venu de l'espace. « Les créatures de science-fiction sont souvent bipèdes », remarque Marc Viance. Et l'humanisation des monstres est déjà largement utilisée « comme dans Dragon Heart où le monstre prend des expressions de Sean Connery », précise-t-il. Au-delà des applications dans les trucages cinématographiques, Attitude Studio vise le débouché des nouvelles formes de narration issues des jeux vidéo. « D'ici quatre ans, les »films jouables« en trois dimensions envahiront Internet », assure Marc Viance en s'appuyant sur le succès rencontré au Japon par des jeux comme Shen Mue conçu pour Sega par « Yu Suzuki ». Le réalisme des images et la complexité des interactions avec environ 300 personnages tendent à donner au joueur une sensation croissante d'immersion dans l'univers du jeu et d'identification avec le héros dont il contrôle chaque geste. « L'objectif, c'est d'atteindre la même qualité d'image qu'au cinéma. » Attitude Studio est en cours de négociation pour lancer, d'ici six mois, un personnage de jeu vidéo. Une version exécutable via Internet est tout à fait envisageable pour Marc Viance. Il estime qu'un ordinateur équipé d'un modem 56 kbps et d'une carte accélératrice 3 D fournira des images fluides même si la définition sera inférieure à celle du CD-ROM ou du DVD-ROM.

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2077-131133-QUO,00.html

Un ange gardien pour populariser l'E-book
Samedi, 06/01/2001 - 00:00

La start-up française Mobipocket.com est créé en mars dernier avec une levée de fonds de première levée de fond de 9 millions de francs dont 6 millions de francs apportés par Viventures, la filiale de capital risque de Vivendi, pour permettre aux utilisateurs de PDA de télécharger et de lire des e-books, des livres électroniques et des informations quotidiennes de sites médias partenaires comme ceux du Groupe Expansion. Pour développer son marché, la start-up française multiplie les partenariats et va chercher des signatures médiatiques. Dernière en date ? Celle de Pierre Jovanovic, auteur du best-seller international "Enquête sur l'existence des anges gardiens". Pour la sortie de son second livre "Le Prêtre du Temps", l'écrivain choisit d'éditer un e-book avec Mobipocket. Et le met en téléchargement depuis le site de Mobipocket pour 49 F. Le crédo de Pierre Jovanovic ? "Le livre électronique mérite largement d'être supporté car il bouleverse totalement les relations auteur/éditeur, et permet d'atteindre des lecteurs plus jeunes, qui, selon les professionnels de l'édition, ont déserté les rayons des librairies traditionnelles." indique l'écrivain qui fait ainsi figure de pionnier. De son côté, Mobipocket revendique 1 150 000 pages vues.

Yahoo : http://fr.news.yahoo.com/001229/58/t3ne.html

^ Haut
Avenir
Nanotechnologies et Robotique
Tourniquet à photons
Samedi, 06/01/2001 - 00:00

Les chercheurs de l'UCSB (Université de Santa Barbara en Californie) ont mis au point un appareil capable d'émettre un photon à la fois. Ce "tourniquet à photons" est en fait un disque minuscule (200 nanomètres d'épaisseur) stimulé par un laser. Il pourrait servir à émettre des clés inviolables pour crypter des documents. En effet, toute personne qui tenterait d'intercepter un tel message le détruirait irrémédiablement. D'autres applications peuvent être envisagées dans le domaine de l'informatique quantique.

Brève rédigée par @RT Flash

New Scientist : http://www.newscientist.com/

Un biceps microscopique
Samedi, 06/01/2001 - 00:00

On n'a, nous dit le magazine Science dans son édition du 8 décembre 2000, encore rien vu dans le domaine de la nanotechnologie. Edwin Jager et Olle Inganäs, de l'Université de Suède, développent des nano-structures appelées actionneurs. Il s'agit d'un minuscule appareil mécanique capable de bouger ou de contrôler des objets, ou de manipuler des entités biologiques, comme des cellules, des bactéries, ou des molécules flottant dans le plasma sanguin ou l'urine. Les actionneurs sont construits à partir de minces couches de polymère déposées sur une mince couche d'or. Cette double-couche est pliée pour former un nano-instrument (ou une des composantes de ce nano-instrument) grâce à des rayons ultra-violet. Celui des Suédois ne mesure que 0.9 micromètre (un micromètre = un millionième de mètre). Le polymère, appelé polypyrrole, se contracte ou se tend dès qu'il reçoit un choc électrique. Comme le muscle qui fait bouger l'os du bras, le polymère initie le mouvement des nano-instruments. Le biceps suédois ferait pâlir d'envie tous les culturistes. Il est capable de soulever une masse 43,000 supérieure à la sienne. Comme si un bras humain soulevait une plaque de verre de 30 mètres carrés sous l'eau. En utilisant ces actionneurs, Jager et ses collègues ont manufacturé plusieurs nano-instruments, notamment un bras robotisé long de 670 micromètres, capable d'agripper et de déplacer un microscopique bille de verre. Il pourrait éventuellement déplacer des cellules une par une. Les actionneurs pourraient aussi servir de charnières sur de microscopiques boîtes s'ouvrant et se fermant sur commande. Implantées dans le corps, ces micro-ampoules pourraient par exemple fournir la dose exacte d'insuline à des diabétiques, en s'ajustant à des mesures sanguines. En nanotechnologie, tout est possible. Imaginez : dérouler notre ADN gène par gène ou guérir des cellules malades à un niveau moléculaire. Bienvenue dans le monde de l'infiniment petit !

Cybersciences : http://www.cybersciences.com/cyber/3.0/N2155.asp

^ Haut
Matière
Matière et Energie
Un écran plat conçu sur le mode de l'arc en ciel
Samedi, 06/01/2001 - 00:00

Après les écrans à plasma, les écrans organiques et les écrans à cristaux liquides, les écrans i-mod, basés sur une technologie inédite, pourraient révolutionner la gamme des écrans plats. Selon un article paru sur economist.com, les chercheurs d'Iridigm Technology, une société basée à San Francisco, ont trouvé le moyen de concevoir des écrans plats en contrôlant les interférences des longueurs d'ondes. Ils reproduisent en fait le phénomène naturel qui fait apparaître des arcs en ciel dans les flaques d'huile et les couleurs bleues sur les ailes des papillons Morpho d'Amérique du Sud. La technique employée par Iridigm Technology pour créer des écrans consiste à produire des pixels formés à partir d'une série de miroirs inclinables, de façon à pouvoir ajuster la longueur des ondes qui se réfléchissent. Ces miroirs peuvent être réglés dans quatre positions différentes. Trois d'entre elles correspondent au vert, au rouge et au bleu. La dernière position correspond au noir. La taille réduite des miroirs, qui varie de 30 à 40 microns, permet, en théorie, d'en insérer jusqu'à 80 000 dans un centimètre carré. Ce qui devrait conduire à une excellente résolution. D'après Mark Miles, responsable de la technologie chez Iridigm, la résolution de l'écran i-mod serait comparable à celle d'une photo imprimée avec une bonne imprimante laser.

Europinfos :

http://www5.europeinfos.com/cgi-bin/login.cgi?type=2&oid=123159

Stocker l'hydrogène grâce aux nanotubes de carbone
Samedi, 06/01/2001 - 00:00

Le développement actuel des piles a combustible engendre une euphorie dans la recherche sur le stockage de l'hydrogène : source d'énergie abondante, bon marche et non polluante. La «bonne solution», tant en matériau qu'en process, devra associer une forte rétention en hydrogène, une énergie de dissociation de hydrogène favorable, un faible coût d'exploitation, une certaine sécurité d'utilisation ainsi qu'une possibilité de travail a température ambiante et a basse pression. Les deux voies prometteuses sont les hydrures métalliques et les nanotubes de carbone. L'Agence Internationale de l'Energie (IEA) souhaite trouver un de ces matériaux capable de retenir de l'ordre de 5 % en masse hydrogène avec une température de désorption inférieure a 100°C. D'après Gary Sandrock (IEA), le plus performant des hydrures métalliques est le NaAlH4 (capacité de stockage hydrogène a 4-5m% et une température de désorption Td de 125°C). Les nanotubes n'ont, pour l'instant, pas été autant étudiés que les hydrures, mais des résultats sembleraient indiquer des capacités de rétention a 7m% et des températures de désorption inférieures a 100°C. Les études sur les hydrures métalliques sont déjà bien avancées. Déjà utilises dans certaines batteries, ils ne libèrent hydrogène stocke qu'a de trop fortes températures. Craig Jensen, Universite d'Hawai, a amélioré de manière significative les catalyseurs de re- et de- hydratation du NaAlH4 (4.5m% et Td<100°C). Cependant d'autres problèmes apparaissent comme la forte réactivité de ce produit avec l'eau et sa longue recharge nécessaire. Des contacts ont cependant déjà été établis avec des sociétés automobiles américaines et japonaises. D'autre part, les laboratoires Ames (Vitali Pecharsky) essaient d'optimiser d'autres alliages a base de magnésium. Un procédé innovateur permet de réduire les coûts d'élaboration, par conversion directe en poudre de l'alliage fondu utilisant une technique d'atomisation gaz a haute pression, pour atteindre une bonne homogénéité du produit. L'année dernière, Hui-Ming Cheng, Academie chinoise des Sciences, avait obtenu des nanotubes de carbone a simple paroi (SWNTs) par une méthode de décharge en arc hydrogène. Ces nanotubes possèdent 4,2m% de rétention en hydrogène a température ambiante, mais seulement 78,3% susceptible d'être relâche a température ambiante, et a de fortes pressions seulement (>6MPa). D'autre part, Michael Heben, National Renewable Energy Laboratory, a lui fabrique par vaporisation laser des nanotubes avec 3,5-4,5 m% de rétention. Enfin, Karl Johnson, Universite de Pittsburg, s'est intéressé aux limites de rétention de hydrogène dans les nanotubes de carbone et les fibres nanometriques en modélisant les interactions moléculaires entre hydrogène et le carbone graphite. Ses résultats ne correspondent pas encore aux données expérimentales.

Lettre des nouveaux matériaux :

http://www.france-science.org/>http://www.france-science.org.

^ Haut
Espace
Espace et Cosmologie
L'univers se refroidit, le big-bang se vérifie
Samedi, 06/01/2001 - 00:00

Le voile se lève sur l'origine de l'univers. La théorie du big-bang vient de trouver une nouvelle et solide confirmation. La démonstration tient en une histoire de température. Trois astrophysiciens sont parvenus à prouver que, dans son passé, l'univers était plus chaud qu'aujourd'hui. C'est simple, mais c'est une première dans le monde de l'astrophysique. Leur observation vient renforcer l'idée que l'univers est né d'une explosion suivie d'une phase d'expansion, au cours de laquelle il n'a cessé de se refroidir. La théorie le prédisait. Personne n'avait pu jusqu'alors le vérifier. Patrick Petitjean, de l'Institut d'Astrophysique de Paris (CNRS), Raghunathan Srianand, du Centre d'astronomie et d'astrophysique de Pune (Inde), et Cédric Ledoux, de l'Observatoire européen austral, signent ce tour de force dans la revue Nature parue cette semaine. «La température que nous avons mesurée est celle du fond diffus cosmologique, il y a douze milliards d'années», explique Patrick Petitjean. Selon la théorie du big-bang, ce fond diffus cosmologique est le rayonnement émis 500 000 ans après la création de l'univers. Il a été observé pour la première fois en 1964 par les ingénieurs américains Penzias et Wilson. La mission spatiale Cobe (Cosmic Background Explorer), en 1994, a permis de déterminer très précisément sa température actuelle: 2,726° K (1). «Or notre expérience a démontré que, il y a douze milliards d'années, la température de ce rayonnement était de 9,5° K (2). Cette mesure correspond exactement à ce que prédisait la théorie du big-bang, à quelques incertitudes près», rapporte l'astrophysicien. Et confirme bien que l'univers se refroidit. Patrick Petitjean et ses collègues ont réalisé cette découverte au Chili, sur le mont Paranal, avec le télescope Kuyen. Cet instrument de huit mètres de long est l'un des quatre nouveaux télescopes du VLT (Very Large Telescope) européen. Tout a commencé le 1er avril 2000, lors de la première nuit d'observation avec l'appareil. Le chercheur décide de pointer l'objectif vers un quasar, un objet extrêmement lumineux que l'on détecte même s'il est situé aux confins de l'univers. Son nom est barbare: PKS1232 + 0815. L'intérêt de cet astre est qu'«il émet une lumière intense qui, pour nous parvenir, parcourt une bonne partie de l'univers. En chemin, elle traverse des halos, des disques de galaxies et même des nuages solitaires peuplant le vide intergalactique». Or ces obstacles absorbent une partie de la lumière de l'astre. C'est en étudiant le spectre du quasar que l'on peut détecter leur présence et déterminer leurs propriétés physiques. «Une chance: à douze milliards d'années-lumière, nous sommes tombés sur un nuage de gaz extrêmement intéressant interposé par hasard entre nous et le quasar.» Dans ce nuage se trouvent des atomes de carbone et des molécules d'hydrogène en abondance. Des atomes qui s'agitent sous l'effet des photons du fond diffus cosmologique dans lequel ils baignent. «Il suffit de mesurer l'excitation des atomes pour déterminer la température du fond diffus cosmologique.» Et donc connaître la température ambiante de l'Univers, il y a douze milliards d'années. Plusieurs équipes américaines avaient bien essayé de mener à bien cette expérience. En vain. La recette du succès selon Patrick Petitjean? «La supériorité du nouvel instrument européen sur son concurrent américain. Et quelques petites astuces de la part de notre équipe...», qui leur ont permis de soulever un peu plus le voile qui couvre le mystère de l'Univers. John Bahcall, de l'Université de Princeton (Etats-Unis), ne masque pas son admiration dans un commentaire publié dans la même édition de la revue Nature. Il souligne qu'une température mesurée à un niveau inférieur à la prédiction aurait mis le modèle du big-bang par terre. Il laisse pourtant percer une pointe d'amertume: «Cela aurait été plus excitant si la théorie avait échoué, nous contraignant à proposer un nouveau modèle d'évolution de l'univers.».

Libération :

http://www.liberation.com/quotidien/semaine/20001222venzd.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Chaud, chaud, l'Hexagone
Samedi, 06/01/2001 - 00:00

Les vingt-deux stations météorologiques réparties dans toute la France ont rendu leur verdict. L'année 2000 a été, avec l'année 1994, la plus chaude du siècle en France. Au plan mondial, l'an 2000 prend la cinquième position. En 1998, 1997, 1995 et 1990, le mercure était monté encore plus haut. Température annuelle moyenne sur le territoire français cette année: 12,9°C. «Sur 90 % du territoire français, nous enregistrons des écarts de 1 à 3°C au-dessus des températures moyennes normales», remarque Jean-Pierre Céron, directeur adjoint de la climatologie de Météo France. «Le problème maintenant est de savoir si ce que l'on constate s'inscrit dans la gamme naturelle de variabilité du climat ou bien si c'est en dehors.» Et si le phénomène s'expliquait par le réchauffement global de la planète lié au rejet des gaz à effet de serre, comme le dioxyde de carbone, le méthane ou l'oxyde nitreux, par exemple? Les données de la seule année 2000 ne permettent pas de répondre à la question. Mais les températures enregistrées pendant ces dix dernières années semblent appuyer la deuxième hypothèse. «La dernière décennie a été la plus chaude du siècle en France et dans le monde, explique le directeur adjoint de la climatologie de Météo France. A la surface du globe, la température moyenne est supérieure de 0,3°C à la moyenne enregistrée entre 1961 et 1990. Trois dixièmes de degrés, cela ne semble pas beaucoup, mais à l'échelle mondiale, c'est énorme. Et cela correspond bien aux simulations obtenues avec nos modèles informatiques de climatologie.» Les chercheurs toulousains ont demandé à leurs logiciels de prévoir l'évolution des températures sur une période d'une centaine d'années. En prenant en compte diverses concentrations en gaz à effet de serre et en comparant ces prévisions avec celles obtenues si l'émission de rejets n'avait pas augmenté depuis un siècle. Résultat: lorsque les émissions de gaz à effet de serre augmentent, la température suit. «Le réchauffement global constaté ces dernières années est donc très probablement lié aux émissions de gaz à effet de serre», suppose Jean-Pierre Céron. Mais comment expliquer la différence de hausse de température moyenne entre le nord et le sud de la France? Sur un siècle d'enregistrements climatiques, la température au Nord a augmenté de 0,6°C et alors que celle au Sud a augmenté de 1°C. Ces observations concordent avec les simulations des chercheurs, quoique légèrement plus élevées, mais les climatologues se refusent encore à les expliquer précisément. Et leurs modèles numériques ont du mal à les aider. Les logiciels ne peuvent pas projeter de simulations sur une si petite échelle géographique. «Leurs mailles sont encore trop larges et grossières», reconnaît le climatologue. Ces modèles ne peuvent pas différencier deux points éloignés de moins de 300 km. Or les rejets ne sont pas limités aux régions industrialisées. «Ils se mélangent dans l'atmosphère et agissent sur l'ensemble de la planète, explique-t-il. L'effet le plus sensible se remarque d'ailleurs dans les hautes latitudes, les régions polaires, pendant l'hiver. Où il n'y a aucun rejet direct.» Pour améliorer leurs simulations et éventuellement comprendre cette différence Nord-Sud, les chercheurs vont donc devoir mettre au point un modèle informatique encore plus sensible, valable à plus petite échelle et «doté de mailles géographiques plus fines».

Libération : http://www.liberation.com/quotidien/index.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Premiers tests d'un vaccin contre le cancer du pancréas
Samedi, 06/01/2001 - 00:00

Des chercheurs de la Johns Hopkins University ont procédé aux premiers tests d'un vaccin dirigé contre le cancer du pancréas. D'après leurs résultats, il s'avère sûr et a stimulé les cellules du système immunitaire. Les résultats de leur étude sont à paraître dans le numéro de janvier 2001 du Journal of Clinical Oncology. Le Dr E. Jaffee, principal auteur de cette étude, et ses collaborateurs ont testé le vaccin sur 14 patients en utilisant des cellules cancéreuses pancréatiques génétiquement modifiées par insertion du gène GM-CSF (GM-CSF possède des effets stimulants sur la prolifération et la différenciation des polynucléaires neutrophiles et des cellules macrophagiques). Après intervention chirurgicale visant à éliminer la tumeur pancréatique, les patients ont reçu diverses doses vaccinales. Douze d'entre eux ont subi une radiothérapie et une chimiothérapie suite à la vaccination. De plus, six patients ont reçu jusqu'à trois doses vaccinales mensuelles supplémentaires. Les auteurs ont trouvé que plusieurs niveaux du système immunitaires ont été activés chez les trois patients qui avaient reçu la dose de vaccin la plus élevée. Pendant plus de 30 mois après le diagnostic, il n'y a pas eu de rechute ces chez patients. Chez les 11 autres patients, il n'y a pas eu de réponse immunitaire significative. Parmi les effets secondaires rencontrés, des réactions locales, des rougeurs et des démangeaisons au niveau du site de la vaccination ont été observées.

Brève rédigée par @RT Flash

Science Daily :

http://www.sciencedaily.com/releases/2000/12/001229084753.htm

Détecteur de métaux à ADN
Samedi, 06/01/2001 - 00:00

Des chercheurs de l'Université de l'Illinois (Etats-Unis) ont fabriqué un détecteur de métaux à partir d'un échantillon d'ADN. L'idée est de se servir de la capacité des corps vivants à réagir aux poisons que sont le plomb, le mercure ou le cadmium. Pour identifier les bons brins d'ADN parmi plusieurs trillions d'échantillons, les scientifiques ont utilisé des algorithmes génétiques, sorte de sélection naturelle améliorée. Il ne leur restait plus qu'à attacher à ce brin d'ADN un corps fluorescent, lui-même relié à une fibre optique. Résultat : quand la puce détecte l'un des métaux dangereux, la lumière s'allume. Selon ses inventeurs, le procédé est instantané et bien moins coûteux que les techniques actuelles. Ces "biocapteurs" pourraient trouver des applications dans la lutte anti-pollution, mais aussi en toxicologie clinique ou dans l'industrie. C'est la première fois que la technologie des "puces à ADN" est utilisée dans la détection de métaux.

Futurs : http://www.futur-e-s.com

Se faire vacciner par le biais de la nourriture : bientôt une réalité ?
Samedi, 06/01/2001 - 00:00

Et s'il suffisait de se contenter de manger tranquillement pour se faire vacciner contre de nombreuses pathologies infectieuses ? Non, ce n'est pas de la science-fiction ! De plus, en terme de santé publique, ceci pourrait être une "solution miracle " pour de nombreux pays en voie de développement. Dans les pays occidentaux, rien n'est plus naturel que de vacciner les enfants et les moins jeunes. Pourtant, la vaccination n'est pas si accessible qu'elle ne le paraît ! Elle nécessite des coûts de production importants. De plus les conditions de stockage des doses vaccinales exigent une continuité de la chaîne du froid, et donc une lourde logistique. Toutes ces raisons rendent difficile la vaccination de masse dans de nombreux pays du tiers-monde. Or, la vaccination est la meilleure prévention de nombreuses et graves pathologies infectieuses. Sa généralisation est donc une priorité de santé publique. Une étude parue dans "Nature Biotechnology" ouvre de nouveaux horizons. Des chercheurs américains ont manipulé génétiquement des pommes de terre afin qu'elles expriment l'antigène HBs, l'un des marqueurs de l'hépatite B chez l'homme. Un contingent de souris a été nourri avec ces pommes de terre : elles ont développé alors des anticorps sériques spécifiques contre cet antigène. Ceci signifie qu'un aliment génétiquement modifié d'une façon spécifique peut induire l'apparition d'une immunisation contre un agent infectieux chez le sujet qui le consomme. Cette étude doit obligatoirement être complétée par des essais complémentaires afin de parfaire et de valider les résultats obtenus. Elle a le mérite néanmoins de laisser entrevoir de nouvelles perspectives en terme de vaccination, particulièrement intéressantes pour les pays du tiers-monde.

Csanté : http://fr.yahoo.com/partners/comsante2/?http://www.csante.com

Le thé et le vin protégeraient de l'infarctus du myocarde
Samedi, 06/01/2001 - 00:00

La consommation de flavones et de flavonols, composés trouvés en particulier dans le thé et le vin, protégeraient contre linfarctus du myocarde non fatal. Par contre, concernant la mortalité consécutive à une maladie coronarienne, la protection serait faible. Ce sont les résultats dune étude à paraître dans lédition de janvier 2001 de la revue Epidemiology.Les flavonols et les flavones sont des antioxydants polyphénoliques que l'on trouve dans le thé, les légumes, les fruits et le vin. Des études expérimentales ont montré que ces molécules présentaient des propriétés anti-radicaux libres, antithrombolytiques et de chélation des métaux. Quelques études épidémiologiques suggéraient une association inverse entre la consommation de flavones et de flavonols et le risque de maladies cardiovasculaires. Le Dr T. Hirvonen et ses collaborateurs ont conduit une étude randomisée, en double aveugle, contre placebo faisant intervenir 25.372 individus de sexe masculin, âgés de 50 à 69 ans et sans antécédent d'infarctus du myocarde. Les participants ont reçu une supplémentation quotidienne en alpha-tocopherol (50 mg/jour) et/ou en béta-carotène (20 mg/jour). L'étude montre qu'après 6,1 ans de suivi, il y a eu 1.122 infarctus du myocarde non fatal et 815 décès suite à une maladie coronarienne. Le risque d'avoir un infarctus du myocarde non fatal est plus faible parmi les hommes ayant la consommation de flavone et flavonol la plus importante, comparé à ceux qui ont la consommation la plus faible. Par contre, en ce qui concerne le risque de décès consécutif à une maladie coronarienne, la protection apportée par ces substances est minime. Ainsi, la consommation de flavonols et flavones est inversement associé à l'infarctus du myocarde non fatal, tandis qu'il y a une plus faible association vis à vis de la mortalité par maladie coronarienne.

Caducée : http://www.caducee.net/

La recherche marque un point décisif contre la maladie d'Alzheimer
Samedi, 06/01/2001 - 00:00

Six articles parus dans deux revues de renommée internationale, « Nature » et « Science », signalent la mise au point d'un vaccin et la découverte d'une région génétique qui pourrait intervenir dans le déclenchement de la maladie d'Alzheimer. « Des études réalisées pour le moment chez la souris marquent incontestablement une étape importante, car si elles se confirment chez l'homme, il deviendra possible de dépister et prévenir la maladie » commente le Professeur Dartigues, neurologue au CHU de Bordeaux. Sur le plan fondamental, elles représentent aussi un tournant décisif confortant l'hypothèse selon laquelle l'accumulation dans le cerveau de petites protéines que les scientifiques nomment peptides bêta amyloïde est la cause de la maladie. Pour bien comprendre l'intérêt de cette découverte, il faut savoir que ces peptides représentent le principal constituant des plaques amyloïdes, toujours observées dans l'affection et connues de longue date par les neurologues. Jusqu'à présent leur rôle exact dans la genèse de la maladie était encore discuté. Ces anomalies sont t-elles la cause ou la conséquence de la maladie ? Enigme. Le voile se lève aujourd'hui. Dans la revue « Nature », deux équipes indépendantes, l'une américaine dirigée par Dave Morgan (Floride), l'autre canadienne menée par Peter St George Hyslop (Toronto) ont injecté à des souris transgéniques, c'est à dire programmées génétiquement pour développer la maladie d'Alzheimer, une protéines « vaccinale », ressemblant au peptide bêta amyloïde. Les chercheurs ont observé chez tous les rongeurs vaccinés un ralentissement significatif de l'évolution de la maladie et parallèlement, une régression des dépôts, prouvant ainsi qu'ils sont directement impliqués dans la genèse de la maladie. Résultats confortés par une troisième étude écossaise coordonnée par Richard Morris (Edimbourg) également publiée dans la revue Nature montrant une association entre les dépôts et l'altération de la mémoire épisodique. Enfin, un articles de "Science"rapporte qu'une région du chromosome 10 comporte un ou plusieurs gènes de susceptibilité. L'ensemble de ces découvertes devraient permettre la mise au point de tests génétiques visant à dépister les personnes à risque et, corrélativement, la mise au point d' un vaccin protecteur contre ce fléau social.

Brève rédigée par @RT Flash

Nature : http://www.nature.com/nature/fow/001221.html

Plus vieux mais pas plus bête
Samedi, 06/01/2001 - 00:00

L'être humain n'est pas moins intelligent à 80 ans qu'à 25, même s'il est vrai que ses capacités d'apprentissage ou de mémorisation sont diminuées avec l'âge. De récents travaux menés sur les relations entre le vieillissement et les capacités mentales apportent à la fois de bonnes et de moins bonnes nouvelles. Il semble en effet que l'intelligence d'une personne, au sens général, reste globalement stable. En revanche, l'adulte commence à perdre une part de ses habiletés, comme retenir un titre de film ou un numéro de téléphone, au cours de la quarantaine. En Grande-Bretagne (Université d'Edimbourg), plusieurs centaines de personnes ont été interrogées une première fois en 1932, lorsqu'elles avaient environ 11-12 ans, et une autre fois près au début des années 90. Cette étude longitudinale montre que l'intelligence se maintient au fil des ans. Le Pr Keith Weisnes (Cognitive Drug Research Ltd ) a lui donné une batterie de tests cognitifs à plus de 2200 volontaires âgés de 18 à 87 ans. Il en ressort que la rapidité d'exécution baisse à partir de 45 ans. Quant au Pr James Semple (Addenbrookes Hospital, Cambridge), il a utilisé l'imagerie médicale pour mesurer la perte de cellules cérébrales. Chez des personnes atteintes de la maladie d'Alzheimer, affection neurodégénérative, le volume total du cerveau perd 3% chaque année. En revanche, chez les personnes vieillissant normalement la perte n'est que de 0,5 par an.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20001227.OBS0554.html?1752

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Une puce Bluetooth dans les pneus
Samedi, 06/01/2001 - 00:00

Le fabricant de pneumatiques finlandais Nokian Tyres a mis au point un système de surveillance électronique de l'état des pneus, relié à un téléphone portable. L'ancienne filiale du groupe Nokia a travaillé sur ce projet avec le géant de la téléphonie mobile et le Centre de recherche technique finlandais. Un accord avec Michelin a également été signé pour la diffusion du procédé. Le système ne requiert aucun équipement particulier à installer dans l'automobile. Le secret de cette technologie repose exclusivement sur les pneus. Ceux-ci intègrent une puce électronique relevant et transmettant en temps réel des informations sur la pression et la température des pneumatiques. Les informations sont transmises à un téléphone mobile qui doit être compatible avec la nouvelle norme de communication radio Bluetooth. L'offre commerciale, qui devrait être internationale, est attendue courant 2001. Elle s'adressera dans un premier temps aux engins lourds tels que les camions et camionnettes. Nokian Tyres ne souhaite pas en rester là, et souhaite étendre les fonctions du système à la mesure d'usure des pneus et l'alerte en cas de vol.

Yahoo : http://fr.news.yahoo.com/001230/7/t4ro.html

Les flottes suivies au mètre près
Samedi, 06/01/2001 - 00:00

Pour localiser un véhicule, il existe deux grands types de services. D'une part, les systèmes de radio localisation par balises terrestres. D'autre part, les systèmes de localisation par satellite, dont le GPS (Global Positioning System) mais aussi d'autres systèmes comme Euteltracs d'Alcatel. Mobiloc est utilisé, par exemple, en zone urbaine par les autobus de la RATP, les services de livraisons rapides de la Poste, les services de sécurité d'Aéroports de Paris, ou encore par la société d'assistance Depann 2000. Mobiloc, qui s'appuie sur le réseau de TDF (Télédiffusion de France), est capable d'identifier la position d'un mobile avec une précision record de 5 mètres ! Les transporteurs de fret utilisent plutôt un système de localisation satellitaire par GPS, qui permet de relever la position d'un véhicule grâce à un capteur embarqué; ou encore avec Euteltracs basé sur le principe des données de position transmises à un serveur central. Aujourd'hui, un chauffeur de taxi peut prendre en charge un client dans une banlieue qu'il connaît mal en ne suivant que les indications portées sur une carte affichée sur un terminal vidéo. «Tous nos taxis sont déjà équipés de récepteurs GPS depuis 1996, ce qui nous permet de relever régulièrement la position du véhicule, explique Cyril Metz, directeur du développement et de l'innovation pour les Taxis G 7. Nous installons actuellement des systèmes de navigation dans plus de 500 véhicules. Dès 2001 notre nouveau terminal embarqué, Star 2000, pourra transférer par radio l'adresse de prise en charge du client vers le système de navigation du taxi. A l'inverse, le système de navigation rapatriera des données de localisation extrêmement précises nous permettant un calcul très fin des temps de parcours.» Une première en Europe. Le système Star 2000 concernera l'ensemble de la flotte des 3 000 Taxis G 7 en 2004. A la clé: un gain de temps appréciable pour les chauffeurs et leurs clients et des gains de productivité significatifs. D'ici à quelques années, les informations concernant le trafic (embouteillages et accessibilité) seront prises en compte et permettront de reléguer les bouchons routiers au rang des mauvais souvenirs. Autre secteur intéressé, celui des transporteurs routiers qui ne concerne pas moins de 300-000 véhicules et 10-000 PME en France. Henri Pornon, dirige IETI, une société de conseil dans les systèmes embarqués. Il pointe les priorités des transporteurs: «Ils doivent d'abord gérer la masse salariale et appliquer la réglementation du temps de travail, les temps de conduite et de pause. Le seul moyen pour ceux dont la flotte ne rentre pas tous les soirs est d'utiliser des systèmes embarqués communicants mettant en oeuvre la localisation par satellite couplée à des logiciels de gestion des flottes. Par ailleurs, on passe progressivement à un système où plusieurs chauffeurs vont se relayer afin de conduire le même véhicule, cela, grâce au géopositionnement.» Parfois vécu comme un encombrant fil à la patte par les conducteurs, de tels dispositifs peuvent aussi leur servir de base irréfutable de comptabilisation des heures de conduite réellement effectuées. Mais, il ne suffit pas de localiser précisément un véhicule pour en faciliter la navigation. Encore faut-il disposer de données récentes, actualisées et vérifiées, qui seront affichées sur la carte dont disposent les conducteurs et les centres de contrôle. C'est le rôle de sociétés telles que Télé Atlas, spécialisée dans l'édition et la fourniture de données cartographiques. «Nos 50 agents de terrain, témoigne Richard d'Humières, son directeur commercial, collectent toutes les données locales qui figurent sur une carte : nouveaux plans de circulation, nouvelles voies et sens interdits, toutes informations qui sont primordiales pour la sécurité et l'optimisation des trajets.» A l'heure actuelle, moins de 10 % des sociétés de transports se sont équipées de tels systèmes de localisation et de gestion intégrée des flottes de véhicules. Mais la législation du travail, l'harmonisation de la réglementation européenne sur les transports, la pression de la concurrence et celle des clients devraient donner un coup d'accélérateur à une inévitable mutation.

Figaro : http://www.lefigaro.fr

Bruit antibruit
Samedi, 06/01/2001 - 00:00

Soigner le mal par le mal: c'est un peu le principe qui a guidé le Comptoir de la technologie, entreprise lyonnaise, pour mettre au point un outil efficace de lutte contre le bruit des avions. Cet équipement pourrait constituer bientôt une solution de remplacement au double vitrage des fenêtres, qui oblige les riverains des aéroports à vivre confinés dans leurs maisons. Le bruit est une vibration de l'air: ce phénomène physique va varier en fonction de son intensité, de sa fréquence et de l'éloignement de la source. Théoriquement, lorsqu'on émet en direction d'un bruit un signal sonore aux caractéristiques similaires, les deux ondes s'annihilent. L'application de ce principe en milieu ouvert paraissait jusqu'alors irréalisable. «Le numérique a changé la donne, explique Jacques Martinat, le PDG de l'entreprise innovante. Il est désormais possible d'enregistrer le bruit 3 mètres avant les diffuseurs de contre-bruit. On a ainsi le temps d'analyser intensité et fréquence, et d'envoyer un contre-bruit avec un degré de ressemblance de 5 o/oo.» Un haut-parleur seul ne suffisant pas, une quinzaine de contre-émetteurs, tous indépendants les uns des autres, sont fixés en grappe au sommet d'un lampadaire. Le prototype est installé depuis quelques mois aux abords de l'aéroport Saint-Exupéry, près de Lyon. Avec succès. Un avion moderne émet au décollage 85 décibels. Le lampadaire du Comptoir de la technologie réduit cette nuisance de 20 décibels pour approcher la norme européenne de «confort», fixée à 60 décibels.

Express : http://www.lexpress.fr/Express/

Le MIT révèle son top 10 des technologies d'avenir
Samedi, 06/01/2001 - 00:00

-* L'interface cerveau-machine

Les progrès dans la connaissance du fonctionnement du cerveau devraient permettre d'utiliser ce savoir pour concevoir des implants pour contrôler des machines. Une simple pensée permettrait donc de commander à distance un ordinateur.

-* Les transistors flexibles

Plusieurs équipes de chercheurs tentent de mettre au point, pour un coût raisonnable, des circuits intégrés souples. Ces technologies devraient permettre de concevoir, entre autres, les écrans mous et d'assurer un avenir radieux au journal électronique.

-* Le Data Mining

L'exploitation d'informations en provenance de sources différentes, technique déjà largement exploitée par les sites marchands pour anticiper le comportement des internautes, devrait nettement évoluer. C'est surtout la quantité de données traitées qui devrait s'accroître. Ces méthodes ont déjà permis à des généticiens de scanner la littérature sur le sujet pour en extraire des hypothèses plausibles sur les fonctions de gènes récemment découverts. Malheureusement, ces techniques devraient également trouver des champs d'application dans l'analyse des moindres faits et gestes des internautes.

-* La gestion des droits numériques

L'affaire Napster a démontré la difficulté qu'ont les auteurs à protéger leurs oeuvres, à en maîtriser la diffusion et à se faire rémunérer. Technology Review prédit donc un avenir radieux aux technologies pour une distribution contrôlée en mode peer-to-peer des fichiers, aux solutions de marquage en filigrane ou encore aux plates-formes intelligentes de sauvegarde des contenus numériques.

-* La biométrie

Si les technologies de reconnaissance morphologique, par empreintes digitales ou encore par analyse de la rétine existent déjà, leur utilisation est encore marginale. Une situation qui ne devrait pas durer. En effet, le besoin de sécurité lié au développement des appareils sans fil faciles à perdre mais riches en information, ainsi que l'augmentation de la bande passante capable de transporter des images facilitant l'identification des individus, devrait les propulser dans notre quotidien.

-* La reconnaissance vocale

Une nouvelle génération d'interfaces devrait permettre d'entretenir de « vraies » discussions avec des ordinateurs. Ces derniers seront capables de comprendre et d'analyser un discours oral et d'en tirer des conclusions.

-* L'optoélectronique

Actuellement, les équipements de télécommunications utilisent les technologiques traditionnelles électroniques. S'en affranchirpour passer au tout-optique se révèleêtre l'un des grands enjeux pour tous les grands équipementiers dans le monde des télécoms. Cela devrait découler dans un premier temps sur un gain de puissance des commutateurs. Cette technologie devrait s'étendre aux autres matériels informatiques.

-* Les « démêleurs » de code

Ces logiciels vont assister les développeurs dans l'écriture de leur programme, mais aussi les affranchir des fastidieuses vérifications des lignes de code. En effet, ces logiciels seront bientôt capables de vérifier la cohérence, l'efficacité et la sécurisation d'un programme.

-* Les robots

Technology Review estime que les robots n'en seraient qu'à leurs premiers pas. En effet, ils sont pour le moment cantonnés dans une niche commercialele à cause de leur prix très élevé. Cependant, cela pourrait changer rapidement, puisque les travaux en cours devraient permettre de créer des ordinateurs capables de concevoir à la chaîne des robots complexes.

-* Les microfluides

Les scientifiques parviennent aujourd'hui à incorporer d'infimes quantités de matières organiques dans des puces. Ce qui ouvre un large champ aux expérimentations génétiques, pharmaceutiques et médicales.

OINet : http://www.01net.com/rdn?oid=133122

Technology Review :

http://www.techreview.com/articles/jan01/TR10_toc.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top