Recherche
- Recherche & Innovation, Technologies, Transports
- Politique de recherche
Le futur en dix technologies
- Tweeter
-
-
0 avis :
A l'entrée du nouveau siècle le MIT ( Massachusetts Institute of Technology ) La sélectionné dix technologies émergente qui, selon cette grande institution, « changeront le monde ». Subjective, cette sélection n'en dresse pas moins, entre autres, un panorama de ce que pourra devenir le Réseau .
-# INTERFACE
Biométrie
La biométrie est l'ensemble de tous les systèmes de mesure des caractéristiques morphologiques qui permettent d'identifier avec certitude chaque individu.Essentiellement utilisée, aujourd'hui, pour assurer la sécurité d'accès à des locaux, la biométrie ne pourra être mise à profit sur le Réseau que lorsque chaque internaute sera équipé de capteurs biométriques. Thierry Martin, directeur technique de Canyon Technologies (entreprise de commercialisation d'outils d'identification biométrique) : " Les progrès à faire en matière de biométrie ne résident pas dans les méthodes d'acquisition des caractéristiques biométriques ni même dans les formats informatiques de stockage de ces données. Ces formats sont suffisamment légers pour être exploitables sur des réseaux informatiques. Ce qui reste à accomplir réside dans les algorithmes de recherche et de comparaison de ces informations au sein de bases de données toujours plus vastes. Ces dernières pourront contenir les caractéristiques de plusieurs centaines de milliers ou plusieurs millions d'individus, et il n'est pas envisageable de les parcourir de façon linéaire. "
Reconnaissance vocale
La reconnaissance vocale consiste à faire reconnaître à une machine le langage parlé et à l'interpréter en termes de commandes. Mais de la simple transcription de la langue à sa compréhension, un cap important reste à franchir. Les prochains terminaux mobiles d'accès à la Toile ne pourront pas s'embarrasser de clavier ou de souris. De même, d'ailleurs, que l'informatique embarquée dans les automobiles. La communication entre l'utilisateur et la machine devra donc être plus instinctive... et passer par la parole. Joseph-Jean Mariani, ancien directeur du Limsi (Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur) : " Les logiciels de dictée vocale peuvent transcrire plusieurs dizaines de milliers de mots de vocabulaire, prononcés par des locuteurs différents. A présent, les constructeurs sont conscients du fait qu'il faut améliorer les systèmes de dialogue homme-machine. La machine ne doit plus seulement être capable de transcrire le langage, elle doit pouvoir le comprendre. Cela n'est possible que dans un contexte bien délimité (réservation d'un billet de train, etc.). Il ne s'agit donc pas seulement de mettre au point un modèle acoustique mais aussi un modèle qui décrive la langue. C'est dans ce domaine que les choses ont le plus changé ces dernières années. "
Interface cérébrale
L'interface cérébrale revient à contrôler une machine avec la pensée. Il s'agit, grâce à plusieurs capteurs, de mesurer à la surface du cortex les variations de l'électroencéphalogramme, puis de les associer à une action spécifique. Cette technologie permettra aux personnes handicapées, d'ici à quelques années, de diriger leur fauteuil roulant, d'écrire un e-mail ou d'éteindre la lumière. On peut même penser, à très long terme, à un contrôle parfait d'une prothèse de bras, à partir de la reconnaissance de la pensée associée au mouvement désiré de ce bras. José del R. Millàn, responsable du projet ABI (Adaptative Brain Interface), du programme européen Esprit : " Plusieurs équipes dans le monde travaillent au développement d'une interface cérébrale facilement utilisable. Pour l'heure, il s'agit surtout d'un système de laboratoire. Le dispositif que nous avons développé différencie cinq activités électriques, comme par exemple un calcul mental. A chacune de ces activités, nous pouvons associer une action. La difficulté consiste à réduire les erreurs de reconnaissance et à augmenter le nombre de pensées distinctes identifiables. Mais, à moyen terme, il faudra rendre le système plus naturel à utiliser. "
-# LOGICIEL
Data mining
Le data mining est généralement défini comme " l'extraction de connaissances implicites et précédemment inconnues à partir de grandes bases de données ". Il s'agit donc de mettre au point des outils informatiques de recherche destinés à ausculter les montagnes d'informations quotidiennement produites et d'en tirer le meilleur parti. Essentiellement utilisé à des fins commerciales ,le data mining trouve de plus en plus d'applications dans les domaines où de grandes quantités d'informations doivent être engrangées : médecine, astronomie, administrations... Nicolas Pasquier, chercheur au Laboratoire informatique signaux et systèmes de Sophia-Antipolis (I3S) : " Le data mining connaît un fort développement en raison de l'évolution rapide des techniques d'acquisition et de stockage des données. Par exemple, en analysant les bases de données des transactions d'un supermarché, on peut corréler les données et définir des modèles de comportement des clients et réorganiser les rayonnages pour améliorer les ventes. Mais ce qu'il est simple d'analyser sur de petites bases de données devient trèscomplexelorsqu'ellesstockentplusieurs millions d'événements. Il faudra à l'avenir construire des bases de données capables de s'auto-organiser et susceptibles de se passer d'outils de recherche externes. "
Gestion numérique des droits d'auteur
La gestion numérique des droits d'auteur ne cadre pas avec une technologie précise, mais plutôt avec un faisceau de technologies logicielles destinées à contrôler la " consommation " et la diffusion des oeuvres stockées au format numérique. il s'agit pour les éditeurs de musique, de contrôler les oeuvres disponibles sur le Réseau. Frédéric Goldsmith, directeur juridique du Syndicat national de l'édition phonographique (SNEP) : " Dans le domaine de la sécurisation, il faut distinguer deux mondes : le monde en ligne et le monde hors ligne. Pour ce dernier, qui concerne les supports 'classiques', des solutions techniques existent déjà pour limiter voire empêcher les copies et seront mises en oeuvre sur les DVD audio. Pour le monde en ligne, des technologies permettent d'ores et déjà de limiter la diffusion de fichiers numériques, y compris via des systèmes comme Napster. Chaque fichier peut ainsi être encapsulé dans une enveloppe logicielle que l'utilisateur n'est en mesure d'ouvrir qu'à l'aide d'une clé numérique, fournie lors de la souscription d'un abonnement. Il sera donc possible d'échanger des fichiers, mais pas de les'consommer',sans cet abonnement. "
Programmation " orientée aspect "
Autour du coeur d'une application se greffent de nombreux modules qui jouent des rôles différents au sein du programme, tout en s'influençant les uns les autres. L' " orientation aspect " permet de " démêler " ces intrications en créant des modules supervisant un programme dans sa globalité. La programmation " orientée aspect " permet de faire évoluer de vastes programmes informatiques sans, par exemple, avoir à rechercher manuellement le même fragment de code dans la totalité du programme. Gregor Kiczales, chercheur au Xerox-PARC (Palo Alto Research Center), inventeur de la programmation " orientée aspect " : " La technologie AspectJ est en ce moment même développée au Xerox-PARC et la version bêta est déjà disponible. La version 1.0 devrait être prête dès juin 2001. Mais comme toutes les nouvelles techniques de programmation, la programmation 'orientée aspect'' se heurte à un obstacle qui est tout simplement la formation de nouveaux développeurs. Nous avons donc contourné cet obstacle en faisant d'AspectJ une extension naturelle de Java. Cela donne la mesure du potentiel de la programmation ''orientée aspect'' tout en restant compatible avec ce qui existe déjà. "
-# MATERIEL
Microfluidique
La microfluidique revient à intégrer sur une " puce " de verre, de silicium ou de plastique, des systèmes permettant d'analyser, de modifier ou de synthétiser des produits. C'est, vis-à-vis des fluides, l'équivalent des puces électroniques, qui effectuent de nombreuses opérations sur des flux d'électrons. Cette technologie doit révolutionner le monde biomédical.
Elle permettra d'effectuer des diagnostics et des analyses complexes à partir, par exemple d'une seule goutte de sang. A terme, c'est tout un laboratoire d'analyse qui pourra être réduit à un seul appareil. Jean-Louis Viovy, directeur de recherche CNRS, chercheur au laboratoire physico-chimique de l'Institut Curie (Paris) : " Ce domaine de recherche connaît une croissance exponentielle depuis deux à trois ans. Aujourd'hui, l'un des principaux problèmes auxquels s'affrontent les chercheurs, est l'interfaçage de ces puces avec l'extérieur. Nous devons apprendre à travailler avec des quantités de fluides de l'ordre du nanolitre un milliardième de litre, voire du picolitre un millième de milliardième de litre. Aujourd'hui, la taille de ces puces varie de celle d'une pièce de monnaie à celle d'un disque compact, avec des microcanaux dont les dimensions sont comprises entre 10 et 100 microns entre 10 et 100 millionièmes de mètre. L'enjeu, aujourd'hui, n'est pas tant de continuer à miniaturiser que d'intégrer sur un seul système un nombre et une variété de plus en plus grands d'opérations, parmi toutes celles qu'on peut souhaiter effectuer sur un fluide : filtration, traitement thermique, identification, etc. "
Optoélectronique
L'optoélectronique mêle les " grains de lumière " aux électrons pour acheminer l'information. Partout où les chercheurs substituent la ronde des électrons à des transferts de photons, les flux de données gagnent en effet en rapidité et en efficacité. Les technologies de l'information utilisent déjà largement la lumière, qui permet l'acheminement des données via les fibres optiques. Mais la mise à contribution des photons pourrait se généraliser, à l'intérieur même des puces qui constituent nos ordinateurs. Pierre Benech, directeur adjoint du Lemo (Laboratoire d'électromagnétisme micro-ondes et optoélectronique) : " Aujourd'hui, l'attention se porte sur certains polymères électro-optiques qui sont particulièrement bon marché. Leur transparence varie en fonction de la tension électrique à laquelle ils sont soumis : ils permettent donc de moduler la lumière qui les traverse et ainsi de coder une information. Il faut bien voir qu'à un instant donné, toute les informations échangées sur la planète peuvent potentiellement transiter par une seule fibre optique. Mais ce qui, essentiellement, nous manque, ce sont des matériaux d'amplification, de régénération et de transmission du signal capables de transmettre la lumière à des fréquences très élevées. Le record, aujourd'hui, se situe autour du térahertz soit un débit d'un million de milliard de bits par seconde. Mais ces systèmes ne sont pas commercialisables car trop coûteux. Le défi, en la matière, est autant technologique qu'économique. "
Electronique flexible
L'électronique actuelle est essentiellement basée sur des matériaux minéraux comme le silicium. Les remplacer par des matériaux organiques - apparentés aux matières plastiques - aux propriétés semblables pourrait voir l'émergence de composants électroniques souples et moins coûteux. L'arrivée annoncée d'une utilisation nomade d'Internet et des réseaux rendra nécessaire la mise au point d'écrans aisément transportables et suffisamment souples pour résister à des traitements d'ordinaire infligés aux seules feuilles de papier. Gilles Horowitz, directeur de recherche CNRS-Laboratoire Itodys (université Paris-VII) : " Depuis deux à trois ans, ce secteur est l'objet de très gros investissements dans le monde de l'industrie. Ce que nous savons faire aujourd'hui, ce sont des écrans à diodes électroluminescentes constituées de matériaux organiques. Ces derniers ne sont pas encore souples, mais pourraient, à court terme, supplanter les écrans à cristaux liquides. Plus généralement, remplacer les puces silicium par leur équivalent organique permettra de faire baisser les coûts et d'en généraliser l'usage. Ce n'est pas tout : les développements de cette nouvelle électronique laissent présager d'autres techniques de fabrication des composants. De la photolithographie, on pourrait passer à des techniques plus souples et moins coûteuses, proches de l'imprimerie. "
-# ROBOTIQUE
Créer des machines évolutives, plus autonomes, est l'un des grands enjeux de la robotique actuelle. Une discipline située au carrefour de l'algorithmique, de la mécanique et de l'informatique qui, selon le MIT, n'en est qu'à ses balbutiements. Les champs d'application de la robotique sont aussi divers que la médecine, la domotique, l'assistance à des personnes handicapées, l'exploration de milieux hostiles ou inaccessibles à l'homme, sans oublier les applications ludiques, promises à un bel avenir. Jean-Arcady Meyer, directeur de recherche CNRS - Laboratoire d'informatique de Paris-VI : " Pour concevoir des robots de plus en plus adaptatifs, capables d'interagir avec leur environnement, il nous faut encore travailler sur la versatilité des comportements, la sélection de l'action. Cela consiste à rendre les robots suffisamment 'intelligents' pour qu'ils puissent 'décider' du comportement à adopter en fonction de la situation dans laquelle ils se trouvent. Et qu'ils puissent, par exemple, après avoir accompli une tâche précise, prendre de façon autonome la décision d'aller se ravitailler en énergie au moment opportun... L'autonomie énergétique est d'ailleurs le second sujet brûlant sur lequel nous devrons nous pencher dans les années à venir. Il faudra concevoir des machines capables de s'alimenter à plusieurs sources énergétiques. "
Le Monde : http://interactif.lemonde.fr/article/0,5611,2854--150240-0,FF.html
MIT : http://web.mit.edu/news.html
Noter cet article :
Vous serez certainement intéressé par ces articles :
Recommander cet article :
- Nombre de consultations : 122
- Publié dans : Politique de recherche
- Partager :