RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

Edito : L'informatique autonome va accélérer l'émergence de la société cognitive

Le 27 avril 2001, IBM présentait à la presse son projet "eLiza" qui visait, d'ici 5 ans, à doter les serveurs de la capacité de s'auto-administrer afin notamment d'améliorer leurs performances et aussi de faire face à la pénurie d'informaticiens. (voir @RTflash 156 du 21-07-01). Daniel A. Powers, directeur des innovations technologies Internet chez IBM Corporation, avait présenté les avancées du projet eLiza lors du colloque Le robot, avenir de l'homme ou homme de l'avenir" qui s'est tenu au Sénat le 27 juin 2001. Il avait souligné que l'objectif d'eLiza est de réduire au maximum les interventions humaines dans la gestion des serveurs au point de les rendre autonomes en les laissant décider en temps réel de leur évolution. Les serveurs pourront sauvegarder eux-mêmes leurs données en cas d'incident, se reconfigurer en fonction des nouveaux programmes et données et mieux résister aux intrusions. L'interface avec les utilisateurs sera facilité par des applications comportant des modules d'intelligence artificielle. Au cours de ce colloque, Daniel A. Powers avait annonçait la sortie de Virtual Help Desk, une application dotée de composants d'intelligence artificielle et capable comprendre les griefs de tel ou tel utilisateur confronté à un problème. Le 28 septembre dernier, le Dr Matthias Kaiserswerth, directeur du laboratoire IBM de Zurich, au coeur de ces recherches, , donnait une conférence très attendue sur les tendances dans le domaine de l'informatique. Il mis l'accent à cette occasion sur l'«IBM Global Technology Outlook» en confirmant que ce projet de recherche de plus de 5 milliards de dollars, le plus important jamais mis en oeuvre par IBM, visait, dans le prolongement du projet eLiza, à mettre au point "l'informatique autonome"( Autonomic Computing). IBM a donc annoncé il y quelques jours la réorganisation de toute sa division Recherche (huit laboratoires, 3000 employés), avec une dotation de 2 milliards de dollars par an sur 3 à 5 ans, autour du nouveau défi technologique : l'informatique autonome. Cet objectif très ambitieux dépasse largement le seul domaine scientifique et industriel et repose sur un véritable renversement de paradigme : ce n'est pas l'homme qui doit apprendre à s'adapter aux machines pour les utiliser, mais les ordinateurs et réseaux qui doivent évoluer pour s'adapter aux nouvelles demandes des utilisateurs, qu'il s'agisse d'entreprises ou d'administrations. Face à un réseau dont la complexité de gestion croît comme le carré du nombre de machines connectées, l'homme ne peut plus, sauf à accepter des effets contre-productifs de plus en plus insupportables et coûteux, passer la majeure partie de son temps à réparer, configurer, administrer, surveiller, et entretenir des systèmes informatiques. Il faut donc conférer aux machines et aux réseaux la capacité de prendre en charge la complexité qui a émergé à mesure de leur développement technique et de leurs conditions d'appropriation par les entreprises et plus largement par le grand public. Ce concept et cet objectif d'informatique autonome a été remarquablement développé dans un manifeste de 22 pages rédigé par Paul Horn, directeur de la division Recherche d'IBM monde, et envoyé en octobre 2001 à 75 000 chercheurs et ingénieurs du monde entier. Dans ce document Horn s'inspire de la conviction exprimée il y a presque un siècle par le grand mathématicien Alfred North Whitehead qui déclarait "La civilisation progresse par l'automatisation croissante des tâches et fonctions ce qui permet de libérer l'homme qui peut ainsi consacrer de plus en plus de temps à la réflexion théorique et conceptuelle". D'un point de vue plus concret, Horn rappelle cette évidence : "au rythme technologique, économique, éducatif où vont les choses, il n'y aura jamais assez de personnes pour configurer et maintenir le fonctionnement opératoire de nos futurs réseaux informatiques". Il est donc absolument nécessaire que l'informatique franchisse un saut qualitatif et devienne capable de s'autogérer ce qui suppose notamment que l'ordinateur doit se connaître lui-même, c'est à dire disposer d'une représentation de ses ressources, de son état, de ses composants et de ses connexions et interactions avec les composants des autres systèmes qui l'environnent. De même, les machines doivent être capables de s'identifier comme telles pour se fédérer dynamiquement et en former de nouvelles. Un système doit pouvoir se reconfigurer automatiquement en réponse à des conditions d'utilisation imprévisibles. Il doit s'adapter à la demande, par exemple par duplication de logiciels et documents sur le réseau et par réallocation de ses ressources (mémoire, calcul, stockage, bande passante...). D'une façon plus générale, un tel système doit chercher automatiquement les moyens d'optimiser son fonctionnement.

Horn précise que l'ordinateur autonome devra être Il doit aussi être capable :

- de s'autoconserver et de s'autoréparer, c'est à dire de maintenir son activité en surmontant les événements routiniers ou extraordinaires dus aux dysfonctionnements de ses composants. Cet "instinct de conservation" doit, de même, lui permettre de réagir à des attaques de toutes sortes (virus, hacking, piratage), en anticiper les menaces et en prenant les mesures adéquates.

-de s'autooptimiser et s'autoconfigurer de manière à utiliser au mieux et en toutes circonstances ses ressources.

A partir de ce cadre, Horn définit les "7 commandements de l'ordinateur autonome :

-1/Apprendre à se connaître lui-même - Une parfaite connaissance de soi et de son environnement implique, pour un système informatique, que chacun de ses éléments indique son état et ses performances à un "organe" de supervision. L'humain, lui, se contentant d'un simple tableau de bord.

-2/Détecter les pannes et les éviter - Si panne il y a, il faut qu'elle soit détectée. L'élément perturbateur doit alors être isolé, et ses tâches en cours déportées automatiquement vers un autre système. Mais l'idéal restera bien entendu toujours que le système puisse prévoir la panne.

-3/Réparer les pannes et les erreurs commises - Puisque les pannes et les erreurs humaines ne pourront jamais être totalement évitées, des mécanismes de réparation sont essentiels et doivent être intégrés au système. Les ordinateurs aussi doivent avoir leur fonction annuler.

-4/Garder la maîtrise des données - Si un ordinateur tombe en panne, ses disques durs ne seront plus accessibles. Les données doivent donc être conservées indépendamment des machines qui les traitent, et être partagées entre tous les systèmes.

-5/S'optimiser, donc s'autoéduquer - L'ordinateur doit apprendre à optimiser de lui même le fonctionnement du système d'exploitation ou d'une base de données, à rechercher une meilleure voie de communication et, même, à tirer parti de ses propres erreurs.

-6/Comprendre les intentions des humains - Autonomes ou pas, les machines travaillent quand même pour l'homme ! Elles doivent comprendre nos intentions, dénicher l'information où qu'elle se trouve et la présenter différemment selon l'appareil utilisé

-7/L'ordinateur autonome ne peut pas se concevoir et exister dans un environnement clos. Il doit pouvoir évoluer dans un environnement ouvert, hétérogène et caractérisé par la multiplicité des normes et protocoles informatiques. IL ne peut donc s'agir d'une solution-propriétaire. Paul Horn souligne que dans la nature de multiples organismes et espèces coexistent et sont interdépendants. Il doit en être de même pour l'informatique.

Comme le souligne lui même Horn, l'objectif de développer une technologie, qui s'apparentera au système nerveux humain, capable de gérer elle-même les fonctions de base, comme notre corps est capable de gérer de manière automatique et quasiment inconsciente une multitude de fonctions (http://www.research.ibm.com/autonomic). Cette métaphore biologique est très puissante car il s'agit bien de concevoir des machines dont l'usage sera complètement intuitif et qui pourront répondre de manière simple et "naturelle" aux demandes les plus variées. A terme elles également seront capables, comme l'être humain, d'anticiper les demandes spécifiques en développant par autoapprentissage une connaissance personnelle des besoins et des goûts de leurs utilisateurs. Les conséquences d'une généralisation au réseau mondial de l'internet de ces systèmes informatiques autonomes sont considérables non seulement sur le plan industriel et économique mais aussi sur le plan social, culturel et éthique. On imagine en effet les extraordinaires potentialités cognitives d'un réseau planétaire autogéré qui comptera 2 milliards de machines connectées à la fin de cette décennie. Ces ressources cognitives immenses seraient utilisables par le plus grand nombre à la fois beaucoup plus simplement et à un coût bien inférieur qu'aujourd'hui grâce aux économies de gestion et d'échelle réalisées. On peut enfin se demander si, à plus long terme, un tel réseau planétaire autonome, autogéré et capable d'autoapprentissage ne finira pas par devenir conscient de sa propre existence et par concevoir ses propres finalités. Cette perspective peut nous sembler encore lointaine mais elle fait désormais partie du champ des possibles et doit être intégrée à notre réflexion prospective sur l'avenir de l'humanité.

René TRÉGOUËT

Sénateur du Rhône

Noter cet article :

 

Recommander cet article :

back-to-top