RTFlash

Edito : Les données massives : nouvel eldorado numérique ?

Cette année, la grande star du salon des technologies numériques CeBIT, qui vient de se terminer à Hanovre, a été incontestablement la « Datability », c’est-à-dire l’exploitation des données massives. Tous les géants du numérique se ruent en effet vers cette nouvelle mine d’or numérique qui est en train de bouleverser l’économie mais également les systèmes politiques et les structures sociales partout dans le monde.

Comme le souligne dans un récent article le Professeur Gary King, spécialiste de l’innovation et des ruptures technologiques à l’Université Harvard (Voir HARVARD Magazine), « Rien qu’au cours de ces deux dernières années, l’Humanité a produit un zettabyte d’informations, c’est-à-dire mille milliards de terabytes, ce qui représente un nombre un million de fois plus grand que tous les mots prononcés par les 100 milliards d’hommes qui ont vécu sur Terre depuis l’aube des temps… »

Mais Gary King souligne que la révolution technologique ne réside pas dans la quantité de données produites mais bien dans la capacité nouvelle d’exploiter rapidement cet océan immense d’informations. « Grace aux extraordinaires progrès dans le domaine des algorithmes, une analyse de données qui nécessitait il y a encore quelques années un gros ordinateur à deux millions de dollars et plusieurs dizaines d’heures de calcul, peut à présent être effectuée en quelques minutes avec un simple ordinateur portable et cela change tout », ajoute ce chercheur.

Il est vrai que les progrès de l’intelligence artificielle permettent à présent non seulement de prévoir l’évolution de systèmes de plus en complexes mais également de prédire le comportement d’un individu, ce qui ouvre évidemment des perspectives vertigineuses dans tous les domaines.

Signe des temps, la nouvelle dirigeante d’IBM, Ginni Rometty, vient de confirmer que les données massives constituaient désormais la priorité stratégique du géant informatique, rappelant au passage qu’IBM a déjà investi plus de 24 milliards de dollars et déposé plus de 4000 brevets dans ce domaine.

Comme chaque année, IBM a par ailleurs présenté ses prédictions sur les tendances technologiques à 5 ans et cette année, IBM parie sur l’informatique cognitive, c’est-à-dire sur des logiciels capables d’apprendre de manière autonome en s’adaptant à leur environnement et en exploitant les ressources contenues dans les mégabases de données qui sous-tendent l’essor fulgurant de l’Internet des objets (Voir IBM Research).

IBM compte bien capitaliser son avance dans le domaine de l’intelligence artificielle en utilisant pleinement les immenses potentialités de son système informatique « Watson », capable de comprendre le langage naturel. « Big Blue » vient ainsi d’annoncer l’ouverture prochaine au grand public d’une multitude de services et applications qui seront dérivés de Watson.

La ville intelligente constitue certainement l’un des principaux enjeux de cette mutation techno économique représentée par l’informatique cognitive. A Amsterdam, la ville a lancé en 2009 un ambitieux projet de « gestion informatique collaborative », associant notamment IBM et Cisco. Cette démarche très novatrice s’est inscrite délibérément dans le cadre d’un projet urbain global intégrant la réduction de la consommation d’énergie, la diminution des émissions de gaz à effet de serre, l’optimisation des transports et déplacements urbains et la création de pôles d’activités numériques pouvant accueillir les travailleurs « nomades ».

Il est intéressant de souligner que dans cette métropole européenne, caractérisée par son dynamisme économique, son ouverture au monde et son pragmatisme, le choix de l’innovation technologique et de la transition vers la « ville intelligente » n’est pas séparable de la volonté d’innovation sociale de ses habitants.

En France, la ville de Besançon a été l’une des premières, dès 1993 à faire le choix d’une gestion informatique intégrée en choisissant le système Maximo d’IBM qui gère à présent l’ensemble des infrastructures, bâtiments et équipements urbains de cette agglomération. Au fil des années, ce système intégré n’a cessé de s’enrichir en accueillant de nouvelles applications, tel le cartable électronique dans les écoles, un projet qui a été récompensé par l'Intelligent Community Forum de New York.

L’informatique cognitive  et les « big data » vont également bouleverser les services publics en ligne et l’administration électronique. Un système issu de Watson est en effet en mesure de fournir aux citoyens des réponses précises et complètes à des questions complexes, telles que « combien d’impôt vais-je payer l’année prochaine compte tenu de l’évolution de ma situation familiale et professionnelle ? » ou encore « Ai-je besoin d’un permis de construire pour réaliser une véranda de 20 m² attenante à ma maison ? »

L’éducation et l’apprentissage constituent un autre axe majeur de développement pour les données massives et l’intelligence artificielle. Là encore, IBM, porté par la vague irrésistible des MOOC (Cours massif ouvert en ligne), propose de multiples solutions intégrées pour faire basculer l’enseignement dans l’ère numérique. En Géorgie par exemple, dans le comté de Gwinnett, IBM a développé un programme d’éducation qui combine modélisation prédictive et analyse de contenu avec un apprentissage traditionnel en classe (Voir IBM).

Troisième axe stratégique en pleine révolution : le commerce et la distribution. Dans le cadre de son projet de commerce intelligent, IBM propose à la distribution traditionnelle toute une palette de nouvelles applications informatiques intégrant notamment l’essayage virtuel, la réalité augmentée et la géolocalisation portable.

Il s’agit de proposer aux détaillants des outils extrêmement sophistiqués, issus de Watson et permettant grâce à l’analyse intelligente de l’ensemble des bases de données de cerner parfaitement et en temps réel le profil et les attentes du client. Avec ces nouveaux outils, un distributeur de produits numériques sera par exemple capable de déterminer immédiatement, grâce à l’analyse intelligente d’une multitude d’informations éparses, quel type d’appareil et quelles prestations il a intérêt à proposer à un client particulier pour  améliorer ses profits et bien entendu fidéliser son client en répondant exactement à son attente.

Le quatrième domaine qui va être révolutionné grâce à cette exploitation des données massives par l’intelligence artificielle est bien entendu celui de la santé et de la médecine. La communauté scientifique s’accorde à prédire qu’avant cinq ans, les médecins pourront disposer du séquençage complet du génome d’un patient en moins d’une journée pour un coût raisonnable. Mais les professionnels de santé pourront également utiliser des systèmes d’expertise d’une incroyable puissance présents sur le cloud, comme le « WatsonPaths » qui peut fournir aux médecins des recommandations en analysant et en recoupant l’ensemble des données médicales disponibles sur une pathologie précise.

Certains hôpitaux américains ont déjà commencé à utiliser en cancérologie la technologie dérivée de Watson, ce qui leur permet de disposer d’une aide précieuse puisque ce système peut explorer, en fonction du tableau clinique particulier du malade, l’ensemble des solutions et combinaisons thérapeutiques disponibles.

Mais le développement du système d’intelligence informatique Watson s’inscrit dans un projet encore plus vaste et ambitieux baptisé SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) qui associe IBM et de nombreuses universités et laboratoires américains et qui vise à concevoir et à programmer des puces neuronales capables de simuler certaines fonctions du cerveau humain.

A l’occasion de la conférence internationale sur les réseaux de neurones qui s’est tenue à Dallas en août 2013, IBM a présenté la troisième phase du projet SyNAPSE, essentiellement financé par les services de recherche de l’armée américaine (DARPA). Les composants et processeurs du projet SyNAPSE veulent rompre avec le modèle d’architecture séquentielle de Van Neumann sur lequel repose l’informatique depuis maintenant trois quarts de siècle.

« Notre objectif final vise à reproduire certaines fonctions et capacités propres au cerveau humain » a déclaré Dharmendra Modha, responsable de ce projet de recherche. SyNAPSE s’appuie sur des noyaux neuro-synaptiques qui possèdent leur propre mémoire (« les synapses »), un processeur (« le neurone »), et le circuit de communication (« les axones »). Tout l’enjeu de ce projet consiste à faire fonctionner de façon coordonnée l’ensemble de ces noyaux de manière à reproduire certaines fonctions cognitives du cerveau.

On voit donc que l’informatique cognitive et l’exploitation des données massives représentent non seulement un enjeu économique, industriel majeur mais également un défi scientifique fondamental. À cet égard, il est bon de rappeler que ce projet SyNAPSE entre directement en compétition avec le « Human Brain Project » européen qui vise lui aussi à mettre au point, d’ici 10 ans, un nouveau type d’ordinateur capable de rivaliser avec le cerveau humain.

Autre exemple d’avancée scientifique reposant sur l’exploitation des données massives : The Immunity Project, initié par des chercheurs des universités de Stanford, Harvard et du MIT. Ce projet particulièrement innovant utilise toutes les ressources du « crowdsourcing » (externalisation ouverte et collaborative) et vise la mise au point et la distribution d’un vaccin contre le Sida d’ici 2016.

Ce projet va d’abord s’atteler à identifier les facteurs immunitaires rendant certains patients naturellement résistants au virus. Pour atteindre cet objectif, les chercheurs ont mis au point, avec la collaboration de Microsoft, un algorithme qui s’inspire des logiciels anti-spams. Ce programme, développé par le Professeur David Heckerman, utilise un algorithme d’apprentissage automatique capable de scanner un type très rare de cellules immunitaires jouant un rôle-clé dans la mobilisation des défenses naturelles de l’organisme contre ce virus.

Rompant avec le modèle économique classique de l’industrie pharmaceutique, cette initiative inaugure une nouvelle voie de développement pour les vaccins et médicaments en exploitant une grande masse d’informations anonymes et en recourant au financement volontaire. Ce futur vaccin devrait être distribué gratuitement sous forme de spray nasal, une technique de production moins onéreuse que les méthodes industrielles actuelles. Si ce projet aboutit, c’est toute la chaîne de valeur de la recherche médicale et pharmaceutique qui s’en trouvera bouleversée…

Sous la houlette de son nouveau directeur de la prospective, le futurologue Ray Kurzweil, Google n’est pas en reste dans cette nouvelle quête du Graal des « infomines » et compte bien valoriser ses nombreuses acquisitions récentes dans le domaine de l'intelligence artificielle (DeepMind Technologies) et des objets connectés (Nest Labs). Google s’est également associé à une quarantaine de partenaires privés et publics dans un vaste projet lancé le 20 février, le « Global Forest Watch » (GFW), une initiative mondiale de surveillance des forêts tropicales.

Grâce à la constitution d’une gigantesque base de données dynamique comportant plus de 700 000 images satellite, le GFW va pouvoir surveiller en temps réel de manière très précise l’évolution de la déforestation mondiale. L’idée est de disposer d’un outil d’observation assez fiable et puissant pour pouvoir repérer immédiatement tout déboisement illégal et intervenir le plus rapidement possible pour y mettre fin. Ce projet s'est inspiré du savoir-faire du Brésil en matière de surveillance spatiale des forêts. Dans ce pays, le taux de déforestation a pu en effet être réduit de 70 % en 10 ans.

On voit donc à quel point les « Big data », un concept né il y a seulement 16 ans (fin 1997), est en train de révolutionner l’ensemble des économies développées et de bouleverser nos sociétés. Cette révolution n’en est pourtant qu’à ses prémices car, selon le cabinet IDC, un quart des données numériques pourraient être exploitées en tant que big data si elles étaient correctement indexées et analysées. Or, aujourd’hui, à peine 5 % de l’ensemble des données numériques sont utilisées comme big data…

Selon IDC, le marché mondial de ces « données massives » atteignait déjà 20 milliards d’euros en 2012 et devrait doubler en quatre ans pour atteindre 40 milliards de dollars dès 2016. Quant aux investissements mondiaux relatifs aux logiciels de big data, ils devraient passer de deux à 5 milliards d’euros d’ici 2016. Le cabinet américain Gartner estime pour sa part que le big data créera 4,4 millions d'emplois au cours des deux prochaines années.

Un autre cabinet réputé, Mac Kinsey, estime quant à lui que l’ensemble des administrations publiques de l’Union européenne pourrait réduire ses coûts de fonctionnement de 15 % grâce à l’utilisation judicieuse de ces big data. Ce même cabinet de prospective souligne par ailleurs que l’utilisation généralisée des big data pourrait permettre un gain d’environ 60 % de la rentabilité pour l’ensemble du secteur du commerce et la distribution.

Mais ces données massives représentent également un enjeu social majeur car la généralisation aurait un impact considérable en termes de consommation et de pouvoir d’achat. Mac Kinsey évalue en effet à 700 milliards d'euros le montant annuel des économies qui pourraient être réalisées au niveau mondial par les consommateurs grâce à l’optimisation et à la désintermédiation des achats et des ventes.

Il reste que cette extraordinaire évolution techno économique ne pourra pas s’accomplir pleinement sans la mise en place d’un cadre de contrôle politique et juridique européen et mondial garantissant la protection des données personnelles et réglementant strictement l’utilisation par les Etats de ces informations d’autant plus précieuses qu’elles concernent souvent notre vie dans ce qu’elle a de plus personnel et d’intime. Or, il faut bien reconnaître que les révélations d’Édouard Snowden, malheureusement confirmées par les autorités américaines, concernant les agissements de l’Agence nationale de sécurité des États-Unis, ont sérieusement ébranlé la confiance des opinions publiques dans la capacité ou la volonté de leurs gouvernements d’assurer une protection efficace de ces informations numériques.

Nous devons donc souhaiter que ce basculement accéléré vers l’exploitation des données massives, l’information cognitive et l’Internet des objets qui en est la manifestation physique, soit également le moteur d’un véritable débat démocratique qui définisse de nouvelles règles de contrôle de l’utilisation de ces données, tant par les Etats que par les géants du numérique dont le pouvoir n’a souvent rien à envier à celui des gouvernements…

Mais plus largement encore, l’avènement de cette « société cognitive », selon l’expression chère à Michel Serres, va profondément transformer la nature et le fonctionnement de nos systèmes démocratiques et de nos modes de gouvernance. Les individus ne sont pas seulement des consommateurs, ils sont également des citoyens et il serait illusoire de penser qu’ils ne vont pas utiliser aussi les extraordinaires potentialités de ces nouveaux outils pour exiger d’être mieux entendus par leurs gouvernants et pratiquer une évaluation permanente des politiques mises en œuvre par les autorités politiques, qu’elles soient locales ou nationales.

16 ans après la publication de mon rapport sénatorial «Des pyramides du pouvoir aux réseaux des savoirs», publié en 1998, (voir Rapport), le futur que je prédisais alors nous a bel et bien rattrapés et les pyramides multiséculaires du pouvoir sont en train de se désintégrer sous nos yeux. Mais il nous reste la partie la plus difficile du chemin à accomplir : penser et construire ensemble ces réseaux de savoirs de façon à ce que chacun puisse bénéficier de ces nouveaux outils technologiques prodigieux pour se réaliser pleinement, exprimer toute sa créativité, accéder à la connaissance et participer activement à l’extension de l’intelligence collective planétaire qui s’affirme.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top