RTFlash

Edito : Apprenons à bien utiliser l'IA (Intelligence Artificielle) pour éviter qu'elle ne nous utilise...

Chers lecteurs,

Comme chaque été, notre petite équipe (Monique, Mark et moi-même) se met au vert pendant le mois d'aout.
Vous retrouverez votre revue RTFlash, avec notre lettre de rentrée du 5 septembre.
D'ici là, je souhaite à toutes et tous de belles vacances...

Bien cordialement
René Trégouët
Sénateur honoraire du Rhône
Directeur de la publication de RTFlash 

Cette semaine, je reviens sur la nature fondamentalement ambivalente de l'intelligence artificielle qui peut être, selon la façon dont elle est utilisée et maîtrisée, un formidable moteur de progrès économique, scientifique et médical mais aussi, il ne faut pas le nier, un facteur inquiétant de déclin cognitif et une menace sérieuse pour la création artistique et culturelle. Dans une récente analyse publiée par le journal de l'Ecole Polytechnique (Voir Polytechnique Insights), l’enseignant et chercheur Ioan Roxin souligne que les risques liés à l’utilisation sans discernement, ni formation, de l'IA, sont à la fois d’ordre neurologique, psychologique et philosophique. Du point de vue neurologique, un usage massif de ces IA fait courir le risque d’une atrophie cognitive globale et d’une perte de la plasticité cérébrale. Des chercheurs du Massachusetts Institute of Technology (MIT) ont, par exemple, mené une étude sur 4 mois, impliquant 54 participants à qui ils ont demandé de rédiger, sans aide, des essais, avec un accès simple à l'Internet ou avec ChatGPT. Pendant la durée de cette étude, l’activité cérébrale des participants a été suivie et évaluée de manière précise par EEG (Electro Encéphalogramme). Les résultats de cette recherche montrent clairement que l’utilisation d’Internet, lorsqu'elle est couplée à un recours systématique à ChatGPT, réduit sensiblement l’engagement cognitif et ce que ces chercheurs appellent la "charge cognitive pertinente", qui correspond à l’effort intellectuel nécessaire à accomplir pour transformer une masse éparse d'informations en connaissances structurées et porteuses d'une valeur ajoutée cognitive indéniable.

Cette étude montre que les participants qui utilisaient ChatGPT augmentaient, certes, leur vitesse de rédaction de 60 % mais voyaient dans le même temps leur charge cognitive pertinente diminuer de 32 %. Les contrôles par imagerie cérébrale ont par ailleurs montré une nette diminution de la connectivité cérébrale (observable par la mesure des ondes Alpha et Thêta). Enfin, l'étude montre que 83 % des utilisateurs de ChatGPT ne parvenaient pas à se souvenir d’un passage de texte qu’ils venaient pourtant d’écrire. De manière préoccupante, d'autres travaux récents semblent également aller dans le même sens : des recherches menées par des chercheurs qataris, tunisiens et italiens, indiquent ainsi qu’un usage massif des outils d'IA de type LLM augmente sérieusement le risque de déclin cognitif. Il semblerait en effet que le fait de se décharger d'une grande partie de ses efforts intellectuels sur une IA entraîne un processus de "dette cognitive et cumulative" qui prend la forme d'un redoutable cercle vicieux : plus nous utilisons ces outils qui donnent l'illusion de penser à notre place, moins nous sollicitons notre cortex préfrontal et nos facultés cognitives supérieures.

S'agissant des risques psychologiques, le Professeur Roxin souligne de manière pertinente que les IA génératives sont conçues, par leur mode de fonctionnement et de raisonnement, pour nous séduire et nous rendre rapidement dépendants : elles s’expriment comme des humains, s’adaptent à nos comportements, semblent avoir réponse à tout, ont un fonctionnement ludique, relancent sans arrêt la conversation et se montrent toujours serviles et complaisantes à notre égard. Or, cette dépendance peut insensiblement conduire à l’isolement social et peut également aboutir à un désengagement réflexif. Pourquoi devrais-je consacrer du temps et des efforts pour apprendre et connaître un domaine si une IA peut répondre immédiatement et mieux que moi à toutes mes questions ? Enfin, sur le plan philosophique, Ioan Roxin souligne que l'IA favorise à l'évidence une uniformisation de la pensée et un conformisme intellectuel nocif qui font obstacle à l'émergence de points de vue ou d’hypothèses iconoclastes mais nécessaires au débat et parfois fécondes pour faire émerger de nouvelles solutions.

Une étude menée par Microsoft auprès de 319 travailleurs du savoir montre en outre une corrélation négative entre la fréquence d’usage des outils d’IA et le score de pensée critique (échelle de Bloom). Selon ces recherches, l'utilisation fréquente de l'IA provoquerait un déchargement cognitif qui irait en s'amplifiant lorsque la confiance dans le modèle serait ressentie comme supérieure à celle que nous avons vis à vis de nos propres compétences. Pourtant, comme le souligne le Professeur Roxin, il est capital de conserver en toutes circonstances un esprit critique suffisant, car ces IA peuvent non seulement se tromper, mais également dissimuler des informations ou simuler une opinion consensuelle (Voir Microsoft).

 Pour réaliser son étude, Microsoft Research a suivi ces 319 travailleurs du savoir qui utilisent, au travail, des outils d’IA générative (GenAI) comme ChatGPT, Copilot ou Gemini, au moins une fois par semaine. De manière assez logique, l'étude montre que les participants considèrent que leurs activités d’analyse, de synthèse et d’évaluation, demandent moins d’efforts avec les outils d'IA. Mais paradoxalement, les participants soulignent qu'ils doivent fournir un effort accru pour la gestion de l’IA, notamment en ce qui concerne la formulation de requêtes et l’évaluation de la pertinence des réponses par rapport aux exigences spécifiques de leurs professions. Cela signifie concrètement que les outils d'IA vont modifier en profondeur la manière dont nous utilisons notre pensée critique. Ces recherches montrent bien que les utilisateurs qui font trop confiance dans les capacités de ces outils d'IA auront tendance à perdre leur capacité de regard critique sur ce qu'ils font et pourront alors tomber dans une forme de dépendance excessive vis à vis de ces outils.

L'étude souligne que, loin de se contenter d’être des assistants passifs, les outils d'IA générative (GenAI) transforment la nature même du raisonnement critique. En effet, les utilisateurs n’abandonnent pas totalement leur esprit d’analyse, mais ils l’orientent de manière différente. Alors qu'ils construisaient complètement leurs raisonnements et leurs argumentations, ils passent de plus en plus de temps à évaluer le contenu généré par l’IA. « Ce que nous voyons, c’est une mutation du rôle de la pensée critique », souligne l’étude. Plutôt que de produire un raisonnement original, les utilisateurs et utilisatrices consacrent l'essentiel de leur temps à vérifier, filtrer et réadapter les réponses de l’IA. Lors de l’utilisation des outils d’IA générative, l’effort investi dans la réflexion critique se déplace de la collecte d’informations vers la vérification des informations, de la résolution de problèmes vers l’intégration des réponses de l’IA, et de l’exécution des tâches vers leur supervision.

Et dans ce nouveau contexte cognitif, plus un utilisateur considère que l’IA fournit des réponses pertinentes, moins il aura tendance à remettre en question ses résultats. Le problème, c'est que ce phénomène a des conséquences préoccupantes car, si les professionnels se fient aveuglément aux outils d'IA sans exercer de jugement critique, ils risquent d'adopter des conclusions erronées ou biaisées. En revanche, l’étude montre également que les utilisateurs ayant une forte confiance en leurs propres capacités intellectuelles continuent d’exercer leur pensée critique. Ils sont plus enclins à remettre en question les réponses de l’IA et à affirmer leurs conclusions personnelles. L’étude suggère d’améliorer la conception de ces outils « pour soutenir la pensée critique des travailleurs du savoir en abordant leurs barrières de conscience, de motivation et de capacité ». L’étude met ainsi en lumière un paradoxe fondamental : alors que l’IA est censée augmenter les capacités humaines, elle risque parfois de les affaiblir si elle est utilisée sans discernement ni recul suffisant. Pour que l'utilisation de ces outils d'IA soit efficace, pertinente et heuristique, il est donc capital que cette dernière ne puisse pas se substituer de manière habile et subtile à la pensée critique mais soit utilisée de manière à l’accompagner, l’enrichir et finalement la développer.

L'IA, dans ses dernières versions généralistes, est également en train de bouleverser bien plus vite que prévu le vaste domaine de la création artistique et culturelle, qu'on croyait un peu naïvement à l’abri pour longtemps des assauts de ces intelligences numériques. Hervé Le Tellier, mathématicien, journaliste scientifique, et écrivain, auteur du prix Goncourt à succès L'Anomalie en 2020, a accepté de se mesurer en mars dernier à une IA, pour écrire une nouvelle. Au terme de cette expérience, il n'y a pour lui plus de doute, ce n'est qu'une question de temps, de puissance de calcul et de taille des bases de données utilisées pour que les IA universelles réussissent à égaler l'être humain dans de nombreux domaines de la création, y compris la littérature. Hervé Le Tellier souligne qu'en fait, la bonne question à se poser est celle de notre rapport intime à l'art et à la création : aurons-nous envie de lire un roman ou de regarder un film entièrement réalisé par une machine qui ne fait qu'appliquer des algorithmes, qui  n' a pas d'émotions et n'est pas consciente de ce qu'elle fait ?

Mais après avoir mis l'accent sur les dangers que peut receler l'utilisation excessive, sans discernement ni recul de ces outils d'IA générale, je voudrais souligner à quel point ces mêmes outils, lorsqu'ils sont utilisés de manière encadrée, éthique et judicieuse, par des chercheurs et scientifiques de haut niveau, peuvent s'avérer révolutionnaires et porteurs d'immenses progrès. Microsoft vient de dévoiler un système d’IA capable, selon ses tests, de diagnostiquer quatre fois mieux que des médecins humains. Baptisé MAI-DxO (Voir Informatique News), cet outil repose sur une forme d’intelligence collective qui fait coopérer plusieurs IA, un peu à la manière de spécialistes confrontés à un cas médical complexe. MAI-DxO, qui signifié Microsoft AI Diagnostic Orchestrator, s'est avéré capable d'un véritable raisonnement clinique, proche de la démarche cognitive d'un médecin humain qui procède par tâtonnement et intuition. Pour évaluer les capacités de ce nouvel outil, Microsoft a utilisé 304 cas extraits du journal médical de référence New England Journal of Medicine. Pour chaque cas, la machine a procédé à des questionnements, fait des hypothèses et demandé des examens, en utilisant un outil comparatif d'IA, appelé Sequential Diagnosis Benchmark. Et le résultat est impressionnant : l'outil MAI-DxO, associé à OpenAI o3, a réussi à poser le bon diagnostic dans 85,5 % des cas, contre 20 %, en moyenne, pour les médecins (Voir Microsoft AI). Et même si IBM jure ses grands dieux que cet outil n'a pas vocation à remplacer les vrais médecins humains, Mustafa Suleyman, PDG de Microsoft AI, ne manque pas de dire que « nous sommes sur la voie de systèmes presque sans erreur d’ici cinq à dix ans, ce qui bouleversera en profondeur le fonctionnement de tous les systèmes de santé dans le monde ».

Toujours il y a quelques semaines, La filiale de Google DeepMind, Isomorphic Labs, a annoncé qu'elle envisageait, dès cette année, ses premiers essais, cliniques sur l'homme, de nouveaux médicaments entièrement conçus par IA. Cette filiale de Google DeepMind entend tout simplement éradiquer « toutes les maladies ». Cette entreprise compte bien exploiter le gigantesque potentiel d'AlphaFold, un incroyable outil d'IA, capable de prédire rapidement et de manière précise la structure 3D des protéines, et donc ses fonctions, à partir de leur séquence d'acides aminés. La dernière version d'AlphaFold va d'ailleurs encore plus loin et peut modéliser les innombrables interactions complexes des protéines et d'autres composants biologiques, comme l'ADN ou des molécules thérapeutiques (Voir Gizmodo). Isomorphic a choisi de mettre son moteur de conception de médicaments au service de grands laboratoires pharmaceutiques, tout en développant parallèlement ses propres produits. Actuellement, à peine un médicament sur dix parvient, au bout de dix ans minimum, à parcourir le véritable parcours du combattant qui va de la conception initiale à la mise sur le marché, en passant par les longs et indispensables essais cliniques sur l'animal, puis sur l'homme. Isomorphic Labs veut faire définitivement sauter ce verrou. Cette entreprise entend réduire considérablement les temps de conception des nouveaux médicaments en parvenant à prédire avec une certitude presque totale les probabilités de succès d'un médicament conçu par l'IA.

Pour la première fois, des scientifiques australiens ont utilisé l’intelligence artificielle (IA) pour générer en quelques semaines une protéine biologique prête à l’emploi, dans ce cas, capable de tuer les bactéries résistantes aux antibiotiques comme E. coli (Voir Monash University). Cette étude, publiée dans Nature, propose une nouvelle approche pour lutter contre la crise sanitaire mondiale causée par les superbactéries résistantes aux antibiotiques. En utilisant ainsi l’IA, l'Australie rejoint des pays comme les États-Unis et la Chine, qui développent des plates-formes d’IA très puissantes, capables de générer rapidement, à un coût réduit, des milliers de protéines d’intérêt thérapeutique. Selon le Docteur Grinter et le Professeur Knott, la plate-forme de conception de protéines d’IA utilisée dans ce travail s'appuie sur le travail effectué par David Baker (prix Nobel de chimie en 2024), en développant une approche globale de conception qui permet de produire de nombreuses protéines. Cette plate-forme australienne de conception de protéines par IA sera en outre en accès libre pour les scientifiques du monde entier. Selon l'étude, « Ces nouvelles méthodes d’apprentissage profond permettront une conception bien plus rapide et moins onéreuse, in silico, de protéines possédant des caractéristiques et des fonctions spécifiques ».

Enfin, je tiens à évoquer l’extraordinaire outil d'IA GRAPE (Gastric Cancer Risk Assessment Procedure), qui vient d'être mis au point, en collaboration avec des chercheurs chinois, par le géant chinois de l'Internet Alibaba. Cet outil est capable de repérer, sans endoscopie, les signes du cancer de l’estomac avec une fiabilité de 85 %, six mois avant que ce cancer ne soit détectable par les meilleurs radiologues, simplement en analysant, par apprentissage profond, des images médicales 3D. Quand on sait que ce cancer fait des ravages en Chine et qu'il est la 4e cause de décès par cancer dans le monde, on comprend mieux l'avancée majeure que représente un tel outil pour mieux traiter précocement ce cancer grave.

Ces quelques exemples que j'ai développés montrent que les IA universelles sont en passe de bouleverser, pour le meilleur, sûrement, mais aussi, peut-être, cela dépendra de nous, pour le pire, nos sociétés. Face à cette rupture technologique, mais aussi sociale et culturelle majeure, il convient d'ouvrir un grand débat démocratique pour définir ensemble un solide cadre éthique et politique qui oriente ces outils, d'une puissance qui semble sans limites, vers les usages et les champs d'application qui servent le bien commun et favorisent l'épanouissement personnel, en veillant de manière ferme à ce que ces artefacts, aussi séduisants qu'efficaces, ne puissent jamais devenir les moyens de notre manipulation, notre asservissement et notre perte d’appétence à comprendre le monde, à inventer et à créer du nouveau...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top