RTFlash

Avenir

Un robot chirurgical possédant des sens comparables à ceux des humains

Aujourd’hui, les robots chirurgicaux les plus perfectionnés fonctionnent uniquement de manière visuelle à partir d’imageries médicales. Dès qu’une intervention devient difficile, ils sont incapables de reproduire le savoir-faire d’un chirurgien qui se sert de tous ses sens pendant une opération, et pas seulement de sa vue. Il va par exemple utiliser son toucher en palpant le corps du malade ou alors écouter le son d’une perceuse dont la mèche s’enfonce dans un os. Un programme de recherche européen baptisé FAROS (Functionally accurate robotic surgery) vient de débuter avec pour objectif de développer un robot chirurgical autonome, capable d’acquérir des sens comparables, voire supérieurs à ceux des humains.

Chercheur à l’ISIR (Institut des Systèmes Intelligents et de Robotique) et associé à ce projet, Guillaume Morel explique les limites des robots actuellement en service. « D’un point de vue scientifique, on a longtemps cru que le développement d’un robot chirurgical n’était qu’une affaire de millimètres. C’est selon moi une conception naïve de la chirurgie. Anatomiquement, il y a des choses qu’on ne voit pas à l’image. Au moment de faire son geste, le chirurgien va s’apercevoir que l’os est plus mou que prévu et va donc enfoncer une vis un peu plus en profondeur. Ou alors, avant de fixer un implant, il va prendre la décision de « rayer » la surface d’accroche pour une meilleure tenue du ciment. Un certain nombre de ses gestes ne sont donc pas liés à une planification de la géométrie ».

Partant de ce constat, le chercheur présente le projet FAROS en utilisant la métaphore de la conduite automobile. « Les robots actuels fonctionnent comme des systèmes de positionnement qui suivent une trajectoire. Un peu comme une voiture équipée d’un système de navigation par GPS et qui permet de savoir où vous êtes situés. Mais lorsque vous êtes arrivés à destination et que vous devez vous garer, le GPS n’a plus d’utilité. Il ne s’agit plus de se recaler dans un plan d’ensemble. Le projet FAROS, c’est la version d’après, celle de la conduite automatique où le véhicule va se servir de capteurs situés par exemple sur le pare-chocs pour détecter si des voitures sont présentes devant ou derrière, évaluer la distance avec le trottoir… »

Plusieurs capteurs vont donc être développés puis intégrés à un robot chirurgical. L’objectif étant d’améliorer non pas sa précision géométrique mais plutôt fonctionnelle afin qu’il soit capable d’appréhender en temps réel ce qui se passe sur le plan anatomique. Il est ainsi prévu d’utiliser des capteurs de force pour mesurer les efforts effectués par le robot et évaluer si la zone où il intervient est dure ou molle.

Des capteurs d’impédance électrique vont également être ajoutés, ces derniers équipent déjà certains instruments chirurgicaux utilisés manuellement comme ceux développés par la société SpineGuard, le partenaire de ce projet. Ils permettent de mesurer la conductivité électrique qui a la particularité d’être faible dans la partie corticale d’un os, celle située la plus à l’extérieur, et élevée dans la partie spongieuse, celle située au centre. « Ils fonctionnent comme un radar de recul sur une voiture, poursuit le chercheur. Le capteur émet un bip très espacé lorsque l’os est dur puis au fur et à mesure que la vis pénètre dans la partie spongieuse, les bips deviennent plus rapprochés, ce qui signifie qu’on est sur le point d’atteindre une zone interdite hors de l’os ».

D’autres capteurs doivent également être ajoutés, cette fois-ci pour capter du son. Le robot devrait ainsi embarquer des micros afin d’analyser par exemple le son d’une perceuse. Il est aussi prévu d’utiliser des ultra-sons à l’aide d’un échographe en mode A pour obtenir non pas des images, mais analyser la variation d’un écho sous la forme d’un signal. Même si les capteurs seront principalement non visuels, les scientifiques pourraient se servir de l’imagerie hyper-spectrale, une technologie permettant d’obtenir une multitude d’images avec des fréquences différentes.

Face au grand nombre d’informations fournies par ces capteurs, les équipes de recherche vont se servir de l’intelligence artificielle pour les aider à traiter toutes les données enregistrées. Chaque signal aura une grande variabilité et les algorithmes vont être capables, entre autres, de fusionner les résultats dans le but d’établir des lois de raisonnement et de prédiction à partir de tous les signaux émis. « Même si nous avons une idée des résultats obtenus par les capteurs, l’intelligence artificielle nous aidera à extraire des lois générales afin de mieux appréhender la réalité de ce qui se passe dans le corps », ajoute Guillaume Morel.

Ce projet de recherche va se concentrer uniquement sur la chirurgie de la moelle épinière et nécessitera la réalisation de plusieurs essais en laboratoire. Quatre universités sont impliquées dans ce programme : la Sorbonne Université et la KU Leuven en Belgique pour leur savoir-faire en robotique, le King’s College London en Angleterre pour son expertise en imagerie et en intelligence artificielle et enfin l’hôpital universitaire Balgrist en Suisse qui regroupe des chirurgiens. D’une durée de trois ans, le projet FAROS devrait se conclure par la validation des concepts clés en laboratoire correspondant au niveau 4 sur l’échelle TRL (Technology readiness level), qui évalue le degré de maturité d’une technologie.

Article rédigé  par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top