LE QUOTIDIEN L'Europe est la première à réglementer l'usage de l'intelligence artificielle. Vous en réjouissez-vous ? Pourquoi une réglementation s’imposait-elle ?
DAVID GRUSON : De nouveaux cas d’usages sont apparus ces dernières années avec l’avancée de l’intelligence artificielle (IA), l’évolution de la technologie s’étant accentuée ces tout derniers mois avec l’IA générative dont ChatGPT est la figure de proue. Cette réglementation est une avancée majeure. Elle reconnaît le principe de garantie humaine, qui assure le développement éthique des intelligences artificielles concourant à la santé, en établissant des points de supervision humaine tout au long de leur évolution. L’IA Act est le fruit d’années de réflexion, entamées en amont dans le cadre de la révision de la loi de bioéthique en 2017.
Quels garde-fous apporte l’IA Act ?
Cette réglementation traduit la volonté de promouvoir une IA centrée sur l’humain et protectrice des droits fondamentaux. Ce texte est très ferme sur le plan du droit. Il rend opposable à partir de 2025 le principe de garantie humaine de l’IA, à la fois pour les concepteurs mais aussi pour les utilisateurs de systèmes d’IA. Il est assorti de sanctions comme pour le non-respect du RGPD (NDLR : les amendes pour manquement de coopération avec les autorités nationales au sein de l’UE peuvent s'élever jusqu'à 30 millions d'euros ou 6 % du chiffre d'affaires). Mais ce règlement européen sur l’IA conserve une certaine élasticité de façon à ne pas bloquer la diffusion de l’innovation. Le système de régulation sera gradué en fonction du niveau des risques associés au système d’intelligence artificielle, l’IA en santé étant classée à « haut risque ».
Le Parlement interdit aux systèmes d’IA de recourir aux techniques subliminales, à la catégorisation biométrique, à la police prédictive, aux bases de données de reconnaissance faciale… De telles dérives sont-elles à redouter en santé ?
Dans l’absolu oui, on peut imaginer toute une série de dérives potentielles. C’est une bonne chose que le texte les identifie et que ces questions éthiques soient posées maintenant. Le risque de perte de contrôle ou de perte de décision des professionnels de santé, de désintermédiation entre l’IA et le patient se posent aussi de manière concrète et il faut les traiter. Mais au rythme actuel de l’innovation technologique, il est vraisemblable que ce règlement sera évolutif. C’est un ouvrage qu’il faudra remettre sur le métier.
Entre le progrès technologique et le respect des droits élémentaires, le Parlement européen a-t-il trouvé dans l’IA Act le juste équilibre ?
À mon sens, oui, pour autant que ce cap reste tenu dans la pratique par les institutions chargées dans chaque pays de sa mise en œuvre. En France, la Commission nationale de l’informatique et des libertés (Cnil) aura la responsabilité de veiller à l’application de la garantie humaine de l’IA. Il faudra une harmonisation européenne pour que les autorités de régulation ne basculent pas sur le terrain de la pure régulation.
La santé est-elle prête à se saisir de cette réglementation et du principe de la garantie humaine ?
L’IA Act entrera en vigueur en 2025 mais il faut s’y préparer dès à présent et diffuser cette culture de la garantie humaine de l’IA dans les formations en santé, initiale et continue, mais aussi accompagner la transformation des métiers. Le ministère de la Santé a lancé l’insertion du numérique dans toutes les formations en santé. L’IA est devenue une orientation prioritaire du développement professionnel continu en septembre 2019.
Certains professionnels de santé ont aussi déjà commencé à construire des écosystèmes de garantie humaine de l’IA. Une douzaine est en place dans le domaine des soins buccodentaires, en radiologie, anatomopathologie, biologie, pharmacie… Mais il faut forcer l’allure et développer des actions pilotes de supervision humaine. C’est le sens de la labellisation présentée en février par Ethik-IA avec le Digital Medical Hub de l’AP-HP. Une normalisation Afnor devrait être adoptée à l’automne, qui définira les bonnes pratiques en matière de garantie humaine de l’IA, dont la création d’un collège de garantie humaine pour les concepteurs comprenant des représentants des professionnels et des patients.
L’IA a gagné du terrain en santé ces dernières années. Quelles nouvelles avancées peut-elle encore apporter en médecine ?
L’IA est une lame de fond qui touche de nombreux domaines de la médecine. Nous constatons aujourd’hui une accélération massive du rythme de diffusion de l’IA dans les pratiques. Tout ce qui est à base de reconnaissance d’images fait l’objet d’un mouvement puissant : l’interprétation d’images en radiologie, en traumatologie, pour les clichés de fonds d’œil en ophtalmologie, en dermatologie, pour les mammographies… Nous sommes beaucoup sollicités avec l’équipe d’Ethik-IA pour la construction de mécanismes de supervision humaine. Dans la foulée de ChatGPT, l’IA générative ouvre un champ des possibles mais il faut rester prudents dans les projections.
Chat GPT a récemment beaucoup fait parler de lui. Que faut-il attendre des modèles de langage ? Peut-on imaginer qu’ils deviennent des assistants des médecins ?
Oui, il existe déjà toute une variété d’agents conversationnels en santé dans le domaine des maladies chroniques métaboliques, dans le diabète, l’insuffisance rénale... Ces agents peuvent être une aide au diagnostic, réaliser l’entretien préalable avec le patient, expliquer les traitements, faire de l’éducation thérapeutique. Mais qu’on ne s’y trompe pas, ChatGPT aura à respecter le règlement européen sur l’IA. Et il sera exposé au même risque de sanctions en cas d’écart aux principes de supervision humaine de l’IA.
De nombreuses spécialités médicales sont impactées par l’IA (radiologie, oncologie, anapath, ophtalmo…). Sont-elles menacées par l’IA ?
Non. Nous avons déjà posé le constat en 2019 dans une étude baptisée « IA et emploi en santé, quoi de neuf docteur ? » pour l’institut Montaigne. Nous faisions l’analyse que l’IA n’allait pas se traduire par la suppression de spécialités médicales mais plutôt par un déplacement de fonctions. Le radiologue déplace ses interventions sur des actes à plus haute valeur ajoutée interventionnelle, par exemple, et on assiste au déploiement de pratiques avancées paramédicales. Sur le terrain, les médecins ont bien saisi l’importance de se saisir de ces outils. Ils ont dépassé les inquiétudes initiales qu’ils avaient il y a deux ou trois ans.
Une étude a montré que ChatGPT, dans le cadre de réponses écrites sur des forums médicaux, apportait des réponses plus précises et était plus empathique que des médecins. Qu’est-ce que cela vous inspire ?
Cela signifie que le risque de brouillage du réel est tout à fait présent. La garantie humaine sert aussi à donner aux patients l’assurance qu’il conservera un interlocuteur, et qu’il s’agira bien d’une personne humaine. Car le risque de désintermédiation est réel et l’empathie du chatbot ne sera jamais qu’une empathie mimétique, une apparence. Cela ne veut pas dire qu’il n’y a pas des conclusions à tirer de cette étude sur la manière dont les professionnels de santé peuvent mieux s’adresser aux patients. Et d’ailleurs, une des leçons principales que l’on observe dans les collèges de garantie humaine, c’est que les méthodes de supervision permettent de réajuster des pratiques des professionnels.
À l’hôpital psychiatrique du Havre, vague d’arrêts de travail de soignants confrontés à une patiente violente
« L’ARS nous déshabille ! » : à Saint-Affrique, des soignants posent nus pour dénoncer le manque de moyens
Ouverture du procès d'un homme jugé pour le viol d'une patiente à l'hôpital Cochin en 2022
Et les praticiens nucléaires inventèrent la médecine théranostique