Nouveau billet de blogue de la Chaire : Chronique d’une mort annoncée ou défi d’adaptation? La réglementation professionnelle et l’émergence de l’intelligence artificielle dans le domaine de la santé

Par Marco Laverdière, avocat, chercheur associé à la Chaire de recherche du Canada sur la culture collaborative en droit et politiques de la santé, enseignant en droit professionnel du secteur de la santé à l’Université de Sherbrooke


L’avènement de l’intelligence artificielle (IA) génère son lot de craintes et d’angoisses pour les uns, alors qu’elle est plutôt source d’espoirs, voire de fantasmes, pour les autres. S’il est actuellement difficile de déterminer avec exactitude de quoi l’avenir sera fait en cette matière, déjà on s’affaire, à juste titre, à s’interroger sur l’encadrement juridique des futurs développements de l’AI, sans compter ses applications présentes. Le lancement prochain de la Déclaration de Montréal sur l’intelligence artificielle responsable, suite aux délibérations sur une version préliminaire, pourrait constituer une étape importante à ce chapitre. On remarque aussi que tant chez nos voisins américains qu’au niveau de l’Union européenne, diverses initiatives visant notamment à poser les bases juridiques requises sont en démarrage.

En ce qui concerne la réglementation dans le domaine de la santé, et plus particulièrement celle relative aux professionnels qui y exercent, la réflexion semble encore balbutiante, du moins dans le contexte canadien. Quelques initiatives sont observables dans certains domaines, comme celui de l’imagerie médicale, où l’émergence de l’IA apparait sans doute déjà plus tangible. Plus généralement toutefois, il semble y avoir une certaine passivité, proche de la torpeur, qui pourrait compromettre ou retarder l’apparition de ce qu’on pourrait appeler une « feuille de route » pour les autorités réglementaires, dont les ordres professionnels.

Pour expliquer cette situation, il faut bien admettre d’abord que le sujet peut s’avérer intimidant en raison de sa complexité immédiate. On pourrait aussi penser que la prévision vaguement « dystopique » selon laquelle les robots ou les systèmes intelligents remplaceraient sous peu les humains, y compris les professionnels de la santé, peut alimenter un certain fatalisme à ce sujet. Ainsi, certains en arrivent peut-être à considérer que, dans la mesure où la réglementation professionnelle a généralement pour but d’encadrer les activités humaines, il est vain de vouloir l’adapter à l’IA si, justement, il est envisagé que celle-ci laissera de moins en moins de place aux interventions humaines.

Doit-on ainsi vraiment considérer que l’avènement de l’IA dans le domaine de la santé est de nature à rendre obsolète la réglementation professionnelle? Sinon, quels devraient être les principaux axes de la réflexion à entreprendre à cet égard?

En lien avec ces questions, il faut d’abord noter que la perspective d’une « IA forte », qui vise à concevoir des machines ou systèmes ayant la capacité de raisonner comme l’humain, même de le surpasser, n’est peut-être pas celle qui apparaît la plus plausible, ou du moins, n’est pas la seule à considérer.  En fait, dans le domaine de la santé,  il semble y avoir d’autres perspectives qu’on devrait plus rapidement anticiper, soit celles dites de l’ « IA faible », suivant lesquelles les technologies développées auraient surtout pour objet d’aider les humains dans leurs tâches. Ceci pourrait signifier, dans le domaine de la santé, la mise en œuvre d’applications d’assistance à la prise de décision pour les professionnels, pour la détection et la prévention des maladies, pour la chirurgie assistée, etc. A priori, cette dernière éventualité ne semble pas poser de défis insurmontables au plan de la réglementation professionnelle dans le secteur de la santé, puisqu’il serait toujours requis d’encadrer l’activité humaine dans la prestation de soins. Bref il n’y a donc pas nécessairement de banqueroute totale du système réglementaire à entrevoir!

Quant aux principaux éléments qui devraient faire l’objet de cet encadrement, on peut notamment considérer les orientations récemment identifiées par l’Association médicale américaine (AMA) en ce qui concerne les développements en matière d’IA, Ainsi, une traduction libre de ces orientations indiquent que l’AMA entend promouvoir un développement consciencieux, de haute qualité et cliniquement validé de l’IA en matière de soins de santé, en fonction des objectifs ou enjeux particuliers suivants:

  • Conception et évaluation en fonction des meilleures pratiques et des intérêts des patients;
  • Transparence;
  • Conformité aux exigences de reproductibilité;
  • Identification et possibilité de correction des biais, en évitant de créer ou d’aggraver les problèmes vécus par les populations les plus vulnérables en ce qui concerne les soins de santé, particulièrement à l’étape de l’expérimentation et du déploiement des applications d’IA;
  • Protection de la confidentialité, de la sécurité et de l’intégrité des renseignements personnels.

De façon plus précise, suivant ce qui est relevé par une variété d’experts (voir notamment ces textes de W. Nicholson Price et de David A. TEICH et les présentations lors du 35e colloque Jean-Yves-Rivard), on peut déjà arriver à identifier certains enjeux qui devront requérir une attention au plan réglementaire :

  • Comment encadrer le développement et l’utilisation des algorithmes de traitement, dans le contexte où ceux-ci peuvent, en raison de leur complexité et de leur opacité, devenir des « boîtes noires »? On parle ici d’algorithmes alimentés par des données massives, qui conduisent à des pronostics ou des diagnostics potentiellement valables dans bien des cas, mais que les professionnels n’arrivent pas à expliquer ou à comprendre. Il leur devient alors difficile d’exercer le jugement clinique qu’on attend d’eux pour, au besoin, remettre en question le résultat obtenu. Par ailleurs, il devient alors aussi difficile d’expliquer en quoi le processus décisionnel s’avère conforme aux données scientifiques probantes.
  • Comment devrait se partager la responsabilité, au plan civil mais également au plan déontologique, entre les professionnels qui ont recours à l’IA dans le cadre de leur pratique, et celle des développeurs des algorithmes ainsi utilisés? Si, au plan clinique, un médecin décide de s’écarter du résultat produit par un algorithme réputé fiable et dont l’usage est reconnu, quel est l’impact sur ses obligations d’information au patient et, éventuellement, sur sa responsabilité?
  • Dans la mesure où l’utilisation de données massives, par divers développeurs et utilisateurs, accroît le risque de « ré-identification»  des données, soit celui de rétablir un lien entre une personne et des données qui étaient préalablement anonymes, comment les professionnels pourront-ils s’assurer du respect de leur obligation au secret professionnel à l’égard de leurs patients? Plus précisément, dans quelle mesure les établissements et les professionnels doivent-il accepter d’alimenter des banques de données avec des renseignements qui auraient préalablement été « dé-identifiées », considérant ce risque de ré-identification?
  • Comment éviter une dépersonnalisation des soins, par un recours accru, sinon exclusif, à des interfaces artificiels, alors même que le professionnalisme, suivant ce qui ressort du Code des professions, est étroitement lié au caractère personnel des rapports entre les professionnels et les gens recourant à leurs services, en raison du lien de confiance qui s’établit entre eux?

Même s’ils représentent un défi certain pour les autorités concernées, toutes ces questions et tous ces enjeux ne sont clairement pas étrangers à la réglementation professionnelle. Ainsi, par exemple, la conformité aux normes scientifiques généralement reconnues, la transparence, la non-discrimination en fonction de motifs proscrits, l’attention aux populations vulnérables et la protection du secret professionnel et de la confidentialité sont tous des « objets usuels » visés par les codes de déontologie des professionnels de la santé et par la réglementation afférente, sans compter les lois généralement applicables à l’organisation et au fonctionnement des systèmes sociosanitaires.

Tout indique donc qu’on devrait déjà commencer à y réfléchir plus activement dans les milieux concernés, peut-être d’abord en cherchant à établir une certaine planification des interventions à réaliser et une coordination efficace des responsabilités entre les autorités réglementaires et administratives concernées. Outre les ordres professionnels, l’émergence de l’IA dans le domaine de la santé peut concerner également différents autres acteurs, tel Santé Canada, en ce qui concerne le processus d’homologation des instruments médicaux, à l’instar de son homologue américain, la Food and Drug Administration (FDA), qui a adopté des orientations à ce sujet . Les ministères provinciaux de la santé seront également appelés à encadrer les applications en établissements et peut-être aussi à préciser le rôle des organismes qui, comme l’Institut national d’excellence en santé et en services sociaux (INESSS), sont chargés d’évaluer les avantages cliniques et économiques des technologies en santé.

Dans le contexte québécois, alors qu’on peut déjà constater une absence d’encadrement juridique satisfaisant de la télésanté, qui représente un enjeu connexe, voire intégré, à ceux qui découlent de l’IA, il y aurait lieu de ne pas trop attendre avant de lancer des démarches ouvertes de réflexion et de consultation. Il faudra alors certainement trouver une façon d’engager les populations concernées dans cette démarche, considérant l’importance de bien prendre en compte les attentes sociales en cette matière, lesquelles sont, comme le révélait un article récent paru dans Nature, grandement influencées par divers facteurs culturels et socioéconomiques. Devant la complexité des questions soulevées, le morcellement des initiatives ou l’attentisme seraient vraisemblablement de nature à générer, au mieux, un éventuel fouillis de mesures mal coordonnées ou, au pire, des dérapages découlant de l’absence de balises. En ce sens, on pourrait souhaiter que le lancement prochain de la Déclaration de Montréal sur l’IA responsable constitue le point de départ d’une autre initiative, qui pourrait être celle d’une éventuelle déclaration portant spécifiquement sur l’encadrement de l’IA dans le domaine de la santé.

Ce contenu a été mis à jour le 31 octobre 2018 à 11 h 30 min.

Commentaires

Laisser un commentaire