L’article 11 du projet de loi bioéthique français prend-il en compte les principes de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle ?

This content is not available in the selected language.

Par Adèle Lutun, doctorante à l’Institut Droit et Santé, UMR S 1145, Paris Descartes 

En 2018, la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA) fut publiée. La Déclaration propose des préconisations organisées autour de dix principes, afin d’inviter les acteurs du monde de l’IA à appliquer des bonnes pratiques éthiques lors du développement et du déploiement d’algorithmes d’IA. Cette recommandation n’est pas sectorielle et a vocation à s’appliquer à tous les domaines de l’IA.

Le domaine de la santé est donc bien évidemment concerné par les recommandations de la Déclaration, les données traitées dans le cadre du développement et du déploiement des algorithmes étant d’une sensibilité avérée

Au vu de l’essor de l’IA en santé en France, le Conseil consultatif national d’éthique (CCNE) français s’est prononcé sur le sujet et a rendu deux avis majeurs qui font écho en plusieurs points aux recommandations de la Déclaration de Montréal. 

Le sujet de l’éthique en santé est au cœur de l’actualité en France, en raison de l’examen du projet de loi relatif à la bioéthique. A la date de l’écriture de cet article, le projet de loi a été voté par l’Assemblée nationale et a été déposé auprès du Sénat. 

Au sein de ce « projet de loi bioéthique », l’article 11, qui porte sur l’utilisation des traitements algorithmiques des données de santé dans le cadre de la relation entre le patient et le professionnel de santé, attire particulièrement l’attention. 

En effet, c’est le « premier article d’une loi de bioéthique à introduire la notion d’algorithme en lien avec l’intelligence artificielle dans le code de la santé publique ». 

Ce projet d’article impose une obligation d’information du patient de l’utilisation d’un tel traitement algorithmique et de ses modalités d’action par le professionnel de santé communiquant les résultats du traitement algorithmique. 

Il rend nécessaire l’intervention d’un professionnel de santé pour le paramétrage d’un tel traitement et précise que ce professionnel de santé peut effectuer des modifications sur ledit paramétrage. Selon M. Taquet, secrétaire d’Etat, cette disposition a vocation à permettre au professionnel de sante de « procéder aux réglages nécessaires à l’utilisation des règles induites dans [le cas d’un dispositif médical implanté, par exemple], pour l’adapter aux caractéristiques individuelles du patient, en vue de son implantation. […]  Il adaptera un pancréas artificiel aux caractéristiques d’un patient diabétique – poids, taille, vitesse d’action de l’insuline… – pour qu’il lui administre le dosage d’insuline le plus juste. » Cette disposition a évolué lors de la discussion du projet de loi en Commission, afin de préciser le rôle du professionnel de santé et en supprimant la possibilité pour le médecin d’effectuer seul de telles modifications. 

Le projet d’article prévoit enfin la traçabilité des données utilisées par ces dispositifs et des actions qui en résultent, ainsi que l’accès à ces informations par les professionnels de santé concernés. Sur ce point, des amendements ont été déposés afin d’éclaircir ces notions de « traçabilité » et les encadrer, en proposant, par exemple des référentiels. Ces amendements n’ont pas été adoptés mais ont permis au secrétaire d’Etatd’indiquer que cet article a pour objectif d’imposer de traçer les actions que les algorithmes réaliseront sur les données.  

Ces dispositions prennent-elles en compte les recommandations de la Déclaration de Montréal, avec lesquelles les avis du CCNE résonnent ? 

  1. L’information du patient 

Le CCNE dans son avis n°129 énonçait que « la personne [devait] pouvoir être informée préalablement du recours à un algorithme d’aide à la décision médicale dans son parcours de prise en charge en santé. » Pour ce faire, le Conseil recommandait d’inscrire cette obligation d’information dans la loi bioéthique qui suivait son avis.  

Le projet d’article 11 suit cette recommandation : il prévoit une information du patient relativement à l’utilisation d’un traitement algorithmique et à ses modalités de fonctionnement. 

A l’occasion des débats des parlementaires sur cet article, nombreux sont ceux qui ont souhaité imposer le recueil d’un consentement du patient préalablement au recours au traitement algorithmique, ou à tout le moins une information a priori. Les amendements portant ces modifications ont été accueillis défavorablement par les représentants du Gouvernement, l’intervention du médecin ayant étant considérée pour l’adaptation des paramètres des algorithmes comme une garantie plus robuste. Ces amendements, présentés sans le soutien du gouvernement, n’ont pas été adoptés. 

Si l’on comprend l’argument, on peut toutefois regretter que l’article ait été maintenu dans sa version initiale qui prévoit visiblement une information a posteriori, car délivrée par le professionnel qui communique les résultats. Les patients n’auront donc probablement pas la chance de pouvoir s’opposer à l’usage d’un traitement algorithmique. 

Le contenu de cette information interroge : il est prévu que les patients soient informés des modalités d’action du traitement algorithmique. Une telle information doit être intelligible par tous, et implique que le professionnel qui la délivrera dispose des connaissances nécessaires pour répondre aux éventuelles questions, qui pourraient être nombreuses, de la part du patient. 

Les patients devront donc se contenter de cette information, qui permet une application relative du principe de solidarité de la Déclaration de Montréal selon lequel les algorithmes doivent être compatibles avec le maintien de liens de solidarité entre les personnes. En l’espèce, la délivrance de cette information par le médecin communiquant les résultats, permet une prise en compte limitée de l’importance pour les patients des relations avec le personnel médical. 

L’information ayant lieu a postériori, elle permet difficilement l’application du principe de respect de l’autonomie des patients. En effet, les patients ne peuvent exprimer leur accord ou leur opposition à l’usage d’algorithmes : ceux-ci peuvent être utilisés à la discrétion de l’équipe soignante.  Il est à noter que le principe de protection de l’intimité et de la vie privée est absent du projet d’article 11, alors qu’un traitement de données massives est mentionné. L’articulation de l’information prévue au projet d’article 11 avec la communication des données personnelles du patient pour la réalisation dudit traitement devra être tranchée.

  • L’implication du professionnel de santé 

Lors des tables rondes organisées dans le cadre de la Déclaration de Montréal, la nécessité d’intégrer une intervention humaine dans toute décision finale impliquant un algorithme avait également été soulignée. Cet impératif correspond au principe de responsabilité prôné par la Déclaration, selon lequel « le développement et l’utilisation des [algorithmes d’intelligence artificielle] ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise ». Pour ce faire, la Déclaration recommande que « dans tous les domaines où une décision affecte la vie, […] la décision finale devrait revenir à un être humain […] ». 

Au sein de son avis n°129, le CCNE faisait écho à la Déclaration, en soulignant la nécessité de consacrer le « principe fondamental d’une garantie humaine du numérique en santé » au niveau législatif. Le Conseil proposait que cette garantie soit assurée par « l’aménagement d’une capacité́ d’exercice d’un deuxième regard médical humain à la demande d’un patient ou d’un professionnel de santé [et] par la reconnaissance de la nécessité de préserver la maitrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique. » L’instance consultative étoffa son argumentation pour une garantie humaine dans l’utilisation de l’IA dans son avis n°130. Selon le CCNE, la garantie humaine aurait un impact positif, permettant de maintenir un lien d’échange entre le médecin utilisateur d’un algorithme et ses patients, d’assurer de la fiabilité des résultats et de prévenir des risques de biais de l’algorithme.

En l’espèce, le projet d’article garantit au niveau législatif le principe d’une garantie humaine. Toutefois, malgré cette consécration, on pourrait redouter une mise en application complexe de ce principe, liée certainement au manque de capacité du médecin à intervenir, notamment au regard de ses connaissances techniques limitées en matière de développement algorithmique. La modification apportée par la Commission est bienvenue, car elle sous-entend que les modifications de la décision algorithmique seront apportées par des personnes ayant les compétences nécessaires à la modification du traitement, et seraient donc le fruit d’une réflexion pluridisciplinaire. Cependant il est possible de maintenir certaines interrogations notamment concernant la temporalité de cette adaptation, et la capacité des équipes chargées de l’adaptation des algorithmes à entendre et intégrer les retours des médecins. La relation entre les médecins et les développeurs et fournisseurs d’algorithmes sera également conditionnée par ces dispositions, d’une manière que l’on ne peut encore pas identifier.

L’accès des professionnels de santé aux « actions du traitement algorithmique » utilisé dans le cadre des soins, « aux données utilisées » et aux informations en résultant est une bonne chose. Cependant, on peut douter de la réalité de son application, si les professionnels de santé ne sont pas mieux formés aux notions nécessaires pour comprendre ce qu’impliquent des traitements algorithmiques. Par ailleurs, l’absence de définition des différents éléments, dont les contours ne semblent pas évidents à la lecture du projet d’article, auxquels le professionnel de santé peut avoir accès pourrait complexifier leur transmission. 

Ce projet d’article est nécessaire, mais semble proposer une base bancale pour le développement de l’usage des algorithmes d’IA dans le cadre du soin, notamment car il régule l’algorithme lors de son utilisation « finale », pour les soins, en non en amont de son déploiement dans les institutions de santé.

En effet, la recherche permettant d’aboutir à de tels algorithmes n’est pas mentionnée dans le projet de loi bioéthique, alors que c’est à ce moment que beaucoup des principes éthiques de la Déclaration de Montréal gagneraient à être appliqués.

L’effort est donc louable, mais ne sera probablement pas suffisant, le système de soins nécessitant l’application d’un principe d’« Ethics by Design », rappelant celui de « Privacy by Design » du RGPD,  pour les algorithmes, notamment ceux utilisés dans le domaine de la santé. Le projet de loi français devant être encore longuement débattu, il se pourrait que des sénateurs décident de proposer des amendements en ce sens. 

Je tiens à remercier Cécile Petitgand pour sa relecture attentive de ce billet.

This content has been updated on 10 June 2020 at 15 h 17 min.

Comments

Comment