Intelligence artificielle et responsabilité civile en matière médicale: Le cas des logiciels d’aide à la décision

Joignez-vous au Groupe de recherche en santé et droit de McGill (GRSD) pour un séminaire intitulé « Intelligence artificielle et responsabilité civile en matière médicale : Le cas des logiciels d’aide à la décision ». Le séminaire sera présenté par Laurène Mazeau-Ninin, Docteur en droit privé et sciences criminelles de l’Université de Toulouse et Maître de conférences à l’Université de Bretagne occidentale.

L’évènement se déroulera le mercredi 2 mai 2018 de 12 h 30 à 14 h, à la salle 316 New Chancellor Day Hall, 3660 rue Peel. Formation d’un dispensateur reconnu aux fins de la formation continue obligatoire pour une durée de 1,5 heure.

Merci de confirmer votre présence en envoyant un courriel au rghl.law@mcgill.ca.

 

RÉSUMÉ

Lorsque l’on aborde les questions croisées d’intelligence artificielle et de responsabilité, on interroge notamment les processus automatiques et les mécanismes d’aide à la décision. La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour élaborer de meilleures décisions.
Elle peut aider à trouver une solution où l’homme n’en trouvait pas, ou une solution à des problèmes nouveaux où l’homme n’a aucune expérience. Elle peut encore aider à juger de la qualité d’une solution, mais aussi à confirmer/justifier des décisions. La recherche opérationnelle intervient dans des domaines très divers : GPS, finance, environnement et développement durable, domaine spatial,
politiques publiques,
gestion des ressources hospitalières, etc. Elle favorise une culture scientifique dans la prise de décision. Ainsi, la recherche opérationnelle, dont procèdent les systèmes d’aide au diagnostic médical, est au cœur de problématiques juridiques fournies : qu’il s’agisse de confidentialité des données (Big data), d’imputation d’obligation, de prise de décision, ou d’information des utilisateurs. Que se passe-t-il lorsque le système d’aide au diagnostic médical devient systématiquement « la » décision ? Qui est responsable des mauvais choix opérés par le système (le programmeur, l’exploitant, le propriétaire, le médecin, le patient, etc.) ? Existe-t-il des règles déontologiques ou éthiques lorsque ces techniques ont un impact sur l’homme ? Quid de la responsabilité du médecin qui ne se conformerait pas dans son diagnostic à celui délivré par le logiciel et qu’il se révèle préjudiciable au patient ? Le médecin doit-il être le seul responsable de l’utilisation du logiciel si elle entraîne un effet négatif pour le patient ? L’arbre de décision qui conduit au diagnostic médical et au choix d’une option thérapeutique se rapproche des mécanismes d’automatiques. Peut-on en déduire qu’il serait possible d’automatiser tout ou partie de la décision médicale ? La recherche opérationnelle ne se contente pas de suppléer l’activité humaine, elle la change.

 

BIOGRAPHIE

Laurène Mazeau-Ninin est Docteur en Droit privé et sciences criminelles de l’Université de Toulouse 1 depuis 2010. Elle est Maître de conférences à l’Université de Bretagne occidentale et rattachée au Laboratoire de recherches en Droit (Lab-Lex) depuis 2012. Elle est l’auteur de plus d’une vingtaine de publications dans le domaine des rapports qu’entretiennent le Droit de la responsabilité et les Nouvelles Technologies : intelligence artificielle, aide à la décision, recherche opérationnelle, robot, internet. Elle codirige une chronique dans la revue Cahiers Droit Sciences & Technologies depuis 2014. Elle est membre de la Commission Recherche de l’Université de Bretagne occidentale depuis 2015.

Ce contenu a été mis à jour le 20 avril 2018 à 8 h 53 min.

Commentaires

Laisser un commentaire