Doit-on laisser l’intelligence artificielle faire seule les diagnostics en soins de santé ? 

Avec l’avènement de l’intelligence artificielle (IA) il est juste de se poser la question.

En France, le Comité national pilote d’éthique du numérique (CNPED) ainsi que le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), se sont penchés sur le sujet.

Ils précisent que dans leurs travaux, que les systèmes d’IA utilisé dans le cadre de diagnostic médical « produisent des résultats basés d’une part sur des approches probabilistes et d’autre part ils peuvent être entachés d’erreurs ». C’est pourquoi un contrôle humain reste indispensable dans l’élaboration du diagnostic final.

Ces systèmes peuvent dès lors être utilisés dans le domaine de l’imagerie médical et dans le dépistage de cancer ou maladie, avec une fiabilité impressionnant et un gain de temps non négligeable.

Malgré tout, le CNPED et le CCNE fixent deux conditions indispensables à l’intégration des IA dans le système des soins de santé.

  1. Le diagnostic proposé par l’IA doit toujours être soumis à un contrôle humain,
  2. Les résultats doivent être explicables.

Dans leurs travaux ils dressent une liste de 16 recommandations afin d’utiliser au mieux ces nouveaux systèmes. Dont le fait de continuer les tests cliniques afin d’évaluer le rapport bénéfices-risques.

La confiance et la transparence doivent également transparaitre. Le compte rendu médical doit alors mentionner s’il a bénéficié de l’utilisation d’un IA.

Pour finir, il faut garder à l’esprit que ces outils sont là pour apporter des réponses aux insuffisances du système de soins (désertification médicale) et non comme des solutions de remplacements aux équipes.

L’article complet ce trouve ci-joint. 

La page va s'ouvrir dans un nouvel onglet.

Partagez cet article:

A lire également