Intelligence artificielle en médecine
RÈGLES DU JEU - RSE, soutenabilité, gouvernance, finance

Intelligence artificielle en médecine

Enjeux et défis éthiques

Diane de Saint-Affrique est l’auteure de IA et médecine : quand les avancées technologiques redéfinissent les règles d’une IA responsable dans le domaine de la santé dans la revue Médecine et droit (ed Elsevier).

À bien des égards l’invention de l’intelligence artificielle (IA) est comparable à celle de l’imprimerie, dans la mesure où elle incarne une révolution qui transcende toutes les sphères de la société, de l’économie à la politique en passant par la médecine. S’il est indéniable que l’IA est incontournable, un débat émerge au sujet de son usage et des limites de son utilisation dans des secteurs sensibles comme celui de la santé. Certes l’IA porte de vastes espoirs en termes de pratique et d’innovation dans le domaine médical mais elle suscite également de vives inquiétudes quant aux possibles dérives. Les enjeux et défis éthiques qu’elle soulève sont donc majeurs.

Les vertus de l’IA en médecine

Il est indéniable que l’IA porte des avancées majeures dans la pratique médicale. Elle permet une plus grande efficience en se substituant notamment au personnel médical dans certaines tâches répétitives. Dans certains domaines où l’analyse d’images est nécessaire comme en radiologie diagnostique, en dermatologie ou en ophtalmologie, l’IA peut même poser des diagnostics de façon plus rapide et plus fiable qu’un humain, ce qui permet in fine au personnel médical de libérer du temps pour se consacrer au patient. Une étude réalisée par Capio révèle qu’en Suède les assistants médicaux dotés d’IA réduisent de 30 % le temps administratif des médecins1. Outre le gain de temps, l’IA permet d’améliorer la médecine prédictive, notamment par une capacité à trier et à trouver l’information utile très rapidement pour aider à la prise de décision ou faire avancer la science dans des spécialités telle que de l’oncologie.  L’IA permet également d’accroitre les performances de la médecine de précision en épaulant le médecin avec la chirurgie assistée par ordinateur. Ainsi, en 2024, le Dr. Richard Gaston, qui exerce à la clinique Saint-Augustin de Bordeaux, a mené une opération à distance avec un patient se trouvant à Pékin, soit à 11 000 km. Enfin l’IA favorise également l’accélération de la recherche biomédicale et la découverte de médicaments.

Les défis éthiques de l’utilisation de l’IA en médecine

Malgré les opportunités inouïes qu’incarne l’IA dans le progrès médical, il est impératif d’avoir en tête les dangers qu’elle porte pour mieux les contrer. En ce sens, le proverbe de Montesquieu, « le mieux est le mortel ennemi du bien », illustre parfaitement l’état d’esprit dans lequel il convient d’aborder la question.

Une première limite est celle de la logique de « la boîte noire ». En d’autres termes, comment vérifier la prédiction d’une maladie par l’IA ? Il y a des domaines dans lesquels les résultats fournis par l’IA ne seront pas vérifiables comme c’est le cas pour l’apparition d’une maladie dans une temporalité future ou encore l’analyse génomique par exemple. Dans ces hypothèses, le médecin n’aura pas d’autre choix que de se fier aveuglément à cette nouvelle technologie. Cela pose question à plusieurs égards, notamment relativement à la fiabilité des données mais aussi au risque d’erreur générée par une IA qui peut s’avérer faillible face à la complexité du monde réel. Le défi posé est ici celui de la validation de la « boite noire ». Certains algorithmes rendent quasiment impossible pour les êtres humains la possibilité de comprendre comment la machine est arrivée au résultat, ce qui pose des problèmes de sécurité, de transparence et de responsabilité. Enfin, avec la monté en puissance de cette technologie, l’équilibre établi entre le médecin, le patient et la décision médicale peut être fragilisée ce qui risque notamment d’altérer la relation de confiance entre le médecin et son patient.

Une deuxième limite concerne le consentement du patient. Pour s’améliorer, l’IA mobilise de grandes masses de données, dont celles des patients. En conséquence, la qualité et le choix de ces données sont au cœur du questionnement éthique : qui sera propriétaire de ces données ? Qui pourra les utiliser ? Par exemple, en 2019 Google a accédé à des données de 50 millions de patients américains sans consentement individuel explicite, déclenchant une polémique et des poursuites2.

Une troisième limite est celle de la responsabilité du médecin à l’ère de l’IA. La sacrosainte relation médecin-patient pourrait être altérée si le praticien n’est plus perçu comme le seul maître de la décision, mais comme le co-acteur d’une machine. C’est la primauté de la relation médecin-patient qui est remise en question et, en parallèle, la question de la responsabilité. Qui du concepteur de l’algorithme, du fabricant du logiciel, du médecin utilisateur verra sa responsabilité engagée en cas d’erreur médicale ?

Les solutions : pour une utilisation responsable de l’IA dans la médecine

La primauté de la relation médecin-patient et la maîtrise finale du médecin dans le processus de décision doivent demeurer fondamentales pour permettre le développement d’une IA éthique et responsable. Cela implique que le médecin doit également développer une résistance à la pression économique dans la mesure où elle ne doit en aucun cas être le moteur du développement et de l’usage de l’IA. Par conséquent, sécuriser les données et garantir la transparence des algorithmes nous paraît être une priorité dans le développement d’une IA responsable. Concrètement, il s’agit de vérifier le choix et la qualité des données au stade de la collecte, de vérifier l’algorithme pendant le cycle de vie et être capable d’expliquer les résultats.

Enfin, maitriser les développements de l’IA par une harmonisation législative au niveau international est une nécessité. La compétition mondiale pousse à aller toujours plus vite, au risque de favoriser l’émergence de systèmes défectueux ou dangereux. Pour prévenir une telle dérive, la mise en place d’organismes internationaux de régulation apparait indispensable. Au plan national une collaboration étroite entre acteurs publics et privés est prioritaire. Enfin, créer une instance indépendante de contrôle sur le modèle du Comité consultatif national d’éthique, dédié à l’IA permettrait d’harmoniser les pratiques et de garantir une utilisation éthique de l’IA en santé.

La tribune est disponible en téléchargement :


  1. Frapin, A. (2025). Les assistants médicaux dotés d’IA réduisent de 30 % le temps administratif des médecins (étude). Le Quotidien du Médecin. https://www.lequotidiendumedecin.fr/sante-societe/e-sante/les-assistants-medicaux-dotes-dia-reduisent-de-30-le-temps-administratif-des-medecins-etude ↩︎
  2. Le Point.fr. (2019). « Nightingale » : quand Google fait la chasse aux données médicales. Le Point.fr. https://www.lepoint.fr/high-tech-internet/nightingale-quand-google-fait-la-chasse-aux-donnees-medicales-12-11-2019-2346666_47.php ↩︎