L’intelligence artificielle et la santé : les médecins entre enthousiasme et inquiétude

ByRédaction

August 13, 2025


L’intelligence artificielle (IA) bouleverse depuis plusieurs années notre quotidien, et la santé n’y échappe pas. De la gestion des dossiers patients à l’analyse de radios, en passant par la rédaction de comptes rendus médicaux, elle est en train de redessiner le paysage médical mondial. Si les promesses sont nombreuses — diagnostic plus rapide, détection précoce, automatisation des tâches chronophages —, les praticiens ne sont pas tous aussi enthousiastes.

À l’ère où la moindre douleur entraîne une recherche sur internet, le « Docteur Google » a désormais un rival plus sophistiqué : les agents conversationnels intelligents comme ChatGPT. Formés sur des milliards de données, ces outils génèrent des réponses instantanées à des questions médicales, parfois avec un aplomb inquiétant. Pour le meilleur ? Ou pour le pire ?

Une adoption rapide, mais encore inégale

Une récente étude de l’éditeur scientifique Elsevier, menée auprès de 2 200 médecins et infirmiers répartis dans 109 pays, révèle un certain engouement. En 2025, 48 % des professionnels de santé ont eu recours à l’IA dans leur pratique quotidienne, contre seulement 26 % un an auparavant. Une croissance qui illustre l’accélération de la transformation numérique dans les hôpitaux.

Néanmoins, l’usage reste souvent cantonné à des fonctions secondaires : aide à la gestion administrative, transcription de comptes rendus, vérification d’interactions médicamenteuses. Peu de médecins osent encore s’en remettre à l’IA pour poser un diagnostic ou prendre des décisions thérapeutiques majeures.

La raison ? Le manque de formation, mais surtout un déficit de confiance. 37 % des soignants interrogés affirment ne pas vouloir utiliser l’IA pour prendre des décisions cliniques, préférant s’en tenir à leur propre jugement.

L’autodiagnostic, un phénomène inquiétant

Du côté des patients, c’est une autre réalité qui se dessine. Grâce (ou à cause) de l’accessibilité des IA génératives, nombre d’entre eux arrivent en consultation avec un diagnostic préétabli. Ils présentent des listes de symptômes, parfois générées par des IA, et évoquent des pathologies qu’ils pensent avoir identifiées. Problème : ces réponses sont parfois erronées, voire totalement inventées — ce qu’on appelle des « hallucinations » dans le jargon de l’IA.Pire encore, une partie du public renonce à consulter, se fiant exclusivement aux recommandations numériques. Aux États-Unis, plus de 50 % des médecins redoutent une augmentation massive de l’autodiagnostic d’ici trois ans. Avec le risque que des maladies graves soient négligées, ou au contraire que des patients s’angoissent inutilement pour des symptômes bénins.« L’IA doit m’aider à prendre de bonnes décisions, pas décider à ma place. Je dois conserver l’autorité sur le diagnostic. »

Les médecins veulent rester maîtres à bord

Pour Jan Herzhoff, président d’Elsevier Santé, l’IA ne doit en aucun cas remplacer le professionnel de santé. Elle peut être un outil d’aide à la décision, un support, mais jamais un substitut. La majorité des praticiens souhaitent que les intelligences artificielles utilisées dans le domaine médical soient formées uniquement à partir de données validées scientifiquement, afin de garantir une fiabilité maximale.

70 % des médecins interrogés expriment ce besoin urgent de rigueur scientifique dans la conception des outils. Paradoxalement, alors que ces mêmes professionnels reconnaissent que l’IA pourrait leur faire gagner un temps précieux, ils manquent cruellement… de temps pour apprendre à bien s’en servir. Résultat : l’innovation reste souvent sous-exploitée.

Autre lacune : très peu d’établissements de santé prévoient une formation systématique de leurs équipes à l’IA, ou une gouvernance éthique claire autour de son utilisation. Une absence de cadre qui alimente la méfiance.

Un potentiel immense, mais des garde-fous essentiels

Les bénéfices de l’intelligence artificielle sont pourtant bien réels. Elle peut détecter une tumeur sur une IRM plus rapidement qu’un œil humain. Elle peut analyser des milliers de dossiers en un clin d’œil pour identifier des corrélations invisibles. Elle peut rédiger un courrier à un patient en quelques secondes. Mais cela ne suffit pas à faire d’elle un médecin.

Le consensus des professionnels est clair : l’IA doit rester un outil au service de l’humain, jamais un substitut. L’expertise médicale, l’intuition clinique, l’expérience acquise sur le terrain ne peuvent être codées dans un algorithme. Le lien entre médecin et patient non plus.

Il est donc crucial d’encadrer le développement de ces technologies. Cela passe par :

• une formation systématique des soignants à l’usage de l’IA,

• une certification des outils basés sur des données validées,

• une sensibilisation des patients aux limites de ces technologies,

• et une vigilance accrue en matière de protection des données personnelles.

Innover, mais sans déshumaniser

L’intelligence artificielle n’est ni une menace absolue, ni une baguette magique. Elle est une avancée technologique majeure, qui peut améliorer considérablement l’efficacité des soins… à condition d’être utilisée à bon escient.

Dans un monde où les patients sont de plus en plus connectés, informés — mais parfois mal informés —, le rôle du médecin évolue. Il devient aussi éducateur, guide, interprète d’une médecine assistée mais non remplacée par les machines.

Le futur de la santé sera sans doute numérique. Mais il devra rester profondément humain.