ChatGPT sera-t-il bientôt le meilleur allié des médecins? Rien n'est moins sûr, mais c'est en tout cas ce que certains souhaitent. Wired, qui s'est posé la question, rapporte les propos de Robert Pearl, professeur à l'école de médecine de Stanford et ancien PDG de Kaiser Permanente, un organisme de santé américain comptant plus de douze millions de patients.
«Je pense que cela aura plus d'importance pour les médecins que l'arrivée du stéthoscope, assure-t-il. Aucun praticien qui souhaite donner un traitement de qualité ne pourra le faire sans ChatGPT ou toute autre forme d'intelligence artificielle générative.» Écrire des lettres, résumer l'état d'un patient, trouver des moyens de poser un diagnostic, tout cela, ChatGPT peut le faire.
Le professeur de Stanford estime que les médecins trouveront des milliers de nouveaux usages à cette intelligence artificielle (IA) pour améliorer les soins. Robert Pearl va même jusqu'à penser que le chatbot pourrait permettre de réduire le nombre de décès liés aux erreurs médicales –au nombre d'au moins 250.000 par an aux États-Unis.
Un outil loin d'avoir toujours raison
Pourtant, tout ne sourit pas à l'agent conversationnel d'OpenAI. Heather Mattie, maîtresse de conférences en santé publique à Harvard, considère de son côté que ChatGPT est un bon outil à condition que l'utilisateur soit conscient que l'IA n'a pas toujours raison à 100% et qu'il peut fournir des résultats biaisés.
Elle en a fait l'expérience lorsqu'elle a demandé au chatbot d'écrire une note sur l'utilisation de la modélisation des connexions sociales dans l'étude du VIH, qui est un de ses thèmes de recherche. Au bout d'un moment, ChatGPT a commencé à aborder des sujets qui dépassaient son domaine d'expertise: impossible, alors, de savoir si ce qui est dit est vrai ou non.
Heather Mattie s'inquiète notamment pour le diagnostic des maladies cardiovasculaires et l'estimation de la gravité des blessures en soins intensifs. Dans le passé, des préjugés basés sur le sexe ou la couleur de peau du patient pouvaient biaiser le diagnostic du médecin; et ChatGPT risque également de s'appuyer sur des informations qui ne sont plus à jour. «La connaissance médicale et les pratiques évoluent dans le temps, et il n'y a aucun moyen de savoir de quelle période le robot tire ses informations», souligne l'universitaire.
ChatGPT, dis-moi que faire...
Wired rappelle aussi qu'être médecin, ce n'est pas uniquement recracher ses connaissances encyclopédiques. Utiliser le robot dans le domaine médical soulève donc de grandes questions éthiques. Certains bioéthiciens craignent que des professionnels de santé n'utilisent ChatGPT pour les aider à faire des choix difficiles, comme lorsqu'il s'agit de savoir s'il est raisonnable de réaliser une opération chirurgicale avec de faibles chances de survie ou de guérison.
Jamie Webb, bioéthicien à l'université d'Édimbourg, et une équipe d'experts se sont justement penchés sur la question. Ils ont notamment voulu savoir comment imaginer un «conseiller moral», pour les médecins. Leur étude, publiée le 27 juillet 2022, a conclu qu'il est difficile pour une IA de faire de tels choix de manière fiable et que les praticiens risquent de ne plus pouvoir prendre des décisions morales seuls s'ils se reposent trop sur ce genre d'outil. «On ne peut pas externaliser ou automatiser ce genre de processus en le confiant à un modèle d'IA génératif», résume Jamie Webb.
Même Robert Pearl, malgré son enthousiasme, reconnaît les limites de l'IA. Pour évoquer le deuil, la fin de vie ou encore les risques d'une opération, la présence d'un médecin est obligatoire, car les besoins de chacun varient. «Ce sont des conversations d'humain à humain», affirme le professeur de Stanford. Pour l'instant, il compare ChatGPT à un étudiant en médecine, capable de soigner des patients et de participer à des diagnostics, mais toujours sous la supervision d'un professionnel.
Ce n'est pas la première fois que le corps médical se voit promettre une révolution par l'IA. Au début des années 2010, la plateforme Watson d'IBM, spécialisée dans l'intelligence artificielle, déclarait qu'elle développait une IA qui permettrait d'aider la lutte contre le cancer. Les tests cliniques n'étaient finalement pas satisfaisants: en 2020, IBM annonçait l'arrêt du programme. En tout cas, ce n'est pas demain que vous verrez ChatGPT remplacer votre médecin traitant.