Global coverage at a glance: breaking international headlines, geopolitical insights, regional developments, and on‑the‑ground reports from every continent.
Les agents conversationnels alimentés par l’intelligence artificielle (IA) offrent des réponses instantanées, mais leur fiabilité reste sujette à caution. Une part importante du contenu de santé fourni par ces outils n’est pas fondée sur des preuves rigoureuses, selon Nicholas Jacobson, professeur agrégé de science des données biomédicales, de psychiatrie et d’informatique à la Geisel School of Medicine du Dartmouth College. Jacobson souligne que ces systèmes n’ont pas été entraînés pour donner des conseils de santé, un fait qui échappe souvent aux utilisateurs.
Un sondage de l’Association médicale canadienne révèle que seulement 25 % de la population canadienne a confiance en l’exactitude des informations fournies par des agents conversationnels sur la santé. De plus, ceux qui suivent des conseils générés par l’IA ont cinq fois plus de chances de recevoir de mauvaises suggestions par rapport à ceux qui ne le font pas. Dans des moments de vulnérabilité, il est naturel d’accepter toute forme d’aide, mais cela peut également mener à des erreurs potentiellement dangereuses, comme l’indique le médecin de famille Vincent Dumouchel.
Pour remédier à ces lacunes, Dumouchel et d’autres chercheurs explorent des solutions pour faire de l’IA un outil fiable en santé mentale. Un reportage sur ce sujet sera diffusé dans l’émission Découverte sur ICI TÉLÉ.
Risques associés aux conseils générés par l’IA
En hiver 2025, le Dr. Dumouchel a été sollicité par OpenAI pour évaluer l’efficacité de ChatGPT en matière de conseils médicaux. Il faisait partie d’un groupe d’environ 200 médecins chargés d’examiner les réponses de cet agent conversationnel aux questions de santé. Avant que ce processus ne soit terminé, OpenAI a lancé HealthBench, une vaste base de données permettant aux chercheurs de tester la capacité de différents modèles d’IA à répondre à des questions liées aux soins de santé.
Sam Altman, le PDG de ChatGPT, a déclaré que la version 5.0 du robot conversationnel était la meilleure jamais conçue pour la santé, affirmant qu’elle surpassait les capacités des médecins. Cette affirmation a suscité des doutes chez Dumouchel, qui s’est interrogé sur la capacité d’une entreprise en IA à évaluer la sécurité médicale de ses propres modèles. Cela a entraîné une rupture de confiance, car il n’existe pas de critères scientifiques indépendants pour étayer ces déclarations.
Suite à cela, Dumouchel a décidé de renoncer à son rôle de consultant auprès d’OpenAI, soulignant la nécessité d’une évaluation externe des affirmations des entreprises d’IA. Sa société, Vetted Medical, se consacre à aider les décideurs à évaluer les promesses des vendeurs d’IA en effectuant des revues médicales rigoureuses.
Vers une IA fiable en santé mentale
Selon Dumouchel, il est crucial que les entreprises soient transparentes avec leurs utilisateurs. L’IA n’est pas conçue pour remplacer les médecins ou les thérapeutes, et elle peut donner des conseils erronés. Le risque que les conseils de santé ne soient pas éprouvés est réel, surtout si ces outils n’ont pas été approuvés par des organismes de réglementation comme Santé Canada ou la FDA.
Jacobson et ses collègues ont envisagé de créer un agent conversationnel spécifiquement axé sur la santé mentale, connu sous le nom de Therabot. Cet avatar animé est conçu pour offrir de la thérapie cognitivo-comportementale et a été entraîné pendant 100 000 heures à l’aide d’études révisées par des pairs. Therabot se distingue des autres agents conversationnels, tels que ChatGPT, par son approche directe et non complaisante envers les utilisateurs, ce qui est vital en thérapie.
Bien que Therabot ne soit pas encore accessible au grand public, des tests préliminaires ont montré que les utilisateurs souffrant de dépression et d’anxiété ont constaté des améliorations significatives de leurs symptômes.
Une approche humaine nécessaire
Le Dr. Alexandre Dumais, psychiatre à l’Institut national de psychiatrie légale Philippe-Pinel, exprime des réserves quant à l’idée qu’un chatbot puisse remplacer un thérapeute. Il souligne que les interactions humaines sont indispensables dans le domaine de la santé mentale. Dans sa pratique, il a développé une thérapie par avatar pour aider les patients à surmonter leurs problèmes en leur permettant d’affronter leurs démons virtuellement.
Dumais croit que l’intégration de l’IA dans ces thérapies pourrait améliorer les traitements en permettant une meilleure personnalisation. Le neuropsychiatre Simon Ducharme souligne également que l’IA peut contribuer à l’avancement de la recherche en psychiatrie, en aidant à identifier des sous-types de troubles et à élaborer des diagnostics plus précis.
Alors que l’avenir de l’IA en santé mentale reste à explorer, il est clair que cette technologie pourrait compléter les méthodes traditionnelles, mais ne devrait pas remplacer l’interaction humaine essentielle. En conséquence, la recherche continue pour trouver un équilibre entre innovation technologique et sécurité des patients.
Pour plus d’informations sur les développements récents dans ce domaine, n’hésitez pas à partager vos réflexions dans les commentaires ci-dessous.