le potentiel et les pièges des applis en santé

Si la santé est un droit humain fondamental, la prestation de soins de santé doit être améliorée à l’échelle mondiale si l’on veut que l’accès devienne universel. Or, le nombre limité de praticiennes et praticiens s’avère un obstacle dans tous les systèmes de soins de santé.

La prestation de soins de santé fondée sur l’intelligence artificielle (IA) est sur le point de combler cette lacune. Que ce soit dans des hôpitaux des grandes villes ou dans des maisons de campagne isolées, l’IA a une portée qui dépasse celle des professionnels de la santé. Toute personne cherchant de l’information peut, grâce à l’IA, l’obtenir rapidement et facilement. Mais pour que les soins de santé soient efficaces, la sécurité des patients doit rester une priorité.

L’actualité regorge d’exemples d’utilisations inédites de l’IA. Surfant sur la vague de l’intérêt récent pour les agents conversationnels, Google a mis au point une IA diagnostique expérimentale appelée Articulate Medical Intelligence Explorer (AMIE). Il suffit d’entrer ses symptômes dans une interface de clavardage, et AMIE pose des questions et fournit des recommandations, comme le ferait un professionnel de la santé. Les chercheurs affirment que, par comparaison, AMIE est meilleure que les cliniciens pour ce qui est de la précision de diagnostic et du rendement.

Le potentiel des grands modèles de langage (GML) comme AMIE est évident. Conçus à partir d’une grande base de données de textes, les GML peuvent générer du texte, déterminer des causes sous-jacentes et répondre d’une manière semblable à celle d’un humain. Tout patient ou patiente ayant accès à Internet pourrait ainsi obtenir rapidement et facilement des conseils de santé personnalisés. Cette technologie permettrait aussi de repérer les cas qui seraient mieux traités par des professionnels de la santé.

Mais ces outils en sont encore au stade expérimental et présentent des limites. L’équipe de recherche d’AMIE indique que d’autres travaux doivent être menés avant de pouvoir « envisager un avenir dans lequel des systèmes d’IA conversationnels, empathiques et diagnostiques deviendraient sûrs, utiles et accessibles ».

La prudence est donc de mise. La prestation de soins de santé est une tâche complexe. Si les outils d’IA ne sont pas réglementés, que ce soit au niveau professionnel ou international, ils poseront des risques en matière de qualité des soins, de respect de la vie privée et de sécurité.

A lire aussi : Le Canada a besoin d’une stratégie nationale pour accélérer le déploiement de l’IA en santé

Prise de décisions médicales

La prise de décisions médicales est l’une des activités les plus complexes et lourdes de conséquences. Il semble peu probable qu’une IA puisse atteindre l’efficacité d’un humain. Or, des recherches s’étalant sur plusieurs décennies montrent que la prise de décisions à partir d’algorithmes pourrait être de qualité égale, voire supérieure, à celle se fondant sur l’intuition clinique.

La reconnaissance des formes est au cœur de l’expertise médicale. Comme pour tout type d’expertise, les spécialistes médicaux ont besoin d’une longue formation pour apprendre les schémas de diagnostic, recommander des traitements et prodiguer des soins. Au fil de leur formation, les spécialistes apprennent à concentrer leur attention sur les caractéristiques diagnostiques et à écarter les aspects non utiles à un diagnostic.

Or, l’efficacité des soins de santé ne repose pas uniquement sur la simple capacité à reconnaître des formes. Les professionnels de la santé doivent être en mesure de communiquer des renseignements à leurs patients. Non seulement il peut être difficile de faire comprendre de l’information technique à des patients dont le niveau de connaissances médicales est variable, mais cette information est aussi souvent chargée d’émotions, ce qui donne lieu à des pièges de communication qui portent tant les médecins que les patients à dissimuler des renseignements. Les professionnels de la santé peuvent cependant déjouer ces pièges en développant une relation solide avec leurs patients.

Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.

Les fonctions conversationnelles de GML comme ChatGPT ont suscité un intérêt considérable de la part du public. Bien que les affirmations selon lesquelles ChatGPT a « réussi le test de Turing » soient exagérées, les outils du type ChatGPT sont plus attrayants que les agents conversationnels précédents en raison de leurs réponses quasi humaines. Les futurs GML tels qu’AMIE pourraient être utiles pour combler les lacunes dans la prestation des soins de santé, mais ils doivent être utilisés avec prudence.

La promesse d’une IA précise et explicable en soins de santé


L’efficacité des soins de santé ne repose pas uniquement sur la simple capacité à reconnaître des formes. Les professionnels de la santé doivent être en mesure de communiquer des renseignements à leurs patients.

Shutterstock

AMIE n’est pas la première incursion de Google dans le domaine de la santé. Déjà en 2008, Google Flu Trends (GFT) pouvait estimer la prévalence de la grippe au sein d’une population en colligeant les termes recherchés. On présumait alors que la prévalence de la grippe dictait le comportement des utilisateurs et que les tendances en matière de recherche permettaient donc de prédire les cas futurs.

Les premières prédictions de GFT étaient plutôt prometteuses. Mais elles se sont plutôt avérées un échec lorsqu’il a été établi que les anciennes données représentaient une source de biais. Les efforts déployés par la suite pour réentraîner le modèle à l’aide de recherches actualisées ont quant à eux porté leurs fruits.

Watson, un produit d’IBM, nous sert lui aussi une mise en garde. IBM a investi des fonds considérables dans le développement de Watson et a mis en œuvre plus de 50 projets dans le domaine de la santé. Or, le potentiel de Watson ne s’est pas concrétisé, et les technologies sous-jacentes ont discrètement été vendues. Non seulement le système n’a pas suscité la confiance : il y avait tout lieu de s’en méfier, car il formulait des recommandations de traitement « dangereuses et incorrectes ».

Les outils d’IA développés pour poser un diagnostic, faire le triage et prédire l’évolution de la Covid-19 constituent le meilleur exemple de la capacité de l’IA à relever des défis de santé publique. De vastes études portant sur ces efforts jettent le doute sur les résultats obtenus. La validité et la précision des modèles et de leurs prédictions laissaient généralement à désirer. Ce constat a été principalement attribué à la qualité des données.

L’une des leçons qu’on peut tirer de l’utilisation de l’IA durant la pandémie est qu’il ne manque pas de chercheurs ni d’algorithmes, mais qu’il y a un besoin urgent de contrôle de la qualité par des humains. D’où des appels à faire de la conception axée sur l’humain.

Il en va de même pour l’évaluation des technologies par des experts. Comme cela a été le cas pour l’outil AMIE de Google, de nombreuses évaluations sont diffusées sous forme de prépublications avant ou pendant le processus d’examen par les pairs. Il peut en outre y avoir un long décalage entre une prépublication et sa publication finale. Les études montrent que le nombre de mentions d’une publication dans les médias sociaux — plutôt que le facteur de qualité — constitue la meilleure variable prédictive du taux de téléchargement de cette publication.

À défaut de pouvoir garantir la validité de leurs méthodes d’entraînement et de mise en œuvre, des technologies liées à la santé pourraient être implantées sans avoir fait l’objet d’un contrôle de la qualité.

La technologie comme médecine populaire

Le problème de l’IA dans les soins de santé se pose clairement quand on comprend que de multiples écosystèmes de santé peuvent exister en parallèle. On parle de pluralisme médical lorsque deux systèmes ou plus sont à la disposition des consommateurs de soins de santé. Il s’agit habituellement de la médecine traditionnelle et de l’approche biomédicale occidentale.

Les applications étant des technologies qui s’adressent directement aux consommateurs, elles constituent une nouvelle médecine populaire. Les gens adoptent ces technologies sur la base de la confiance plutôt que de la compréhension de leur fonctionnement. Et, en l’absence de connaissances médicales et de compréhension technique du fonctionnement de l’IA, les utilisatrices et utilisateurs en sont réduits à chercher par eux-mêmes si une technologie est réellement efficace. Les évaluations et approbations des boutiques d’applications peuvent dès lors remplacer l’avis de professionnels de la santé.

Par ailleurs, certaines personnes peuvent préférer utiliser l’IA plutôt que de s’adresser à des humains si leur problème de santé est lié à un préjugé ou s’ils vivent une détresse émotionnelle chronique. Toutefois, la précision des outils pourrait être réduite si ceux-ci ne sont pas alimentés par des données à jour.

La communication de données par les utilisateurs soulève elle aussi des questions. Comme on l’a vu avec la société 23andMe, les utilisatrices et utilisateurs qui communiquent des renseignements personnels à ce type d’entreprise pourraient voir leurs données réapparaître dans leurs réseaux sociaux.

Si elles ne sont pas réglementées, les technologies d’IA peuvent compromettre la qualité des soins. Il faut donc que les autorités de réglementation professionnelles et gouvernementales fournissent l’encadrement nécessaire à la protection du public.

Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.