Le nouveau cadre d’utilisation de l’IA dans les soins de santé prend en compte les connaissances, les pratiques, les procédures et les valeurs médicales

[ad_1]

Les organisations de soins de santé se tournent vers les outils d’intelligence artificielle (IA) pour améliorer les soins aux patients, mais leur application dans les milieux cliniques a été incohérente, en partie parce que l’évaluation de l’IA dans les soins de santé reste un défi. Dans un nouvel article, les chercheurs proposent un cadre d’utilisation de l’IA qui comprend des conseils pratiques pour appliquer les valeurs et qui intègre non seulement les propriétés de l’outil mais aussi les systèmes entourant son utilisation.

L’article a été rédigé par des chercheurs de l’Université Carnegie Mellon, de l’Hospital for Sick Children, de l’École de santé publique Dalla Lana, de l’Université Columbia et de l’Université de Toronto. Il est publié dans Motifs.

« Les directives réglementaires et les approches institutionnelles se sont concentrées étroitement sur les performances des outils d’IA, négligeant les connaissances, les pratiques et les procédures nécessaires pour intégrer le modèle dans les systèmes sociaux plus larges de la pratique médicale », explique Alex John London, professeur d’éthique et de calcul informatique à K&L Gates. Technologies chez Carnegie Mellon, co-auteur de l’article. « Les outils ne sont pas neutres : ils reflètent nos valeurs ; leur fonctionnement reflète donc les personnes, les processus et les environnements dans lesquels ils sont utilisés. »

London est également directeur du Centre d’éthique et de politique de Carnegie Mellon et éthicien en chef au Block Center for Technology and Society de Carnegie Mellon, ainsi que membre du corps professoral du département de philosophie de la CMU.

London et ses coauteurs plaident en faveur d’un changement conceptuel dans lequel les outils d’IA sont considérés comme faisant partie d’un « ensemble d’intervention » plus vaste, un ensemble de connaissances, de pratiques et de procédures nécessaires pour prodiguer des soins aux patients. Lors de travaux antérieurs avec d’autres collègues, Londres a appliqué ce concept aux produits pharmaceutiques et aux véhicules autonomes. L’approche traite les outils d’IA comme des « systèmes sociotechniques », et le cadre proposé par les auteurs cherche à faire progresser l’intégration responsable des systèmes d’IA dans les soins de santé.

Les travaux antérieurs dans ce domaine ont été largement descriptifs, expliquant comment les systèmes d’IA interagissent avec les systèmes humains. Le cadre proposé par London et ses collègues est proactif, fournissant des conseils aux concepteurs, aux bailleurs de fonds et aux utilisateurs sur la manière de garantir que les systèmes d’IA peuvent être intégrés dans les flux de travail ayant le plus grand potentiel pour aider les patients. Leur approche peut également être utilisée pour obtenir des informations sur la réglementation et les institutions, ainsi que pour évaluer, évaluer et utiliser les outils d’IA de manière responsable et éthique. Pour illustrer leur cadre, les auteurs l’appliquent au développement de systèmes d’IA développés pour diagnostiquer plus que la rétinopathie diabétique légère.

« Seule une petite majorité de modèles évalués dans le cadre d’essais cliniques ont montré un bénéfice net », déclare Melissa McCradden, bioéthicienne à l’Hospital for Sick Children et professeure adjointe de santé clinique et publique à l’École de santé publique Dalla Lana, co-auteure de l’étude. article. « Nous espérons que le cadre proposé apportera de la précision à l’évaluation et intéressera les organismes de réglementation qui explorent les types de preuves nécessaires pour soutenir la surveillance des systèmes d’IA. »

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*