Déverrouiller l'IA sûre dans le secteur de la santé : Comment les prestataires tirent parti des avantages « uniques » des modèles à grande échelle.

Des organisations de soins de santé de premier plan, y compris OpenAI et 13 autres entreprises d'IA, se sont engagées à développer une IA sûre et fiable sous l’administration Biden-Harris. Annoncés le 14 décembre, ces engagements volontaires visent à exploiter les avantages considérables des modèles d'IA à grande échelle dans le secteur de la santé, tout en protégeant les informations sensibles des patients et en minimisant les risques associés.

Un total de 28 fournisseurs de soins de santé et payeurs, tels que CVS Health, Stanford Health, Boston Children’s Hospital, UC San Diego Health, UC Davis Health et WellSpan Health, ont signé ces engagements. Leur objectif est de répondre au scepticisme concernant la fiabilité et la sécurité de l'IA dans les milieux médicaux, surtout avec l’essor des technologies d'IA générative comme ChatGPT.

Les discussions antérieures sur l'IA dans le domaine de la santé se concentraient principalement sur son potentiel à diagnostiquer des maladies précocement et à découvrir de nouveaux traitements. Cependant, une enquête récente de GE Healthcare a révélé que 55 % des cliniciens estiment que l'IA n'est pas encore adaptée aux applications médicales, tandis que 58 % expriment un manque de confiance dans les données générées par l'IA. Parmi les cliniciens ayant plus de 16 ans d'expérience, ce scepticisme atteint 67 %.

Les organisations participantes cherchent à changer cette perception par leurs engagements, mettant en avant la nécessité de soins coordonnés, d'une amélioration de l'expérience patient et d'une réduction du burnout chez les cliniciens. Comme stipulé dans leur document d'engagement, "l'IA représente une opportunité unique dans une génération pour améliorer le système de santé, notamment dans la détection et la prévention précoce du cancer."

Pour instaurer la confiance des utilisateurs, ces organisations se sont engagées à aligner leurs projets sur les principes d'IA Juste, Appropriée, Validée, Efficace et Sûre (FAVES) définis par le Département de la Santé et des Services sociaux des États-Unis (HHS). Cet alignement contribuera à réduire les biais et les risques, garantissant l'efficacité des solutions dans des applications réelles.

Les entreprises prévoient d'établir la confiance grâce à la transparence et à un cadre de gestion des risques complet. Un élément clé est la transparence quant à l'interaction des utilisateurs avec du contenu généré par l'IA n'ayant pas été examiné par des humains. Le cadre de gestion des risques impliquera un suivi rigoureux des applications d'IA et des mesures proactives pour traiter les dommages potentiels dans divers environnements de soins de santé.

"Nous mettrons en œuvre des pratiques de gouvernance, y compris la tenue d'une liste d'applications utilisant des modèles de pointe et l'assurance d'un cadre robuste pour la gestion des risques," ont partagé les organisations.

De plus, tout en se concentrant sur les mises en œuvre actuelles, les organisations s'engagent à mener des recherches et développements continus (R&D) dans l'innovation de l'IA centrée sur la santé, en maintenant les garde-fous nécessaires. Elles prévoient d'utiliser des environnements non producteurs et des données test pour prototyper de nouvelles applications, en garantissant la conformité à la vie privée et un suivi continu pour assurer une performance juste et précise.

En outre, elles s'attaqueront aux questions liées à la technologie open source et s'efforceront de former leurs équipes sur le développement sûr et efficace des applications de modèles de pointe.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles