Las principales organizaciones de salud, incluidas OpenAI y 13 otras empresas de IA, se han comprometido a desarrollar IA de manera segura y confiable bajo la Administración Biden-Harris. Anunciados el 14 de diciembre, estos compromisos voluntarios buscan aprovechar los beneficios sustanciales de los modelos de IA en el ámbito de la salud, protegiendo al mismo tiempo la información sensible de los pacientes y minimizando los riesgos asociados.
Un total de 28 proveedores y pagadores de atención médica, como CVS Health, Stanford Health, Boston Children’s Hospital, UC San Diego Health, UC Davis Health y WellSpan Health, han firmado estos compromisos. Su objetivo es abordar el escepticismo sobre la fiabilidad y seguridad de la IA en entornos médicos, especialmente a medida que tecnologías de IA generativa como ChatGPT cobran protagonismo.
Las discusiones previas sobre IA en la salud se centraron principalmente en su potencial para diagnosticar enfermedades tempranamente y descubrir nuevos tratamientos. Sin embargo, una encuesta reciente de GE Healthcare reveló que el 55% de los clínicos creen que la IA aún no es adecuada para aplicaciones médicas, y el 58% expresa desconfianza en los datos generados por la IA. Entre los clínicos con más de 16 años de experiencia, este escepticismo se eleva al 67%.
Las organizaciones participantes buscan cambiar esta percepción a través de sus compromisos, enfatizando la necesidad de una atención coordinada, experiencias mejoradas para los pacientes y una reducción del agotamiento del personal clínico. Como se menciona en su documento de compromiso: "La IA representa una oportunidad única en una generación para mejorar el sistema de salud, especialmente en la detección temprana y prevención del cáncer."
Para generar confianza en los usuarios, estas organizaciones se han comprometido a alinear sus proyectos con los principios de IA Justa, Apropiada, Válida, Efectiva y Segura (FAVES) establecidos por el Departamento de Salud y Servicios Humanos de EE. UU. Esta alineación ayudará a mitigar sesgos y riesgos, asegurando que las soluciones sean efectivas en aplicaciones del mundo real.
Las empresas planean establecer confianza a través de la transparencia y un marco integral de gestión de riesgos. Un elemento clave es la transparencia sobre si los usuarios están interactuando con contenido generado por IA que no ha sido revisado por humanos. El marco de gestión de riesgos implicará un seguimiento minucioso de las aplicaciones de IA y medidas proactivas para abordar posibles daños en diversos entornos de atención médica.
“Implementaremos prácticas de gobernanza, que incluirán mantener una lista de aplicaciones que usan modelos de vanguardia y asegurar un marco robusto para la gestión de riesgos,” compartieron las organizaciones.
Además, mientras se enfocan en las implementaciones actuales, las organizaciones están comprometidas con la investigación y el desarrollo continuo (I+D) en innovación de IA centrada en la salud, manteniendo las salvaguardias necesarias. Tienen la intención de utilizar entornos no productivos y datos de prueba para prototipar nuevas aplicaciones, asegurando el cumplimiento de la privacidad y un monitoreo constante para un rendimiento justo y preciso.
Adicionalmente, abordarán cuestiones relacionadas con la tecnología de código abierto y trabajarán en la capacitación de sus equipos sobre el desarrollo seguro y efectivo de aplicaciones de modelos de vanguardia.