Ведущие организации в сфере здравоохранения, включая OpenAI и 13 других компаний в области ИИ, объявили о своем обязательстве к безопасной и надежной разработке ИИ под управлением администрации Байдена-Харрис. Это добровольное соглашение, озвученное 14 декабря, нацелено на использование значительных преимуществ крупных ИИ моделей в здравоохранении при защите конфиденциальной информации пациентов и минимизации связанных рисков.
В общей сложности 28 поставщиков медицинских услуг и страховщиков, таких как CVS Health, Stanford Health, Бостонская детская больница, UC San Diego Health, UC Davis Health и WellSpan Health, подписали эти обязательства. Их цель — устранить скептицизм по поводу надежности и безопасности ИИ в медицинских организациях, особенно с учетом растущей популярности генеративных ИИ технологий, таких как ChatGPT.
Ранее обсуждения ИИ в здравоохранении в основном сосредотачивались на его потенциале для ранней диагностики заболеваний и открытия новых методов лечения. Однако недавний опрос GE Healthcare показал, что 55% врачей считают, что ИИ еще не готов к медицинским приложениям, а 58% выражают недоверие к данным, сгенерированным ИИ. Среди врачей с более чем 16-летним опытом это недоверие составляет 67%.
Участвующие организации стремятся изменить данное восприятие с помощью своих обязательств, подчеркивая необходимость координированного ухода, улучшенного опыта пациентов и снижения выгорания медработников. В документе с обязательствами заявлено: «ИИ представляет собой уникальную возможность для улучшения системы здравоохранения, особенно в раннем выявлении и профилактике рака».
Чтобы повысить доверие пользователей, организации обязались согласовать свои проекты с принципами AI Fair, Appropriate, Valid, Effective, and Safe (FAVES), изложенными в Министерстве здравоохранения и социальных служб США (HHS). Это поможет минимизировать предвзятости и риски, обеспечивая эффективность решений в реальных условиях.
Компании намерены установить доверие через прозрачность и комплексную систему управления рисками. Ключевым элементом является информирование пользователей о том, взаимодействуют ли они с контентом, сгенерированным ИИ, который не прошел человеческую проверку. Система управления рисками будет включать тщательное отслеживание ИИ приложений и проактивные меры для минимизации потенциальных вредов в различных сферах здравоохранения.
«Мы внедрим практики управления, включая ведение списка приложений, использующих передовые модели, и обеспечим надежную систему управления рисками», — поделились организации.
Кроме того, сосредоточив внимание на текущих внедрениях, организации заверили о своей приверженности постоянным исследованиям и разработкам (R&D) в области ИИ, ориентированного на здоровье, сохраняя необходимые меры предосторожности. Они намерены использовать непроизводственные среды и тестовые данные для прототипирования новых приложений, обеспечивая соблюдение конфиденциальности и постоянный мониторинг для гарантии справедливой и точной работы.
Также они планируют решить вопросы, связанные с открытыми технологиями, и работать над обучением своих команд безопасной и эффективной разработке приложений на основе передовых моделей.