Открытие безопасного ИИ в здравоохранении: как провайдеры используют «раз в поколение» преимущества крупных моделей

Ведущие организации в сфере здравоохранения, включая OpenAI и 13 других компаний в области ИИ, объявили о своем обязательстве к безопасной и надежной разработке ИИ под управлением администрации Байдена-Харрис. Это добровольное соглашение, озвученное 14 декабря, нацелено на использование значительных преимуществ крупных ИИ моделей в здравоохранении при защите конфиденциальной информации пациентов и минимизации связанных рисков.

В общей сложности 28 поставщиков медицинских услуг и страховщиков, таких как CVS Health, Stanford Health, Бостонская детская больница, UC San Diego Health, UC Davis Health и WellSpan Health, подписали эти обязательства. Их цель — устранить скептицизм по поводу надежности и безопасности ИИ в медицинских организациях, особенно с учетом растущей популярности генеративных ИИ технологий, таких как ChatGPT.

Ранее обсуждения ИИ в здравоохранении в основном сосредотачивались на его потенциале для ранней диагностики заболеваний и открытия новых методов лечения. Однако недавний опрос GE Healthcare показал, что 55% врачей считают, что ИИ еще не готов к медицинским приложениям, а 58% выражают недоверие к данным, сгенерированным ИИ. Среди врачей с более чем 16-летним опытом это недоверие составляет 67%.

Участвующие организации стремятся изменить данное восприятие с помощью своих обязательств, подчеркивая необходимость координированного ухода, улучшенного опыта пациентов и снижения выгорания медработников. В документе с обязательствами заявлено: «ИИ представляет собой уникальную возможность для улучшения системы здравоохранения, особенно в раннем выявлении и профилактике рака».

Чтобы повысить доверие пользователей, организации обязались согласовать свои проекты с принципами AI Fair, Appropriate, Valid, Effective, and Safe (FAVES), изложенными в Министерстве здравоохранения и социальных служб США (HHS). Это поможет минимизировать предвзятости и риски, обеспечивая эффективность решений в реальных условиях.

Компании намерены установить доверие через прозрачность и комплексную систему управления рисками. Ключевым элементом является информирование пользователей о том, взаимодействуют ли они с контентом, сгенерированным ИИ, который не прошел человеческую проверку. Система управления рисками будет включать тщательное отслеживание ИИ приложений и проактивные меры для минимизации потенциальных вредов в различных сферах здравоохранения.

«Мы внедрим практики управления, включая ведение списка приложений, использующих передовые модели, и обеспечим надежную систему управления рисками», — поделились организации.

Кроме того, сосредоточив внимание на текущих внедрениях, организации заверили о своей приверженности постоянным исследованиям и разработкам (R&D) в области ИИ, ориентированного на здоровье, сохраняя необходимые меры предосторожности. Они намерены использовать непроизводственные среды и тестовые данные для прототипирования новых приложений, обеспечивая соблюдение конфиденциальности и постоянный мониторинг для гарантии справедливой и точной работы.

Также они планируют решить вопросы, связанные с открытыми технологиями, и работать над обучением своих команд безопасной и эффективной разработке приложений на основе передовых моделей.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles