主要な医療機関やAI企業13社を含む団体が、バイデン-ハリス政権のもと、安全で信頼できるAIの開発に取り組むことを約束しました。これは2023年12月14日に発表された自主的なコミットメントで、医療における大規模AIモデルの大幅な利点を活用しつつ、機密性の高い患者情報を安全に保護し、関連するリスクを最小限に抑えることを目指しています。
この約束に署名したのは、CVSヘルス、スタンフォードヘルス、ボストン小児病院、サンディエゴ校保健センター、UCデービスヘルス、ウェルスパンス健康など、合計28の医療提供者や保険者です。彼らの目的は、特にChatGPTのような生成的AI技術が注目される中、医療現場におけるAIの信頼性と安全性に対する疑念に対処することです。
医療におけるAIに関する以前の議論は、主に早期診断や新しい治療法の発見に焦点を当てていました。しかし、GEヘルスケアの最近の調査によると、55%の医療従事者がAIは医療アプリケーションにまだ適していないと考えており、58%がAIが生成したデータに対して不信感を抱いています。経験豊富な医療従事者(16年以上)の間では、この懐疑心は67%に達します。
参加する組織は、これらの約束を通じて認識を変え、調整されたケア、向上した患者体験、 clinicianの燃え尽き症候群の軽減を強調します。彼らのコミットメント文書には、「AIは、特に早期の癌検出や予防において、医療システムを強化するための世代を超えた機会です」と記されています。
ユーザーの信頼を築くため、これらの組織は、米国保健福祉省(HHS)が定めた公正、適切、有効、効果的、安全(FAVES)のAI原則に沿ったプロジェクトを推進することを約束しています。この方針に従うことで、バイアスやリスクを軽減し、現実のアプリケーションにおいて効果的なソリューションを確保します。
企業は、透明性と包括的なリスク管理フレームワークを通じて信頼を築く計画です。重要な要素の一つは、ユーザーが人間のレビューを受けていないAI生成コンテンツに関与しているかどうかの透明性です。リスク管理フレームワークには、AIの応用を徹底的に追跡し、さまざまな医療現場での潜在的な害に対処するための積極的な措置が含まれます。
「最前線のモデルを使用するアプリケーションのリストを維持し、リスク管理のための堅牢なフレームワークを確保するなど、ガバナンスの実践を実施します」と組織は述べました。
さらに、現在の実装に焦点を当てるだけでなく、これらの組織は、必要な安全策を維持しながら、健康中心のAI革新に関する継続的な研究開発(R&D)に取り組むことを約束しています。彼らは非生産環境とテストデータを活用して新しいアプリケーションのプロトタイプを作成し、プライバシー遵守を確保し、公正かつ正確なパフォーマンスの継続的な監視を行います。
さらに、オープンソース技術に関連する課題についても取り組むとともに、最前線のモデルアプリケーションの安全で効果的な開発についてチームの訓練を進めます。