미국 바이든-해리스 행정부 하에 OpenAI를 포함한 13개 AI 기업이 안전하고 신뢰할 수 있는 AI 개발에 대한 자발적인 약속을 발표했습니다. 12월 14일 발표된 이 약속은 의료 분야에서 대규모 AI 모델의 이점을 활용하면서 민감한 환자 정보 보호와 관련 위험을 최소화하는 것을 목표로 하고 있습니다.
CVS Health, 스탠포드 헬스, 보스턴 아동병원, UC 샌디에이고 헬스, UC 데이비스 헬스, 웰스팬 헬스 등 총 28개의 의료 제공자와 지불자가 이 약속에 서명했습니다. 이들 기관은 AI의 신뢰성과 안전성에 대한 회의론을 해소하려고 합니다. 특히 ChatGPT와 같은 생성 AI 기술이 주목받고 있는 상황에서 더욱 중요합니다.
그동안 의료 분야에서 AI에 대한 논의는 주로 조기 질병 진단과 새로운 치료법 발견 가능성에 집중되었습니다. 그러나 GE 헬스케어의 최근 조사에 따르면, 55%의 임상의가 AI가 의료 응용에 적합하지 않다고 생각하며, 58%는 AI가 생성한 데이터에 대한 불신을 나타냈습니다. 16년 이상의 경력을 가진 임상 의료인 중에서는 이 회의론이 67%로 증가합니다.
참여 기관들은 이러한 인식을 변화시키기 위해 약속을 강조하며 조정된 치료, 향상된 환자 경험, 임상 전문가의 소진 감소 필요성을 강조하고 있습니다. 약속 문서에서는 “AI는 의료 시스템을 개선할 수 있는 독창적 기회를 제공합니다. 특히 조기 암 발견과 예방 분야에서 그렇습니다.”라고 설명했습니다.
신뢰 구축을 위해 이들 기관은 미국 보건복지부(HHS)에서 제시한 공정(Fair), 적절(Appropriate), 유효(Valid), 효과적(Effective), 안전(Safe) AI 원칙에 프로젝트를 맞추겠다고 약속했습니다. 이러한 기준 준수는 편향과 위험을 줄이는 데 도움이 되어 실질적인 응용에서 효과성을 보장할 것입니다.
이들 기업은 투명성과 포괄적 리스크 관리 프레임워크를 통해 신뢰를 구축할 계획입니다. 핵심 요소는 사용자가 인간 검토를 거치지 않은 AI 생성 콘텐츠와 상호작용하고 있는지에 대한 투명성입니다. 리스크 관리 프레임워크는 AI 응용 프로그램의 철저한 추적과 다양한 의료 환경에서의 잠재적 피해를 사전에 해결하는 조치를 포함합니다.
"우리는 최전선 모델을 사용하는 응용 프로그램 목록 유지 및 강력한 리스크 관리 프레임워크 보장을 포함한 거버넌스 관행을 시행할 것입니다."라고 기관들은 공유했습니다.
또한, 현재의 구현에 중점을 두면서 이들 기관은 건강 중심 AI 혁신에 대한 지속적인 연구 개발(R&D)과 필요한 안전 장치는 유지할 것입니다. 비생산 환경과 테스트 데이터를 활용하여 새로운 응용 프로그램을 프로토타입하고, 개인 정보 준수를 보장하며 공정하고 정확한 성능을 지속적으로 모니터링할 계획입니다.
추가로, 이들은 오픈 소스 기술 관련 문제 해결 및 최전선 모델 응용 프로그램의 안전하고 효과적인 개발을 위해 팀 교육에 힘쓸 것입니다.