开启医疗领域的安全AI:医疗提供者如何利用“大规模模型”的“千载难逢”优势

包括OpenAI在内的13家人工智能公司,已在拜登-哈里斯政府的倡导下,承诺安全可信地开发人工智能。这一自愿倡议于12月14日宣布,旨在在医疗领域充分利用大型人工智能模型的显著好处,同时保护敏感的患者信息,减少相关风险。

来自CVS Health、斯坦福健康、波士顿儿童医院、加州大学圣地亚哥分校健康系统、加州大学戴维斯分校健康系统和WellSpan Health等28家医疗服务提供商和支付方签署了这些承诺。其目标是消除公众对医疗领域人工智能可靠性和安全性的质疑,尤其是随着如ChatGPT等生成式人工智能技术的日益流行。

尽管早前关于医疗领域人工智能的讨论主要集中在其早期诊断疾病和发现新疗法的潜力上,但GE Healthcare最近的一项调查显示,55%的临床医生认为人工智能尚不适合用于医疗,58%的人对人工智能生成的数据表示不信任。在拥有超过16年经验的临床医生中,这种怀疑情绪更高,达到67%。

参与组织旨在通过承诺改变这种看法,强调协调护理、改善患者体验和减少临床医生疲惫感的必要性。承诺文件中指出:“人工智能是提升医疗系统的千载难逢的机会,特别是在早期癌症检测和预防方面。”

为了建立用户信任,这些组织承诺使其项目符合美国卫生与公共服务部(HHS)提出的公平、适当、有效、安全的人工智能(FAVES)原则。这一对齐将有助于减轻偏见和风险,确保解决方案在现实中的有效应用。

公司计划通过透明度和全面的风险管理框架建立信任,透明度的一个关键因素是明确用户是否正在接触未经人工审核的人工智能生成内容。风险管理框架将包括对人工智能应用的全面跟踪以及主动应对不同医疗环境中潜在危害的措施。“我们将实施治理实践,包括维护使用前沿模型的应用列表,并确保强有力的风险管理框架,”组织表示。

此外,参与组织在关注当前实施的同时,也致力于健康领域人工智能创新的持续研究与开发(R&D),并保持必要的安全保障。他们计划使用非生产环境和测试数据来原型开发新应用,确保隐私合规,并持续监测公正和准确的表现。

他们还将解决与开源技术相关的问题,同时致力于培训团队,确保前沿模型应用的安全和有效开发。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles