开放AI(OpenAI)是先进语言模型GPT-4的研发组织,近日发布了一项引人注目的研究,探讨了人工智能在生物威胁创造中的潜在应用。该研究由生物学专家与学生共同进行,发现GPT-4在生物威胁创造精确度上的提升仅为“小幅度改善”,相比于现有的在线资源效果有限。
此项研究是开放AI准备框架的一部分,该框架旨在评估和应对先进人工智能能力所带来的潜在风险,尤其是与“前沿风险”相关的非常规威胁。一个重要的担忧是,人工智能可能会帮助恶意行为者策划生物攻击,包括合成病原体和毒素。
研究方法与结果
研究团队共邀请了100名参与者进行人类评估:其中包括50名拥有专业实验室经验的生物学博士和50名完成至少一门大学生物课程的学生。参与者随机分为两组:对照组仅可以访问互联网,实验组则可以在使用互联网的同时使用GPT-4。参与者需要完成与生物威胁创造相关的任务,包括构思、获取、放大、制备和释放。
研究评估了五个关键指标:准确性、完整性、创新性、所用时间和自评难度。结果显示,GPT-4在任何指标上的表现并没有显著提高参与者的整体表现,仅在学生组中略微提升了准确性。此外,GPT-4经常生成错误或误导性的回答,这可能妨碍生物威胁创建的过程。
研究人员得出结论,当前的GPT-4等大型语言模型(LLMs)在生物威胁创造方面的风险并未显著高于现有的在线资源。但他们也警告,这一发现并非最终结论,未来的LLMs可能会发展得更强大且更具威胁性。他们强调了持续研究、社区讨论以及制定有效评估方法和伦理准则以管理AI安全风险的重要性。
这些结论与RAND公司的一项红队演练的先前发现一致,该演练同样没有发现使用或不使用LLMs生成的生物攻击计划在可行性上存在统计学上的显著差异。两项研究均承认其方法的局限性及AI技术的快速演变可能会迅速改变风险形势。
关于人工智能潜在被滥用于生物威胁的担忧,不仅限于开放AI;白宫、联合国以及众多学术和政策专家也呼吁加强研究和监管。随着AI技术变得愈加强大和易于获取,保持警惕与准备的紧迫感持续上升。