OpenAI針對先進的語言模型GPT-4發佈了一項引人注目的研究,探討AI在生物威脅創造中的潛在應用。此研究由生物學專家和學生共同參與,發現GPT-4在生物威脅創造的準確性上僅提供了“輕微提升”,與現有的線上資源相比並無顯著改善。
這項研究是OpenAI的備災框架的一部分,旨在評估和應對先進AI能力帶來的潛在風險,特別是與“邊界風險”相關的非常規威脅。AI協助惡意行為者策劃生物攻擊的潛力,包括合成病原體和毒素,成為一個重大的關注點。
研究方法與結果
研究團隊進行了一項涉及100名參與者的人類評估:50名擁有專業實驗室經驗的生物學博士與50名已修習至少一門大學生物課程的學生。參與者被隨機分配到對照組(僅使用互聯網)或實驗組(除了互聯網還可使用GPT-4)。他們完成與生物威脅創造過程相關的任務,包括構思、獲取、放大、配方及釋放。
在準確性、完整性、創新性、所需時間及自評難度五個關鍵指標上進行性能評估。結果顯示,GPT-4對參與者的任何指標表現均未顯著提升,學生組僅有輕微的準確性改善。此外,GPT-4經常產生不正確或誤導性的回答,可能妨礙生物威脅的創造。
研究人員總結認為,目前一代的LLM(大語言模型)如GPT-4在生物威脅創造的風險上並未顯著高於現有的線上資源。然而,他們警告這一發現並非定論,未來的LLM可能會進一步升級為更具能力和危險的系統。他們強調持續研究、社區討論以及制定有效的評估方法和道德指導方針以管理AI安全風險的必要性。
這些結論與RAND公司的一次紅隊演習的先前結果相符,該研究同樣未發現無論是否使用LLMs,生物攻擊計劃的可行性存在統計上顯著的差異。兩項研究都認可其方法學上的限制以及AI技術的快速演變,這可能會迅速改變風險格局。
關於AI被濫用於生物威脅的潛在風險,關注並不僅限於OpenAI;白宮、聯合國及眾多學術及政策專家也呼籲加強研究與監管。隨著AI技術日益強大和可達,維持警覺和備戰的迫切性日益增加。