近期,OpenAI面對董事會的動盪,決定設立專責的準備團隊,以加強對其人工智慧模型的安全測試監督。這一戰略舉措是在公司因首席科學家伊利亞·蘇茨克維爾對技術快速商業化缺乏足夠風險防護的擔憂,解雇 CEO 山姆·奧特曼後不久推出的。經過五天的員工抗議,奧特曼被恢復職位,凸顯了員工支持在企業決策中的重要性。
為了加強安全協議,OpenAI的新準備團隊將對其基礎模型進行全面評估與壓力測試。該團隊的報告將會提交給OpenAI領導層及新成立的董事會。領導團隊將根據測試結果決定是否繼續模型開發,而董事會則擁有推翻決策的權力,顯示出決策過程中將有更多的審查。
OpenAI在近期的部落格文章中強調:「這項技術工作對於指導OpenAI在安全模型開發和部署上的決策至關重要。」此次董事會的重組是在領導危機期間進行的重大變革中進行的,計劃將成員人數從三位擴增至九位,包括微軟的非投票觀察者角色。目前,董事會成員包括前美國財政部長拉里·薩默斯、Salesforce前聯合CEO布雷特·泰勒以及Quora的共同創辦人亞當·丹傑洛,後者是唯一留任的前任董事會成員。
OpenAI的使命十分明確:其首要的受託責任是為人類服務,並致力於確保人工通用智能(AGI)的安全。該組織的新準備框架旨在從模型部署中獲得有價值的見解,以有效減輕潛在風險。OpenAI聲明,隨著創新加速,安全工作的步伐亦須同步提升,因此需要透過迭代部署進行持續學習。
根據這一準備框架,新團隊將定期進行安全演練,以確保能迅速應對可能出現的問題。OpenAI還計劃聘請合格的獨立第三方進行全面審計,加強問責制和透明度。
所有OpenAI模型在訓練中每當有效計算能力翻倍時,都將持續更新和評估。測試過程將涵蓋網路安全漏洞、誤用潛力及自主決策能力等關鍵領域,特別是與生物、化學或核威脅相關的危險輸出。
模型將根據風險等級被劃分為四個安全風險層級,與歐盟AI法案的分類系統相符,分為低、中、高到極高風險層級。被評定為中風險或更低的模型將被視為適合部署,而高風險或極高風險的模型則需進一步開發和採取預防措施。
目前,OpenAI的準備框架仍在測試階段,隨著新見解的出現將持續進行調整。這一主動應對的方式反映了公司對於不僅推進AI技術,還包括伴隨著這些創新所需的安全和道德考量的承諾。