拜登政府已開始推動監管開放權重模型,以收集對未來規範至關重要的信息。然而,針對這些模型的具體監管措施仍未確定。
在最近的一份報告中,國家電信與信息管理局(NTIA)強調了評估公共 AI 模型所帶來風險的必要性,這些風險可能會擾亂現有系統。進行這項評估對於防止潛在災難至關重要。
儘管認識到監控的重要性,NTIA 承認美國目前尚未具備有效應對許多基礎模型相關風險的能力。為了彌補這一缺口,NTIA 提出了三大重點:收集模型能力的證據以供風險監控,評估並比較風險指標,以及制定針對性政策以降低這些風險。
NTIA 將開放權重模型定義為具有公開釋放權重或參數的基礎模型,使用者可以下載這些模型。這與在公開許可下運作的開源模型不同,後者允許進行復制,這與某些 AI 模型開發者的說法不符。
NTIA 表示:“考慮邊際風險有助於避免對雙用途基礎模型施加不必要的嚴格限制,特別是在權衡相似系統的益處與風險時。”
此外,該機構也承認,開放模型和封閉模型都存在需要管理的風險。然而,開放模型可能在風險降低方面提供獨特的機會與挑戰。
拜登政府對開放模型的關注顯示出類似於歐盟 AI 法案的監管方法,該法案於三月由歐盟議會通過。歐盟的立法根據使用案例的風險來規範 AI,而非模型本身。例如,對於使用 AI 進行面部識別的公司已設定重大處罰。鑒於歐盟的做法,美國可能也在考慮類似措施以應對公共 AI 模型的潛在危害。
民主與科技中心的 AI 管理高級顧問凱文·班克斯頓讚揚了 NTIA 對 AI 模型監管的謹慎態度。他在一封電子郵件中表示:“NTIA 正確地得出結論,目前尚無足夠證據顯示開放基礎模型存在新風險,因此不應對其分發施加新限制。”
目前,AI 模型開發者不必過於擔心,因為 NTIA 仍在進行全面的調查任務。
AI 公司 Aquant 的共同創始人阿薩夫·梅洛赫納在電子郵件中指出,目前 NTIA 的觀察並未顯著改變模型開發者的局面。“開發者仍可根據自身判斷發布模型權重,儘管他們將面臨更嚴格的監管,”梅洛赫納解釋道。“該行業快速發展,使得聯邦機構必須根據新發現保持靈活。”