根據安永(Ernst & Young, EY)最近發表的一份報告,全球人工智慧(AI)監管的現狀引起了 renewed attention,特別是在拜登總統發布旨在監控和規範 AI 風險,同時最大化其益處的行政命令之後。該報告題為《人工智慧(AI)全球監管現狀:政策趨勢及考量以建立對 AI 的信心》,於上個月發布,是政策制定者和企業的重要參考指南,旨在澄清複雜的全球 AI 監管環境。
報告分析了八個主要管轄區的監管動態:加拿大、中國、歐盟、日本、韓國、新加坡、英國和美國。儘管這些地區的監管背景各異,但在 AI 治理方面有著共同目標—最小化風險並增強社會效益。這些目標與經 G20 在 2019 年批准的經合組織(OECD)AI 原則一致,該原則強調人權、透明度、風險管理及道德考量。
然而,報告也突顯了全球 AI 監管中的重大差異和挑戰。歐盟採取了主動立場,提出了要求高風險 AI 應用(如生物識別和關鍵基礎設施)遵守強制性要求的 AI 法案。與此同時,中國則著眼於規範核心 AI 功能,如內容推薦和面部識別,而美國則歷來採取較輕的監管方式,專注於自願性行業指南和特定行業的規範。
隨著 EY 報告的發布,全球 AI 監管環境不斷演變,拜登總統的行政命令顯著改變了美國的監管環境,要求對強大的 AI 系統進行強制安全測試披露,並要求開發者向聯邦政府通報潛在風險,包括國家安全和健康問題,這標誌著從之前的自願性指導方針的轉變。
此外,英國政府也發布了 AI 白皮書,提出基於四項原則(比例性、問責制、透明度和道德)的監管框架,與歐盟的做法密切相關。
這些發展表明全球 AI 監管環境正在迅速變化,迫切需要政策制定者和企業保持信息透明,適應新規範。雖然 EY 報告仍是理解這一領域的重要資源,但隨著新規則和倡議的出現,可能需要更新。
報告概述了幾個在 AI 監管中仍然相關的關鍵趨勢和最佳實踐:
- 針對 AI 系統的具體用例和風險配置的基於風險的監管方法。
- 考慮特定行業的風險,例如醫療、金融和交通。
- 關注 AI 對相關政策領域(如數據隱私和網絡安全)的影響的倡議。
- 利用監管沙盒與利益相關者共同制定 AI 規則。
總之,EY 報告強調了政府官員、企業領袖和利益相關者之間持續對話的重要性,以平衡監管與創新。它為應對 AI 監管的複雜性提供了指引,並鼓勵合作以縮小 AI 信任差距、防止政策碎片化,並釋放 AI 的全部潛力。這份報告對於任何希望了解全球 AI 的倫理挑戰與政策動態的人士而言,都是至關重要的。