人工智慧顯著改變了科技領域,尤其是在 ChatGPT 公開發布之後。然而,人工智慧的快速發展也引發了重大擔憂。像 AI 研究實驗室 Anthropic 等領導機構警告其潛在的破壞能力,尤其是在 ChatGPT 等系統競爭加劇的背景下。主要問題包括數百萬工作崗位的流失、數據隱私侵害以及錯誤訊息的蔓延,這些都引起了全球利益相關者,特別是政府機構的關注。
在美國,國會加強了對人工智慧監管的關注,提出多項法案,旨在提升透明度、發展基於風險的框架等。十月,拜登-哈里斯政府發布了《人工智慧安全、可靠及可信發展與使用的行政命令》,該命令在多個領域制定了指導方針,包括網絡安全、隱私、偏見、公民權利、算法歧視、教育、勞工權益和研究。此外,作為七國集團的一部分,政府最近也引入了人工智慧行為準則。
歐盟同樣在推進其擬議的 AI 立法——《歐盟人工智慧法案》。此法規針對高風險的 AI 工具,可能侵犯個人權利,特別是在航空等行業。該法案強調高風險 AI 的重要控制措施,包括穩健性、隱私、安全性和透明度。被認為存在不可接受風險的系統將被禁入市場。
雖然對政府在 AI 監管中的角色的討論仍在持續,但有效的治理對企業同樣有益。尋求創新與監管之間的平衡,有助於保護組織免受不必要的風險,同時提供競爭優勢。
企業在 AI 治理中的角色
企業有責任減輕與 AI 技術相關的風險。生成式 AI 對大量數據的依賴引發了重要的隱私問題。如果缺乏適當的治理,消費者的信任和忠誠度可能下降,因為客戶擔心他們的敏感信息如何被使用。
此外,企業還必須了解與生成式 AI 相關的潛在責任。如果 AI 生成的材料與現有作品類似,企業可能面臨版權侵犯索賠,承擔法律和財務風險。應認識到,AI 的輸出可能會複製社會偏見,將其嵌入到影響資源配置和媒體可見性的決策系統中。有效的治理需要建立健全的流程,以最小化偏見風險,包括讓受影響方參與參數和數據的審查、促進多元化的工作環境及細化數據集,以生成公平的輸出。未來,建立強有力的治理對於保護個人權益的同時推動具有變革性的 AI 技術進步至關重要。
監管實踐框架
雖然進行盡職調查可以減輕風險,但建立強有力的監管框架同樣重要。企業應專注於以下幾個關鍵方面:
識別與應對已知風險
對於未經管控的 AI 所帶來的嚴重威脅意見不一,但對於如工作轉移、隱私侵犯、數據保護、社會不平等和知識產權問題等各項關注,則存在共識。企業應評估與其運營相關的具體風險,透過對這些風險達成共識,組織可以制定指導方針,以主動應對和管理這些風險。
例如,我所在的公司 Wipro 已經建立了一個四大支柱框架,旨在促進負責任的 AI 驅動的未來,重點關注個人、社會、技術和環境相關考量。這一框架為企業提供了一種設立健全指導方針以應對 AI 系統互動的方法。
增強治理實踐
利用 AI 的組織必須優先考慮治理,以確保在整個 AI 生命週期中的問責性和透明度。實施治理結構有助於記錄模型訓練過程,降低與模型不可靠性、偏見引入及變量之間關係變化相關的風險。
AI 系統本質上是社會技術的組合,由數據、算法和人類參與構成。因此,將技術和社會考量納入監管框架至關重要。企業、學術界、政府和社會之間的合作是防止單一群體開發 AI 解決方案,導致意想不到挑戰的關鍵。