最近,PwC的一項調查對1,001位在美國商業與科技領域的高管進行了訪問,結果顯示73%的受訪者目前正使用或計劃在其組織中實施生成式AI。儘管有日益增長的興趣,只有58%的企業開始評估與AI相關的風險。PwC強調,負責任的AI應專注於價值、安全和信任,並將這些元素整合進公司的風險管理流程中。
PwC美國AI保障主管Jenn Kosar指出,過去企業可以在沒有完善負責任AI策略的情況下啟動AI項目,但這樣的時代已經結束。「我們現在已經走得更遠,因此是時候加強負責任的AI了,」Kosar表示。她指出,以前的AI項目通常僅限於小型團隊,但如今我們目睹生成式AI的廣泛採用。生成式AI試點項目在塑造負責任AI策略中扮演重要角色,因為它們提供了有效團隊整合和AI系統使用的洞察。
新興關注點
在Elon Musk的xAI Grok-2模型在社交平台X(前身為Twitter)上部署後,負責任的AI及風險評估的重要性引起了廣泛關注。早期反饋顯示,這項圖像生成服務缺乏足夠的限制,導致能夠創造有爭議和誤導性的內容,包括在敏感情境中對公眾人物的深度偽造影像。
負責任AI的關鍵優先事項
在調查中,受訪者被要求對PwC提出的11項能力進行優先排序,包括:
- 提升技能
- 嵌入AI風險專家
- 定期訓練
- 數據隱私
- 數據治理
- 網絡安全
- 模型測試
- 模型管理
- 第三方風險管理
- 專用的AI風險管理軟體
- 監控和審計
超過80%的參與者報告說在這些領域有所進展,但只有11%表示已完全實施所有11項能力。PwC警告許多組織可能誇大其進展,因為管理負責任AI的複雜性可能會妨礙全面實施。
例如,有效的數據治理對於定義AI模型訪問內部數據的權限以及採取保護措施至關重要。此外,傳統的網絡安全措施可能無法充分防範如模型中毒等複雜攻擊。
負責任AI的問責制
為了幫助企業在AI轉型中導航,PwC建議企業優先考慮全面的負責任AI策略。關鍵建議是明確負責負責任AI實踐的所有權和問責制,理想上由一位高管來負責。Kosar強調將AI安全視為組織優先事項的重要性,並建議任命首席AI官或專責的負責任AI領導者以協調各方利益相關者。
「也許AI將成為統一技術與操作風險的催化劑,」Kosar表示。PwC還建議組織考慮AI系統的整個生命周期,這不僅是理論考量,而是要在整個組織內積極實施安全與信任政策。為未來的法規做準備需要對負責任AI實踐的承諾,以及為利益相關者透明度制定計劃。
Kosar對調查中的反應表示驚訝,許多高管將負責任的AI視為商業優勢。「負責任的AI不僅是風險管理;它還應創造價值。組織將其視為基於信任的競爭優勢,」她總結道。