OpenAI 發布「準備框架」,專注於監測與降低 AI 風險

OpenAI,ChatGPT 背後的人工智慧實驗室,推出了其「準備框架」,這是一套全面的流程和工具,旨在監控並減輕日益強大的 AI 系統所帶來的風險。此公告是在 OpenAI 最近因 CEO Sam Altman 的爭議性解僱及隨後的再僱用而引發的動盪之後發佈的,這一事件引發了人們對實驗室治理和問責制的擔憂,特別是考量到其在全球開發一些最先進的 AI 技術中的角色。

準備框架的關鍵要素

根據 OpenAI 的博客,準備框架旨在解決這些擔憂並強調實驗室對道德 AI 開發的承諾。該框架概述了監測、評估、預測及防範先進模型可能引發的災難性風險的方法,這些風險可能被利用於網絡攻擊、大規模操控或自動武器系統。

數據驅動的 AI 安全

框架的一個基本方面是為 AI 模型實施風險「得分卡」,評估潛在危害的各種指標,包括能力、漏洞和影響。這些得分卡會定期更新,一旦達到風險閾值便會啟動審查和干預。

動態框架

OpenAI 將此框架描述為動態和不斷演變的,承諾基於新的數據、利益相關者的反饋和研究持續進行精進和調整。實驗室計劃在更廣泛的 AI 社群內分享其發現和最佳實踐。

與 Anthropic 的比較分析

此次公告正值來自競爭實驗室 Anthropic 的最新動態,該實驗室由前 OpenAI 研究人員創立,並推出了其負責任擴展政策。該政策詳細規範了 AI 安全級別及相應的模型開發流程。

兩種框架在結構和方法論上有顯著差異。雖然 Anthropic 的政策是正式的且具指導性的,直接與模型能力相關,OpenAI 的框架則提供了更靈活的適應性,確立了激活審查的一般風險閾值,而不是嚴格的規範。

專家指出,這兩種框架各有優劣。Anthropic 可能在促進安全標準的遵循上佔有優勢,因其政策將安全措施融入開發過程。與此相比,OpenAI 的框架相對於自由裁量權較大,這可能帶來人為判斷的不確定性。

觀察人士認為,OpenAI 可能因為對 GPT-4 等模型快速部署的反對聲浪而在安全協議方面有所應對。Anthropic 的主動安全策略可能為其提供了競爭優勢。

最終,這兩個框架標誌著 AI 安全領域的重大進展,這一領域經常被先進 AI 能力的驅動所掩蓋。隨著 AI 技術的不斷發展與普及,領先實驗室在安全措施方面的合作與協調對於確保 AI 的道德與造福人類的使用至關重要。

Most people like

Find AI tools in YBX