山姆·奧特曼:即將推出的 OpenAI 模型將首輪接受美國政府的安全檢查

隨著人們對先進人工智慧系統安全性日益關注,OpenAI 執行長山姆·奧特曼宣布,該公司的下一個重要生成性 AI 模型將在發布前接受美國政府的安全檢查。

奧特曼在 X 平台上發文指出,OpenAI 正與美國人工智慧安全研究所(AI Safety Institute)——一個聯邦機構——合作,達成一項協議,讓其新基礎模型提前獲得測試機會。這一合作旨在推動 AI 評估科學,確保安全措施的有效性。

OpenAI 對安全的承諾

奧特曼強調,OpenAI 已修訂其不得貶低政策,讓現任及前任員工能夠自由表達對公司做法的擔憂。此外,公司承諾至少將 20% 的計算資源投入安全研究。

來自美國參議員的擔憂

隨著 OpenAI 在 AI 行業中成為領導者,推出如 ChatGPT 和最近上市的 SearchGPT,迅速的發展策略引發爭議。批評者,包括前安全領導,指責公司為了快速進步而忽視安全。

針對這些擔憂,五位美國參議員最近致信奧特曼,質疑 OpenAI 對安全的承諾,並提及有關對前員工報復的指控。參議員們表示,持續的安全擔憂似乎與 OpenAI 所聲稱的負責任的 AI 開發承諾相矛盾。

OpenAI 領導層的回應

根據彭博社報導,OpenAI 首席策略官賈森·關回應,重申公司的使命是開發為人類最佳利益服務的 AI。他強調 OpenAI 致力於在各個環節中實施嚴格的安全措施,並與員工保持透明溝通。

關重申計劃將 20% 的計算能力用於安全研究,撤回不得貶低條款以促進開放對話,並與人工智慧安全研究所合作進行安全模型釋放。

奧特曼在 X 上進一步重申了這一承諾,雖然未透露與人工智慧安全研究所的具體合作細節。

為更安全的 AI 進行合作

人工智慧安全研究所隸屬於國家標準與技術研究院(NIST),成立於英國人工智慧安全峰會期間,旨在應對先進 AI 可能帶來的風險,包括國家安全與公共安全問題。該研究所與包括 Meta、Apple、Amazon、Google 和 OpenAI 在內的超過 100 家科技公司合作,推動 AI 開發的安全性。

值得注意的是,OpenAI 不僅與美國政府合作,還與英國政府建立了類似的安全評審協議。

安全擔憂升級

隨著 5 月份 Ilya Sutskever 和 Jan Leike 離職,安全擔憂進一步加劇。這兩位是 OpenAI 超級對齊團隊的共同領導,專注於為超智能 AI 開發安全系統,Leike 公然批評公司優先考慮華麗產品而非基本安全措施。

在他們離開後,報導指出超級對齊團隊已解散。儘管面臨這些挑戰,OpenAI 仍持續推出產品,並加強其對安全的承諾,通過內部研究和成立新的安全與安保委員會來增強其安全性。這個委員會由 OpenAI 董事會主席布雷特·泰勒(Bret Taylor)主持,包括如 Quora 的執行長亞當·丹傑洛(Adam D’Angelo)、前索尼全球法律顧問妮可·塞利格曼(Nicole Seligman)及山姆·奧特曼等知名成員。

通過這些努力,OpenAI 旨在解決圍繞先進 AI 技術的關鍵安全問題,力求在創新與負責任的發展之間取得平衡。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles