最近,有23位人工智慧(AI)研究人員、學者和創意工作者發表了一篇論文,主張建立「安全港」法律和技術保護至關重要,以便進行獨立的AI產品評估。這項保護對於進行「善意」調查的研究人員、記者和藝術家來說是必要的。
論文強調了一個重要障礙:主要AI提供商的服務條款——包括OpenAI、Google、Anthropic、Inflection、Meta和Midjourney——通常在法律上限制對AI漏洞的研究。作者敦促這些公司通過提供賠償以防止帳號被停用和法律後果,來支持公共利益的AI研究。
伴隨的部落格文章指出:「雖然這些條款旨在遏制惡意使用,但它們也無意中阻礙了AI安全研究。」公司可能會嚴格執行這些政策,從而妨礙有影響力的研究。
共同作者、麻省理工學院媒體實驗室的Shayne Longpre和普林斯頓大學的Sayash Kapoor強調了這個問題的重要性,特別是在最近《紐約時報》的訴訟背景下。OpenAI將《時報》對ChatGPT的評估標籤為「黑客行為」,而《時報》的首席律師則回應說,OpenAI的詮釋將正當調查錯誤地定性為惡意活動。
Longpre提到Knight第一修正案研究所早期對社交媒體調查的倡導,表示:「我們希望從該倡議中學習,為AI研究提出安全港。」他解釋道:「在AI方面,使用和相關危害缺乏明確性,使得研究的可獲取性至關重要。」
題為「為AI評估和紅隊測試提供安全港」的論文提到,在OpenAI、Anthropic、Inflection和Midjourney等公司進行公共利益研究時,曾出現多次帳號被停用的情況,其中Midjourney因頻繁停用帳號而備受關注。共同作者兼藝術家Reid Southen在調查Midjourney生成內容可能涉及的版權侵權問題時,遭到多次禁止,這揭示了平台可能在用戶無意的情況下違反版權。
Southen回顧道:「Midjourney 三次禁止我,個人損失近300美元。」他表示,第一次停用是在我發布結果後的八小時內,而且他們隨後在未通知用戶的情況下修改條款,將侵權內容的責任轉嫁給用戶。
Southen倡導獨立評估,理由是這些公司顯示出不願意自我評估,從而損害了版權擁有者的權益。
這些討論的關鍵在於透明度。Longpre強調了如果獨立研究人員能夠展示負責任的使用,他們就應該被允許研究AI產品的能力和缺陷。他表達了與公司合作以提高透明度和增強安全性的願望。
Kapoor承認,雖然公司對服務被濫用有正當擔憂,但政策不應該對惡意用戶和進行重要安全工作的研究人員一刀切。他指出與受影響公司之間的持續對話,表示:「大多數公司對我們的提議表示了興趣,一些公司已經開始調整條款,尤其是OpenAI,該公司在我們的初步草案後修改了其措辭。」
總體而言,這篇論文呼籲一種平衡的方法,以促進AI安全並通過明確的保護措施支持研究。