AI 產出是否被視為受保護言論?法律專家警告這一危險觀念

生成式人工智慧與言論辯論:法律觀點與風險

隨著生成式人工智慧的日益精進,其所產生的內容愈加具表達性、資訊性,且常具說服力。美國的法律專家有爭議地提出,大型語言模型(LLMs)的產出可能受到第一修正案的保護。這種保護甚至可能擴展到潛在有害的內容,使這些產出在政府監管之外。

對於監管的呼籲

休士頓大學法學院的助理教授彼得·薩利布(Peter Salib)認為,為避免生成式內容帶來災難性後果,有效的監管至關重要。他的見解將在即將發表的華盛頓大學法學評論中刊登。薩利布解釋道:“受保護的言論是一類神聖的憲法類別”,他強調若像GPT-5這樣的先進模型的產出被視為受保護,將對我們的監管能力造成嚴重影響。

支持AI作為受保護言論的論點

一年前,法律記者本傑明·維特斯(Benjamin Wittes)曾聲稱,我們可能已將“第一修正案的權利”賦予像ChatGPT這樣的機器。他辯稱,這些人工智慧系統“無可否認地具有表達性”,並透過生成文本、圖像和進行對話產生類似言論的內容。維特斯指出,儘管人工智慧內容可能是衍生性的,但第一修正案保護的是表達而非獨創性。薩利布提到,許多學者已開始認識到,人工智慧的產出與言論的相似度足以獲得保護。

一些人認為這些產出是涉及之人類程式設計師的受保護言論,而另一些則主張這些產出屬於AI系統的企業所有者,如ChatGPT。然而,薩利布主張:“人工智慧的產出並不代表任何享有第一修正案權利的說話者的交流;它們不是人類的表達。”

人工智慧產出的新興風險

人工智慧的快速進展使得系統的能力顯著提升,並以自主且不可預測的方式運作。薩利布警告稱,生成式人工智慧可能帶來嚴重風險,包括製造致命化學武器和攻擊關鍵基礎設施。他表示:“有強大的實證證據顯示,近期的生成式人工智慧系統將對人類生命構成重大風險,”並預見生物恐怖主義和自動化政治刺殺等潛在情境。

人工智慧:言論但非人類言論

全球領導者正開始制定監管措施,以確保人工智慧的安全與道德運作。這些法律可能要求人工智慧系統避免生成有害內容,可能被視為言論審查。薩利布指出,如果人工智慧的產出被視為受保護的言論,任何監管都將面臨嚴格的憲法審查,只在面臨迫在眉睫的威脅時才可進行監管。

他強調人工智慧產出與人類言論之間的區別。傳統軟體通常反映人類意圖,而生成式人工智慧的目標是產生任何內容,缺乏特定的交流意圖。

企業言論權與監管

儘管企業不是人類,但擁有衍生的言論權。薩利布認為,企業權利取決於人類創造者的權利。如果LLMs的產出不符合受保護的言論,那麼當其由企業發佈時,獲得保護則不合邏輯。為了有效減輕風險,薩利布主張監管人工智慧的產出,而不是限制系統的生成過程。由於其複雜性和不可預測性,當前的LLMs無法被完全控制或編程以避免有害產出。

成功的監管應專注於人工智慧產出的性質——確定模型的內容是否足夠安全以供發佈。這種方法將激勵人工智慧公司在開發中優先考慮安全性。

最終,薩利布強調:“法律必須旨在防止人們受到欺騙或傷害,”表明在人工智慧能力不斷進步的情況下,迫切需要謹慎的立法行動。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles