理解歐盟人工智能法案的不確定性:來自OpenAI爭議的洞見

歐盟人工智慧法案被預期為一項具有里程碑意義的立法,但由於對基礎模型的規範存在爭議,目前面臨不確定性。基礎模型是指大型人工智慧模型,如 GPT-4、Claude 和 Llama。最近,法國、德國和義大利政府推動對基礎模型的有限規範,這一動作被許多人歸因於大科技公司及開源企業(如 Mistral)的強大遊說,該公司由前法國數字部長 Cédric O 顧問指導。批評者認為這種做法可能會削弱歐盟人工智慧法案的完整性。

支持對基礎模型實施更嚴格規範的倡導者強烈反對。德國及國際人工智慧專家的聯盟,包括知名研究者 Geoffrey Hinton 和 Yoshua Bengio,最近發表公開信,呼籲德國政府不要將這些模型排除在歐盟人工智慧法案之外,警告這樣的豁免將危害公共安全並損害歐洲企業。此外,法國專家也在《世界報》發表聯合社論,對大科技公司在立法過程中稀釋這一重要法案的企圖表示強烈反對。

那麼,為什麼歐盟人工智慧法案在這一進階階段遇到阻力?自初步草案提出以來已經過去兩年半,經過廣泛協商,法案目前進入三方會議階段,歐盟立法者正在最終確定法案細節。歐洲委員會希望在2023年底之前通過此法案,以便在2024年歐洲議會選舉之前生效。

近期在 OpenAI 發生的動盪為影響這些討論的內部動態提供了洞見。隨著首席執行官 Sam Altman 短暫被解雇,董事會的劇變暴露出組織內部不同的觀點,反映了歐盟對人工智慧規範的更廣泛辯論。一些董事會成員將商業機會和人工通用智慧(AGI)的發展置於優先地位,而另一些則對高風險技術的安全影響表達了深切擔憂。

主張謹慎的董事會成員與有效利他主義運動緊密相連,該運動在歐盟人工智慧法案的遊說中也發揮了重要作用。報導指出,這一社群已投入大量資源提升對人工智慧存在風險的認識。

相對而言,包括 OpenAI 在內的大科技公司則積極遊說反對嚴格的規範。雖然 Sam Altman 公開主張全球人工智慧治理,但他也試圖削弱歐盟提議法規的某些條款,以減輕公司遵守的負擔。Gary Marcus 指出,OpenAI 的混亂強調了嚴格監管的必要性,而非允許大科技公司自行監管。他支持歐洲議會的分層方法,聲稱將歐盟人工智慧法案的關鍵部分簡化為自我監管將對全球產生嚴重後果。

歐洲議會的主要談判代表 Brando Benifei 也贊同這一觀點,指出 Altman 行為的不可預測性突顯了依賴自願行業協議的危險。

歐盟人工智慧法案真的面臨風險嗎?德國顧問 Benedikt Kohn 指出,持續的談判至關重要,而下一次三方會議定於12月6日舉行。他警告稱,若未能達成協議,將嚴重削弱歐盟作為全球人工智慧規範領導者的願景。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles