全球領袖競相制定人工智慧法規以確保更安全的未來

人工智能(AI)的快速發展在過去一年中顯著加速。科技進步使得AI超越人類智慧的概念從科幻小說的領域轉變為可行的短期現實。圖靈獎得主Geoffrey Hinton在五月表示,AI達到人類智力的時間表如今預計最早將在2028年實現,這一預期大大縮短了之前50至60年的預測。DeepMind聯合創始人Shane Legg也有相似的看法,認為到2028年實現人工通用智能(AGI)的機會達到50%。AGI標誌著AI能夠以人類水準或更高的能力執行任何智力任務,超越其目前的狹隘焦點。

這一迫切的可能性引發了關於AI倫理及未來監管的激烈辯論,討論也從學術界轉向國際政策領域。各國政府、行業領袖和大眾如今面臨著影響人類未來的關鍵問題。

雖然已經有實質的監管公告來應對這些關切,具體影響和有效性方面仍存在重大不確定性。

AI的生存風險

雖然對潛在AI變革程度的共識尚未形成,但對AI可能帶來的風險的討論已浮出水面。OpenAI的首席執行官Sam Altman在五月的國會聽證會上表達了擔憂,強調「如果這項技術走錯了,後果可能非常嚴重」,並強調政府合作以防止此類情況的必要性。

Altman的觀點與AI安全中心的立場相呼應,該中心在五月表示,應將減輕AI導致滅絕的風險作為全球優先事項,這一觀點在AI生存風險擔憂高漲之際得到了廣泛支持。

行業中的懷疑聲音

另一方面,一些行業領袖對極端的末日情景表示懷疑。前Google Brain負責人Andrew Ng批評認為AI可能導致人類滅絕的觀點,並指出這一說法是大型科技公司施加繁重監管以打壓競爭的藉口。Ng警告,這種監管攫取可能會對小型公司造成不公平的劣勢。

Meta的首席AI科學家Yann LeCun進一步批評,指責Altman以及其他科技領袖基於誇大的擔憂參與「大規模企業遊說」,這將導致有利於少數大型公司的監管,同時邊緣化開源項目。

監管之推進

儘管觀點不一,監管的氛圍仍在加速推進。今年七月,白宮宣布OpenAI、Anthropic、Alphabet、Meta和Microsoft等AI領導者承諾在公共工具發布之前開發安全測試協議。到九月,已有15家公司簽署了這項承諾。

在一個重要的步驟中,白宮最近發布了一項專注於「安全、可靠且值得信賴的人工智能」的行政命令,旨在平衡創新與監管。該命令要求聯邦機構遵循有關國家安全及醫療保健等各個領域的廣泛指令,並要求AI公司共享安全測試結果。

全球AI政策的倡議

值得注意的是,美國的AI治理是更廣泛國際對話的一部分。最近,七國集團(G7)提出11條非約束性AI原則,呼籲開發先進AI系統的組織遵守「安全、可靠且值得信賴的AI」的國際行為準則。

英國也舉辦了AI安全峰會,全球利益相關者聚集一堂,應對AI風險,特別是關於前沿AI系統的風險。此次活動的高潮是《布萊奇利宣言》,由來自28個國家的代表簽署,包括美國和中國,警告先進AI系統帶來的風險,並承諾負責任地發展AI。

儘管該宣言沒有設立具體的政策目標,但專家認為它為國際合作在這一緊迫的全球問題上奠定了良好的基礎。

創新與監管的平衡

隨著我們接近專家們預期的重要里程碑,AI發展周圍的風險顯然在增加。從美國到G7國家及其他地區,建立監管框架已成為首要任務。這些初步努力旨在減輕風險,並促進創新,但有效性和公平性問題仍需解決。

AI是一項關鍵的全球關注議題。未來幾年將是駕馭AI正面潛力(如醫療保健和氣候行動進步)的關鍵時期,同時確保道德標準和社會保障。在這一多面向的挑戰中,政府、企業、學術界及基層運動間的合作將對於塑造AI的未來至關重要,影響的不僅是科技行業,還有人類社會的整體發展軌跡。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles