一封於週二發布的公開信,由來自OpenAI、谷歌DeepMind和Anthropic的十多位現在和前任員工共同簽署,強調了在缺乏有效監管框架的情況下,快速發展的人工智慧(AI)技術所帶來的「嚴重風險」。研究者警告,未受監管的AI可能加劇現有的不平等,操縱信息,傳播虛假資訊,甚至可能導致失控的自主AI系統,對人類產生可怕影響。
簽署者主張,透過科學界、立法者和公眾的合作,這些風險是「可以有效減輕的」。然而,他們擔憂「AI公司強烈的財務動機會使其避開有效的監管」,並無法信任他們負責任地發展強大技術。
自2022年11月ChatGPT推出以來,生成式AI迅速改變了科技領域,主要的雲服務提供商如谷歌雲、亞馬遜AWS、甲骨文和微軟Azure正在引領這一預計到2032年將達萬億美元市場的變革。最近的麥肯錫研究顯示,截至2024年3月,幾乎75%的調查組織已將AI整合進其運營中。此外,微軟年度工作指數調查發現,四分之三的辦公室工作者已在其工作中使用AI工具。
然而,正如前OpenAI員工Daniel Kokotajlo在與《華盛頓郵報》的對話中指出的,某些公司採取了「快而破壞」的心態,這對於既強大又不易理解的技術來說是極不合適的。像OpenAI和Stable Diffusion等AI創業公司在美國版權法中面臨挑戰,而各種公共聊天機器人則被操縱生成仇恨言論、陰謀理論和虛假資訊。
這些有擔憂的AI員工認為,這些公司擁有關於其產品功能和限制的「大量非公開信息」,包括潛在風險和安全措施的有效性。他們強調,只有一小部分這些信息可以通過「薄弱的分享義務」向政府機構公開,普通公眾則大多處於無知之中。
「在缺乏政府對這些公司的監督下,現有和前任員工是為公眾追究責任的少數途徑之一,」該團體表示。他們批評科技行業對保密協議的依賴,以及現有吹哨人保護措施的執行不足。該信呼籲AI公司取消禁止貶低協議,建立匿名舉報流程以便員工的擔憂能被公司領導和監管機構處理,並確保公開吹哨人如果內部渠道失效不受報復。