周一晚上,數十名抗議者聚集在位於舊金山的OpenAI總部門外,表達對該公司人工智慧(AI)發展的擔憂,當時員工們正準備下班。
此次示威由Pause AI和No AGI組織,呼籲OpenAI工程師停止在進階AI系統(包括聊天機器人ChatGPT)方面的工作。他們的訊息十分明確:停止追求可能超越人類能力的人工通用智慧(AGI),並避免與軍方相關的聯繫。
抗議活動部分源於OpenAI最近決定刪除使用政策中禁止軍事用途的條款。政策調整後不久,就有報導指出OpenAI已經成為五角大樓的客戶。
“我們要求OpenAI終止與五角大樓的關係,拒絕所有軍事客戶,”活動說明中指出。“如果倫理界限可以因便利而改變,那麼這樣的承諾便無法信任。”
媒體與抗議組織者進行了交流,以了解他們的目標和成功的定義。
“No AGI的使命是提高人們對AGI發展危險的認識,”No AGI負責人Sam Kirchener表示。“我們應該專注於像全腦模擬這樣的倡議,優先考慮人類思維的智慧。”
Pause AI的首席組織者Holly Elmore表達了她們希望“全球無限期暫停AGI發展,直到被認為安全”的願望。她強調,“切斷軍事關係是一項至關重要的界限。”
此次抗議活動反映出越來越多的公眾對AI倫理影響的關注。OpenAI與五角大樓的合作引發了關於AI軍事化及其潛在影響的討論。
抗議者的擔憂集中在AGI上,即機器在前所未有的速度和規模上執行人類智力任務的能力。他們的關切超越了工作流失和武裝自主;這反映出對權力動態和社會決策變化的焦慮。
“如果我們成功建造AGI,就可能因為所謂的心理威脅而失去生活中的重要意義,因為AGI將處理一切,”Kirchener警告道。“人們將不再在工作中找到意義,這對我們當前社會至關重要。”
Elmore補充道,“自我監管不夠,必須有外部監督。OpenAI經常撤回其承諾——Sam Altman在六月聲稱董事會可以解雇他,但到了十一月,他卻無法被解除職務。類似的不一致也存在於他們的使用政策和軍事合同上——如果這些政策允許不受限制的行為,那麼它們似乎就無法奏效。”
雖然Pause AI和No AGI都希望停止AGI的發展,但他們的方法有所不同。Pause AI對安全的AGI發展持開放態度,而No AGI則堅決反對,理由是可能的心理威脅和個人意義的喪失。
這兩個團體表示,此次抗議不會是他們的最後一次,關心AI風險的其他人可以通過他們的網站和社交媒體參與。目前,矽谷仍在迅速朝著一個不確定的AI未來前進。