抗议者在OpenAI办公室外集会,反对军事用途的人工智能与AGI发展

周一晚上,数十名抗议者聚集在旧金山的OpenAI总部,表达了他们对公司开发人工智能(AI)的担忧。抗议活动在员工下班时举行,由Pause AI和No AGI组织,呼吁OpenAI的工程师停止研发先进的AI系统,包括聊天机器人ChatGPT。他们发出的明确信息是:停止追求可能超越人类能力的人工通用智能(AGI),并避免与军事的关联。

此次抗议部分源于OpenAI最近决定更改其使用政策,取消了禁止将其AI技术用于军事用途的条款。政策变动后不久,有报道称OpenAI已与五角大楼达成合作。活动描述指出:“我们要求OpenAI结束与五角大楼的关系,拒绝所有军事客户。如果伦理界限可以为了便利而改变,那就无法信任。”

媒体与抗议组织者进行交流,了解他们的目标和成功定义。No AGI的负责人Sam Kirchener表示:“No AGI的使命是提高人们对开发AGI潜在危险的认识。我们应该专注于人脑全面模拟等倡议,优先考虑人类思维在智能中的重要性。”

Pause AI的首席组织者Holly Elmore则表达了她所在团队的愿望:“我们希望全球范围内暂停AGI的发展,直至认为其安全为止。”她强调:“结束与军方的关系是一个关键界限。”

此次抗议反映了公众对AI伦理影响日益增长的关注。OpenAI与五角大楼的合作引发了关于AI军事化及其潜在影响的讨论。抗议者们担忧AGI——机器以空前的速度和规模执行人类智力任务的能力。他们的担忧不仅限于工作岗位流失和战争自主权,还反映出对社会权力动态和决策能力变化的焦虑。

Kirchener警告说:“如果我们成功构建AGI,我们将面临心理威胁,生活中缺乏基本意义,因为AGI会处理一切。人们将不再在工作中找到意义,而这对我们目前的社会至关重要。”

Elmore补充道:“自我监管不足,必须有外部监督。OpenAI经常推翻其承诺——Sam Altman在六月声称董事会可以解雇他,但到十一月时,他却无法被解雇。他们的使用政策与军事合同中也出现类似不一致,如果允许不受限制的行为,这些政策显得无效。”

虽然Pause AI和No AGI都旨在停止AGI的发展,但其方法存在差异。Pause AI对安全的AGI发展持开放态度,而No AGI则坚决反对,认为这可能带来心理威胁和个人意义的丧失。

两个团队表示,这次抗议并不是最后一次,其他关心AI风险的人士可以通过他们的网站和社交媒体参与。眼下,硅谷仍在快速迈向一个不确定的AI未来。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles