在过去十天围绕OpenAI发生的戏剧性事件之后——首席执行官山姆·奧特曼被解雇,首席技术官米拉·穆拉提暂时担任首席执行官,总裁格雷格·布罗克曼辞职,几乎所有OpenAI员工威胁辞职,最终奥特曼在感恩节前夕被重新任命——我原以为假期周末将为硅谷提供一个远离人工智能喧嚣、好好放松的机会。
然而,事实并非如此。感恩节早晨,路透社报道,在奥特曼暂时被解职之前,几位OpenAI研究人员已向董事会发出信件,警告称发现了一种“强大人工智能”的可能性,声称此发现可能对人类构成威胁。这个消息在家人聚集享用感恩节大餐之际迅速传播。该项目名为Q,预计有潜力推动人工智能的通用智力(AGI)发展,OpenAI定义AGI为在大多数经济价值任务中超越人类的自治系统。路透社指出,这一新模型能够解决某些数学问题,尽管其能力处于小学水平,研究人员对Q未来的前景表示乐观。
OpenAI董事会动荡和关于Q的讨论无缝对接,让我再度思考持续存在的人工智能炒作周期。我并不主张在人工智能发展上长期停滞,但能够暂时远离这些喧嚣,即使只是一日,也是令人耳目一新的。围绕Q的兴奋似乎源于Nvidia高级AI科学家吉姆·范所称的“幻想”算法,他对此进行了批评,认为缺乏实质性支持——没有发表的论文,没有统计数据,也没有切实的产品。
尽管对最新消息的知识吸引力和媒体竞争激烈,但这一不断更新的新闻流可能也源于更深处的焦虑,尤其是对未来的不确定性。威斯康星大学的研究表明,对潜在威胁的未知使我们逃避威胁的能力受到干扰,从而加剧焦虑。我们的脑海是“预期机器”,利用过往经验预测未来并改善结果。当我们的预见因不确定性而模糊时,准备能力减弱,焦虑感增强。
这一现象不仅适用于公众,也同样影响顶尖AI研究者和领导者。即使是杰弗里·辛顿、扬·勒库恩和安德鲁·吴等巨头也在与对人工智能未来的种种不确定性作斗争。他们在社交媒体上的辩论虽激情四溢,却对如何应对我们对未来的焦虑没有太大帮助。
围绕OpenAI和Q的热烈分析反映了人们对人工智能不确定发展轨迹的集体焦虑。如果我们继续在信息和安慰的追逐中不止步,我们可能会忽视一个关于人工智能的基本真理:它的未来本质上是不确定的。
这并不意味着对人工智能发展的讨论和规划应该停滞,但或许我们可以暂时搁置这些争论,来享受假期季节。距离圣诞节仅剩四周,也许所有利益相关者——有效利他主义者、科技乐观者、行业领袖和学术研究者——都可以同意暂时远离人工智能的炒作,来享用一些蛋酒和饼干。我们对人工智能未来的共同焦虑和炒作在新年后依然会在等着我们。这一点,我敢保证。