周末期间,我的社交媒体动态被截图、段子和标题刷屏,这些内容要么嘲讽要么批评谷歌所谓的“觉醒”Gemini AI模型。这一骚动源于谷歌承认在图像生成上“失误”了,产生了历史不准确和误导性的内容。在社交平台X(前身为Twitter)上,用户分享了Gemini的输出截图,其中一则荒谬的主张称:“无法确定是谁对社会的负面影响更大,是埃隆·马斯克发推特的段子,还是希特勒。”风险投资家马克·安德森则尤其乐于转发错误且冒犯性的内容,声称这些内容是“故意编程,包含了其创造者所厌恶的人员和思想清单”。
与去年12月Gemini发布时所引发的兴奋形成鲜明对比的是,此次的强烈反弹。当时,它被视为与GPT-4的竞争对手。去年《纽约时报》报道,谷歌在2022年11月ChatGPT发布后宣布进入“红色警戒”状态,这场生成AI热潮威胁到了这家科技巨头的市场地位。尽管谷歌参与了ChatGPT背后的技术开发,仍对保护品牌选择了谨慎。然而,如OpenAI等初创公司似乎更愿意承担快速增长的风险。谷歌CEO桑达尔·皮查伊报道称,对公司的AI战略进行了深度重塑,以应对ChatGPT的成功。
在快速创新与维持用户满意度之间的紧张关系,很可能是对Gemini反弹的原因之一。谷歌曾因担心出现如今面临的这种不当AI输出批评,而犹豫推出更先进的大型语言模型(LLMs)。
谷歌并不是第一次遇到LLM争议。2022年6月,工程师布雷克·莱莫因声称谷歌的聊天机器人LaMDA具有感知能力。莱莫因,曾在谷歌的负责任人工智能团队工作,测试LaMDA是否存在歧视性语言,最后泄露了与AI的互动记录,其中包括询问AI喜欢的代词。在那时,谷歌及其研究实验室DeepMind在LLM领域都表现得很谨慎。DeepMind计划私下Beta发布其Sparrow聊天机器人,但强调Sparrow“并不是不会犯错误”。
像OpenAI和Anthropic这样的初创公司并不面临谷歌那样的压力。正如《纽约时报》之前所述,谷歌在负责部署高级AI方面面临困难,内部讨论承认小公司运营的束缚较少。谷歌意识到,必须与行业互动,否则将面临被淘汰的风险。
如今,谷歌全力以赴致力于生成AI,但这一决心也带来了挑战。不同于OpenAI,无需面对股东的需求或依赖传统产品的大量用户基础,谷歌有着复杂的责任网络。
所有的LLM公司都在应对幻觉等问题;就在上周,ChatGPT产生了不连贯的回应,并发声明指出正在解决这一问题。尽管这些输出可能不会引发像Gemini那样的争议,但人们对谷歌的期待依然很高。作为AI领域的老牌玩家,谷歌面临的审视是其他小公司所无法比拟的。
在满足多元社会、文化和政治价值观方面,取得平衡几乎是不可能的。由于幻觉是当前AI技术的固有特性,谷歌正处于一个困难的境地:在努力负责任地进行创新的同时,必须面对批评者的需求。