在本周与科技和人工智能社区的互动中,我们深入了解了谷歌最新的AI聊天机器人Gemini的能力与不足。许多科技专业人士、影响者和作家在社交媒体上分享了与Gemini的交互截图,揭示了其在图像生成方面的一些奇异、不准确及缺乏历史真实性的例子。批评者认为,这些输出往往夸大了多样性与“觉醒”理念。
文章发布前,谷歌产品高级总监杰克·克劳齐克在社交媒体上回应,承认公司已注意到Gemini在历史图像生成方面存在不准确之处,并正在积极着手解决这些问题。他表示:“我们意识到Gemini在某些历史图像生成中的确存在不准确情况,我们正在立即修正。作为我们的AI原则的一部分,我们设计图像生成能力时,将全球用户基础的多样性和代表性作为重要考虑。我们会继续在开放式提示中做到这一点,历史语境需要更多细致入微的处理,我们会相应地改进系统。感谢您的反馈,请继续提供意见!”
Gemini于去年发布时备受期待,定位为一款领先的AI模型,有潜力与如今主导大部分第三方基准的OpenAI GPT-4竞争。然而,独立评估显示,Gemini的表现不及OpenAI的旧版模型GPT-3.5,促使谷歌今年早些时候发布先进版本Gemini Advanced和Gemini 1.5,并逐步淘汰之前的Bard聊天机器人。
尽管进行了更新,Gemini因不愿生成历史图像而受到批评。例如,它在描绘1930年代的德国士兵时存在问题,并且在以不符合历史真实性的背景下描绘美洲土著和黑肤人时也显得可疑。AI在描绘早期欧洲文化时,似乎错误地强调了多样性。
用户对Gemini的“觉醒”倾向表示担忧,这一术语从表示对美国种族不平等的认知演变为一种贬义,批评那些看似过于政治正确的组织。有趣的是,一些用户注意到Gemini输出结果存在实时调整,表明谷歌正在积极优化其图像生成能力。谷歌发言人重申了克劳齐克对改进的承诺,承认需要更准确的描绘,同时强调多样性的重要性。
Meta的AI负责人扬·勒昆提出令人担忧的案例,表示Gemini拒绝生成1989年天安门广场抗议的图像。他认为,这种省略突显了开源AI的必要性,以便加强对输出内容的广泛控制。
针对Gemini图像输出的审查引发了关于AI如何处理敏感话题(包括多样性、历史不公和压迫)的大辩论。谷歌以往也经历过类似争议,例如2015年谷歌照片事件和算法对深肤色者的偏见。此外,2017年因为批评谷歌多样性做法而被解雇的员工詹姆斯·达莫尔的事件,更显示了科技公司在这些讨论中面临的挑战。
其他公司同样为AI的影响而困扰。例如,微软的AI聊天机器人Tay因产生有害和种族主义的输出而被迫关闭。谷歌在努力避免过去错误的同时,其对Gemini的限制性做法因扭曲历史以迎合现代观感而遭到谴责,这让人联想到乔治·奥威尔的《1984》,其中专制政权压制真相。
对OpenAI的ChatGPT的批评同样如出一辙,用户试图“越狱”系统以获得受限信息,反映了自由表达的愿望与遏制有害内容之间的持续紧张关系。AI开发者面临着微妙的平衡,既需满足可接受内容的需求,又不得罪感觉限制导致历史不准确的用户。这种张力推动人们呼吁开发开源模型,以允许个体自由,同时也引发了对未经限制的内容可能带来的风险的担忧。
生成性AI的兴起更加激烈了自由表达与防止社会伤害行为之间的辩论。随着技术的不断进步,这些影响所引发的分歧很可能会继续成为引发争议的焦点。