谷歌于周五为其新推出的Gemini人工智能工具生成的误导性和可能冒犯的图像道歉。这一回应是在用户反映Gemini针对与历史人物(如纳粹士兵和美国开国元勋)相关的提示生成了历史不准确且种族多样的图像后作出的。
谷歌高级副总裁普拉巴卡尔·拉维甘在一篇博客中承认,某些生成的图像“不准确甚至令人不快”,并表示公司“未能达到期望”。
拉维甘阐明了谷歌的初衷是通过确保在开放式提示中实现人员的广泛代表性来消除偏见。然而,他强调,涉及特定历史背景的提示应当提供准确的表现。“例如,如果你请求一幅足球运动员或遛狗人的图像,多样化的表现是合适的;大家不希望看到只是单一种族的图像。”他解释道,“相反,如果你请求特定个体或群体在特定历史背景下的图像,响应必须准确反映你的要求。”
人工智能中的偏见与多样性挑战
这一事件凸显了AI系统中持续存在的偏见问题,这些系统可能无意间放大刻板印象。其他AI工具也因缺乏多样性或不当表现遭遇类似的批评。在追求包容性的过程中,谷歌似乎出现了过度矫正的情况,生成了一些历史不符的图像,比如19世纪的美国参议员被描绘为种族多样的人物,以及多种族的纳粹士兵,这引发了来自不同观点的批评和嘲弄,指责其过度政治正确。
针对这些担忧,谷歌已暂时暂停Gemini生成人物图像的能力,表示将在重新推出之前增强这一功能。
Gemini争议的深层含义
Gemini事件反映了谷歌在人工智能项目中的更广泛问题。自最近推出以来,谷歌不仅因图像争议而受到负面关注,还因一段夸大Gemini功能的宣传视频及对其AI模型Google Bard的早期批评而遭遇困扰。
随着微软和OpenAI等竞争对手逐步增强市场地位,谷歌正面临着在“Gemini时代”中确立自身愿景的挑战。快速推出AI产品和更名(从Bard到Gemini)的步伐让消费者感到困惑。
这些失误凸显了在历史准确性与多样性之间寻求平衡的困难,也暴露出谷歌战略中的潜在弱点。曾经引领搜索技术的谷歌,如今在提供连贯的AI解决方案上遇到了困难。
问题部分源于当前技术界“快速行动,打破常规”的理念。谷歌急于推出Gemini及其多个版本,以与ChatGPT等工具竞争,但这一仓促的做法只会削弱消费者的信任。为了重建信誉,谷歌需要一条经过深思熟虑的AI发展路线,而非更多花哨的产品发布。
此外,最近事件也引发了关于谷歌内部AI开发流程的质疑。先前的报告显示,谷歌在将伦理因素融入AI的努力上遇到了停滞。谷歌必须优先组成包容和多样的AI团队,由具有安全和责任感的领导来引导技术的应用,而不仅仅是急于求成。
如果谷歌未能从这些早期的失误中吸取教训,将面临进一步落后的风险。用户渴望的是清晰,而非困惑。Gemini事件表明,谷歌在其AI输出和信息传递方面失去了控制。回归基本原则可能是恢复公众对谷歌AI未来信心的关键。