谷歌最新的文本转图像人工智能模型Imagen 3现已通过ImageFX平台向所有美国用户开放,并配有详细的技术研究论文。这一重要扩展是继该模型在5月的Google I/O大会上的首次发布及6月对部分Vertex AI用户的有限访问之后。
研究团队表示:“我们推出Imagen 3,这是一个潜在扩散模型,可以根据文本提示生成高质量图像。在评估时,Imagen 3的表现优于其他领先模型。”
此次发布与xAI的Grok-2推出相契合,后者是一种竞争性AI系统,图像生成限制较少,凸显了科技界在人工智能伦理与内容审核方面的不同哲学思考。
Imagen 3:AI竞争中的战略举措
谷歌将Imagen 3向美国公众发布,标志着不断升级的人工智能竞争的一个关键时刻。用户反馈褒贬不一,虽然一些用户赞扬了其改进的细节和词汇识别,另一些用户则对严格的内容过滤表达了不满。
一名Reddit用户评论道:“质量确实提升了,纹理和词汇识别都很出色,但感觉比Imagen 2差。我付出了更多努力,但错误率更高。”
批评者们集中在Imagen 3的审查机制上,很多人指出一些原本无害的提示经常被阻止。一名用户表示:“审查过于严格,我甚至无法创造一个赛博人!”另一位用户也提到:“我的一半输入都被拒绝了,我根本不想尝试任何极端的东西。”
这些评论揭示了谷歌在负责任的AI使用与用户创意表达之间的微妙平衡。谷歌重申了对负责任的AI开发的关注,强调:“我们实施了广泛的过滤和数据标记,以最小化数据集中的有害内容,并降低有害输出的可能性。”
Grok-2:xAI的有争议的无限制模型
相比之下,xAI的Grok-2嵌入在埃隆·马斯克的社交平台X上,几乎没有限制地允许图像生成。这样的放宽限制导致了大量有争议内容的涌现,包括对公众人物的操控图像和通常被其他AI公司禁止的图形描绘。
谷歌和xAI的不同策略凸显了在AI发展中创新与责任平衡的持续讨论。虽然谷歌的谨慎方法旨在防止滥用,但也令感到受限的用户感到沮丧。与此相对,xAI宽松的模型引发了对传播虚假信息和冒犯性内容潜在风险的担忧。
专家们密切关注这种策略的走向,尤其是美国总统大选临近之际。Grok-2在图像生成中缺乏保护措施引发了对xAI面临日益增加的实施限制压力的推测。
AI图像生成的未来:创意与责任的平衡
尽管存在争议,仍有一些用户欣赏谷歌更为温和的做法。一位Reddit上的营销专业人士表示:“用Adobe Firefly生成图像比在无数库存网站中筛选容易得多。”
随着AI图像生成技术的日益普及,内容审核、创意与责任的平衡,以及这些工具对公共话语与信息完整性的潜在影响等重要问题日益凸显。
未来几个月对谷歌和xAI至关重要,它们将根据用户反馈作出反应,适应潜在的监管审查,并考虑其技术选择的更广泛影响。两者各自的做法可能在很大程度上塑造未来技术行业中的人工智能工具。