Google 最新的文本轉圖像 AI 模型 Imagen 3 現已透過 ImageFX 平台向所有美國用戶開放。此次發布伴隨著一篇詳細的技術研究論文。這一重大擴張緊隨模型在 Google I/O 的初次宣布及其於六月對部分 Vertex AI 用戶的有限訪問之後。
研究團隊表示:「我們推出了 Imagen 3,這是一種潛在擴散模型,可以從文本提示生成高質量的圖像。根據評估,Imagen 3 的表現超過了當前其他主要模型。」
此次發布正值 xAI 推出 Grok-2 之際,該系統影響較少,圖像生成限制較少,突顯了技術領域在 AI 道德和內容管理方面的對立理念。
Imagen 3:AI 技術競賽中的戰略舉措
Google 將 Imagen 3 推向美國公眾,標誌著 AI 競賽中的一個關鍵時刻。用戶反饋各異,一些人讚賞其增強的質感和文字識別能力,而另一些則對嚴格的內容過濾表達了失望。
一位 Reddit 用戶評論道:「質量有顯著提升,質感和文字識別令人驚豔,但比 Imagen 2 感覺更差。我需要付出更多努力,而錯誤率卻更高。」
批評聲音集中在 Imagen 3 的審查制度上,許多人指出普通的提示經常被封鎖。一位 Reddit 用戶表示:「過於審查;我甚至無法生成一個機械人!」另一位用戶則說:「[它] 擋了我一半的輸入,我甚至不想做任何過於荒唐的事情。」
這些評論顯示出 Google 在負責任的 AI 使用與用戶創意表達之間的微妙平衡。Google 重申其對負責任 AI 開發的專注,強調:「我們實施了廣泛的過濾和數據標籤,以減少數據集中的有害內容,並降低有害輸出的可能性。」
Grok-2:xAI 的有爭議的無限制模型
與此形成鮮明對比的是,xAI 的 Grok-2 整合於 Elon Musk 的社交平台 X,幾乎沒有限制地生成圖像。這種缺乏限制導致了爭議內容的激增,包括對公共人物的操控影像和通常被其他 AI 公司禁止的暴露畫面。
Google 和 xAI 的不同方法凸顯了在 AI 開發過程中平衡創新與責任的持續辯論。雖然 Google 的謹慎方法旨在防止誤用,但讓感到受限的用戶感到沮喪。相反,xAI 的寬鬆模型則引發了對虛假信息和冒犯性內容蔓延的擔憂。
專家們密切關注這些策略將如何發展,尤其是在美國總統選舉臨近之際。Grok-2 在圖像生成中缺乏保護措施,引發人們對 xAI 可能面臨越來越大壓力以實施限制的猜測。
未來的 AI 圖像生成:創意與責任之間的平衡
儘管存在爭議,部分用戶仍欣賞 Google 更為溫和的做法。一位 Reddit 上的行銷專業人士分享道:「用 Adobe Firefly 生成圖像比瀏覽無數股片網站頁面輕鬆得多。」
隨著 AI 圖像生成技術日益普及,關於內容管理、創意與責任的平衡,以及這些工具對公共話語和信息完整性的潛在影響等重要問題逐漸浮現。未來幾個月將對 Google 和 xAI 至關重要,因為他們需要對用戶反饋做出響應,應對可能的監管審查,並考慮其技術選擇的更廣泛意義。他們各自的方法結果可能會在技術行業中深刻影響 AI 工具的未來。