近年來,人工智慧(AI)技術的迅速發展導致 AI 生成內容的激增,包括超現實的圖像、視頻和文本。然而,這一浪潮也引發了對於虛假資訊和欺騙的重大擔憂,並使我們難以區分現實與虛構。
人們對於被合成內容淹沒的憂慮是有其根據的。自 2022 年以來,AI 用戶共同創造了超過 150 億張圖像。為了讓人理解,這一驚人的數字是人類在 2022 年之前花了 150 年才產生出的成果。
大量的 AI 生成內容為我們帶來了挑戰,這些挑戰我們才剛開始理解。歷史學家可能需要把 2023 年之後的網際網路視為與以往根本不同的景象,正如原子彈的發展對放射性碳年代測定領域的影響一般。谷歌圖像搜索結果中,AI 生成的結果不斷增加,而以色列/加薩衝突中的 alleged war crimes 事件也被錯誤地識別為 AI 生成的作品。
AI 內容中的嵌入簽名
深度偽造技術利用機器學習算法生成模仿人類表情和聲音的偽造內容。最近 OpenAI 推出的文本轉視頻模型 Sora,強調了虛擬現實如何迅速變得與物理現實難以區分。鑒於日益增長的擔憂,科技巨頭們正在採取措施減少 AI 生成內容的潛在濫用。
Meta 在二月推出的計劃,為其在 Facebook、Instagram 和 Threads 等平台上創建的 AI 圖像加上標識,包括可見標記、不可見水印和詳細的元數據,以顯示其人造來源。隨後,谷歌和 OpenAI 也宣布了類似措施,將「簽名」嵌入 AI 生成的內容中。
這些倡議得到了內容來源與真實性聯盟(C2PA)的支持,旨在追蹤數位檔案的來源,區分真實和修改過的內容。儘管這些努力旨在促進內容創建的透明度和責任感,但問題依然存在:這些措施是否足以防範不斷演變的技術的潛在濫用?
誰來判定什麼是真實?
在檢測工具的實施中出現了一個關鍵問題:這些工具能否在不被利用的情況下普遍有效?由此產生的緊迫問題是:誰擁有定義現實的權威?理解這一點對於我們真正在 AI 生成內容的潛力上取得進展至關重要。
2023 年的 Edelman 信任晴雨表顯示,公眾對機構管理技術創新存在顯著懷疑。報告指出,全球民眾認為創新管理不善的可能性是良好管理的近兩倍(39% 對 22%)。許多人對技術變革的速度及其對社會的影響表達了擔憂。
這一懷疑隨著應對措施的改進而加劇,因為針對的挑戰也在不斷演變。如果我們希望水印措施有效,重建公眾對技術創新的信任至關重要。
如我們所見,取得這種信任並非易事。例如,Google Gemini 因影像生成的偏見受到批評,使得公司陷入尷尬。隨之而來的道歉突顯了此類事件對公眾認知的持久影響。
技術透明度的必要性
近期,一段有關 OpenAI 首席技術官 Mira Murati 的視頻在網上引發熱議,因為她未能具體說明用於訓練 Sora 的數據。鑒於數據質量的重要性,作為首席技術官卻無法提供訓練數據的清晰信息,令人擔憂。她對後續問題的拒絕回答進一步引發警報,顯示出科技行業必須優先考慮透明度。
展望未來,制定透明度和一致性的標準至關重要。對公眾進行 AI 工具的教育、清晰的標籤實踐及對缺陷的問責,都是促進可信環境的重要組成部分。同樣,妥善溝通出現的問題也至關重要。
若未採取這些措施,水印可能僅是表面解決方案,無法應對資訊錯誤及人們對人工內容信任度下降的根本挑戰。隨著當前事件的發展,深度假冒的選舉干涉已成為生成 AI 世界中的一個重大問題。在全球大量人群即將投票的情況下,解決這一問題對於內容真實性的未來至關重要。