當泰勒·斯威夫特的色情深偽影片在X(前身為Twitter)上瘋傳時,數百萬粉絲響應標籤#ProtectTaylorSwift,表達支持。儘管粉絲的努力使冒犯性內容被淹沒,但這一事件仍引發了廣泛的媒體關注,並啟發了一場關於深偽技術風險的重要討論。白宮新聞秘書卡琳·尚-皮埃爾甚至呼籲立法措施,以保護個人免受有害的AI生成內容影響。
儘管斯威夫特事件令人震驚,但這並非孤立事件。近年來,名人和網紅越來越多地成為深偽技術的受害者,隨著AI技術的進步,名聲受損的可能性也在不斷增加。
AI代理與深偽的興起
Attestiv公司首席執行官尼科斯·維基亞里德斯解釋道:「只需一段簡短的視頻,你就能創建一個基於腳本的對話新片段。雖然這可以帶來娛樂,但這也意味著任何人都可以生成誤導性內容,並可能造成名譽損害。」
隨著深偽內容創建AI工具的可及性和先進性提升,網絡環境裡充斥著誤導性的圖像和視頻。這引發了重要問題:個人如何辨別現實與操控?
了解深偽的含義
深偽是使用深度學習技術創造的逼真人工圖像、視頻或音頻。儘管這些操控技術已存在數年,但在2017年底,一位名為「deepfake」的Reddit用戶開始分享AI生成的色情內容,讓深偽一舉成名。最初依賴複雜技術進行人臉替換,但最近的進展使這一能力大眾化,幾乎任何人都能通過DALL-E、Midjourney、Adobe Firefly和Stable Diffusion等平台創建公眾人物的可信操控。
生成AI的興起使壞人能利用技術的微小漏洞;例如,獨立科技媒體404 Media發現,泰勒·斯威夫特的深偽影片是透過繞過微軟AI工具的安全防護製作的。類似的技術也被用來創造誤導性的教宗方濟各圖像,以及模仿政治人物如拜登總統的音頻。
容易獲取的危險
深偽技術的可及性帶來嚴重風險,可能損害公眾人物的名譽、誤導選民並促進金融詐騙。McAfee首席技術官史蒂夫·格羅曼指出,詐騙者正將真實視頻與虛假音頻結合,利用泰勒·斯威夫特等名人的複製形象來欺騙觀眾。
根據Sumsub的身份詐騙報告,2023年全球檢測到的深偽數量激增十倍,加密領域受到的事件達到88%,金融科技(FinTech)則為8%。
公眾關注日益上升
公眾對深偽的擔憂日益明顯。McAfee在2023年的調查顯示,84%的美國人擔心2024年深偽技術的濫用,超過三分之一的人報告了與深偽詐騙有關的個人經歷。
隨著AI技術的持續成熟,分辨真實內容與操控媒體之間變得愈加困難。Sumsub AI與機器學習負責人帕維爾·高爾曼-卡拉伊丁警告,最初被視為有益的技術進步,現在卻對信息的完整性和個人安全構成威脅。
檢測深偽
隨著政府和組織努力對抗深偽的氾濫,區分真實內容與虛假信息的能力變得至關重要。專家提出了檢測深偽的兩種主要方法:分析內容中的細微差異和驗證來源的真實性。
目前,AI生成的圖像可以驚人地真實化,而AI生成的視頻也在迅速改善。然而,不一致之處常常揭示其人工性質,例如不自然的手部動作、扭曲的背景、光線不足及數位瑕疵。維基亞里德斯強調,仔細檢查缺失的陰影或過於對稱的面部特徵等細節,可能是操控的潛在指標。
隨著技術的進步,這些檢測方法可能會變得更加困難,因此在接觸可疑媒體時需要保持警惕。Rouif建議用戶評估內容背後的意圖,並考慮來源的潛在偏見。
為了協助驗證工作,科技公司正在開發先進的檢測解決方案。Google、ElevenLabs和McAfee正探索識別AI生成內容的方法,其中McAfee報告其檢測惡意音頻的準確率達90%。
在這個充滿誤導媒體的環境中,了解深偽的含義和風險至關重要。保持信息敏銳和懷疑的態度,能幫助公眾在這個充滿挑戰的數字環境中導航。