テイラー・スウィフトの性的に明示的なディープフェイクがX(旧Twitter)でバイラルになった際、数百万人のファンが「#ProtectTaylorSwift」というハッシュタグの下に集まりました。彼らの努力により不快なコンテンツはある程度抑えられましたが、この事件は広範なメディアの注目を集め、ディープフェイク技術の危険性についての重要な議論を引き起こしました。ホワイトハウスの報道官、カリン・ジャン=ピエール氏は、有害なAI生成コンテンツから個人を守るための立法措置を求める発言をしました。
スウィフトの事件は衝撃的でしたが、これは孤立したケースではありません。近年、著名人やインフルエンサーがディープフェイクの犠牲になりつつあり、AI技術が進化するにつれて、 reputational harm の可能性は増大する一方です。
AIエージェントとディープフェイクの台頭
「自分の短いビデオを使って、スクリプトに基づいた対話を含む新しいクリップを作成できます。これは楽しいかもしれませんが、誰でも誤解を招くコンテンツを生成できることを意味し、 reputational damage のリスクがあります」と、写真やビデオの検証ツールを専門とするAttestiv社のCEO、ニコス・ヴェキアリデス氏は説明しています。
ディープフェイクを生成するためのAIツールがより身近で洗練される中、オンラインの風景には誤解を招く画像やビデオが溢れています。個人が現実と操作されたコンテンツを見分ける方法についての重要な疑問が浮かび上がります。
ディープフェイクの影響を理解する
ディープフェイクとは、ディープラーニング技術を用いて作成されたリアルな人工画像、動画、音声のことです。このような操作は数年前から存在していましたが、2017年末に「deepfake」というRedditユーザーがAI生成のポルノコンテンツを共有したことで悪名高くなりました。最初は複雑な技術に依存して顔を交換していましたが、最近の技術進展により、この能力が広まり、DALL-E、Midjourney、Adobe Firefly、Stable Diffusionなどのプラットフォームを使って、誰でも公人の説得力のある操作が可能になりました。
生成AIの台頭により、悪意のあるユーザーが技術の小さな隙間を悪用するという傾向が見られます。例えば、独立系のテクノロジー情報サイト404メディアは、テイラー・スウィフトのディープフェイクがMicrosoftのAIツールの安全装置を回避して作成されたことを発見しました。同様の技術は、フランシスコ法皇やバイデン大統領のような政治家の音声を模倣した誤解を招く画像を作成するためにも使われています。
簡単なアクセスの危険性
ディープフェイク技術のアクセスの容易さは重大なリスクをもたらし、公人の名声を損なったり、有権者を誤導したり、財務詐欺を助長する可能性があります。マカフィーのCTO、スティーブ・グローマン氏は、詐欺師が本物の映像と偽の音声を組み合わせ、スウィフトのような有名人のクローン likeness を使用して視聴者を欺くという驚くべき傾向を指摘しています。
Sumsubのアイデンティティ詐欺レポートによれば、2023年には世界中で検出されたディープフェイクの数が10倍に増加し、暗号セクターが88%で最も多く苦しんでおり、フィンテックが8%と続いています。
公共の懸念が高まる
ディープフェイクに対する公衆の不安は現実味を増しています。マカフィーの2023年の調査によれば、84%のアメリカ人が2024年のディープフェイク技術の悪用を心配しており、1/3以上がディープフェイク詐欺に関連する個人的な経験を報告しています。
AI技術が進化し続ける中で、実際のコンテンツと操作されたメディアを区別することがますます難しくなっています。SumsubのAIおよびML部門の責任者、パベル・ゴールドマン=カライディン氏は、当初は有益と見なされていた技術的進歩が、情報の信頼性や個人の安全に対する脅威をもたらしていると警告しています。
ディープフェイクの検出
政府や組織がディープフェイクの拡散に対抗しようとする中、真偽を見分ける能力は不可欠です。専門家は、ディープフェイクを検出するための2つの主要な方法を提案しています:コンテンツ内の微妙な不一致を分析することと、ソースの信頼性を確認することです。
現時点で、AI生成の画像は驚くほどリアルであり、AI生成の動画も急速に改善されています。しかし、不自然な手の動き、歪んだ背景、悪い照明、デジタルアーティファクトなどの不一致がしばしば人工的であることを示します。ヴェキアリデス氏は、影の欠如やあまりにも対称的な顔の特徴など、操作の可能性を示す詳細に注目する重要性を強調しています。
これらの検出方法は、技術の進展に伴いますます難しくなるかもしれません。そのため、疑わしいメディアに関与する際には警戒心を持つことが必要です。ルイフ氏は、コンテンツの意図を評価し、ソースの潜在的な偏見を考慮すべきだと助言しています。
確認作業を支援するため、テクノロジー企業は高度な検出ソリューションの開発に取り組んでいます。Google、エレブンラボ、マカフィーは、AI生成コンテンツを特定する方法を模索しており、マカフィーは悪意のある音声を検出する際の90%の精度を報告しています。
ますます誤解を招くメディアが溢れる中、ディープフェイクの影響とリスクを理解することは重要です。情報を保ち、懐疑的でいることが、公衆がこの難しいデジタル環境を乗り越えるための力となります。