ホワイトハウスのAI関連の画像虐待防止に関する声明
本日、ホワイトハウスは、画像ベースの性的虐待の創出および配布を減らすための主要なAI企業からのコミットメントを発表しました。参加企業には、Adobe、Anthropic、Cohere、Common Crawl、Microsoft、OpenAIなどが含まれています。これらの企業は、プラットフォームが成人の非合意の親密な画像(NCII)を生成することを防ぎ、児童性的虐待資料(CSAM)と闘うための戦略を示しました。
これらの企業は以下を誓約しました:
- 「データセットを責任を持って調達し、画像ベースの性的虐待から保護する。」
さらに、Common Crawlを除く他の企業は次のことを行います:
- 「AIモデルが画像ベースの性的虐待を生み出さないよう、フィードバックループと反復的ストレステストを開発プロセスに組み込む。」
- 「適切な場合には、AIトレーニングデータセットからヌード画像を削除する。」
このコミットメントは自主的なものであり、新たな法的要件や違反に対する罰則を課すものではありませんが、重要な問題に対処するための前向きな一歩を示しています。
ホワイトハウスの発表には、Apple、Amazon、Google、Metaなどの大手テクノロジー企業が含まれていない点にも注目が必要です。しかし、多くのテクノロジーおよびAI企業は、NCIIの被害者を支援するための取り組みを独自に強化し、ディープフェイク画像や動画の拡散を抑制することを目指しています。StopNCIIのような取り組みは、複数の企業と協力して有害なコンテンツを排除するための統一アプローチを進めており、多くの企業が自社のプラットフォームでAI生成の画像ベースの性的虐待を報告するための独自のツールを開発しています。
もしあなたが非合意の親密画像の共有の被害者だと思われる場合、こちらからStopNCIIに申し立てを行うことができます。18歳未満の場合は、こちらからNCMECに報告できます。