先週、OpenAIはGPTストアをオープンし、サードパーティのクリエイターがカスタムチャットボット(GPT)を展示し、収益化できるようにしました。しかし、同社の革新は2024年1月に入っても止まりませんでした。
月曜日、OpenAIはAIツールに関する新しい安全対策をまとめたブログ記事を発表しました。特に、画像生成モデルDALL-EとChatGPTにおける引用の実践に焦点を当てています。この取り組みは、今年後半に予定されている多数の選挙を前に、誤情報対策を目指しています。ブログでは「選挙の完全性を守るためには、民主的プロセスのあらゆる側面からの協力が必要であり、私たちの技術がこのプロセスを損なう形で使用されないように努めたい」と述べています。
現在の安全対策の一環として、「報告」機能が提供されており、ユーザーはカスタムGPTに関する潜在的な違反を通報できます。特に、実在の個人や組織を模倣するケースは、OpenAIの利用ポリシーに違反します。
期待される新しい対策
OpenAIのブログによると、ユーザーは近日中にリアルタイムのニュース報道をアクセスできるようになり、出典やリンクも表示されるため、ChatGPTを通じて得られる情報の信頼性が高まります。この機能はAP通信やAxel Springerなど、信頼の置けるメディアとの提携に基づいています。
特筆すべきは、OpenAIがコンテンツの由来と信憑性を保証するため、C2PA(Coalition for Content Provenance and Authenticity)による画像のクレデンシャルを導入する予定であることです。この取り組みは、AI生成コンテンツに対して暗号化されたデジタル透かしを適用し、今後もその検出性を確保することを目指しています。OpenAIは、DALL-E 3画像にC2PAクレデンシャルを統合する計画を持っていますが、具体的な日付はまだ発表されていません。
さらに、OpenAIはDALL-Eによって生成された画像を特定するための「由来分類器」をプレビューしました。このツールは2023年秋のDALL-E 3の発表時に初めて言及され、ユーザーが画像をアップロードしてそのAI起源を確認できるようにします。「私たちの内部テストでは、一般的な修正を施した画像でも良好な結果が得られました」とブログに記されています。「近日中に報道関係者やプラットフォーム、研究者を含む最初のテスターグループに展開し、フィードバックを得る予定です。」
政治キャンペーンにおけるAIの役割
米国の共和党全国委員会(RNC)などの政治団体がメッセージングにAIを活用する中で、特に対立候補を模倣する技術が進化していますが、OpenAIの言及した安全対策が予想されるデジタル誤情報の波を抑えるためにどれほど効果的であるかは不透明です。それでも、OpenAIは自社のツールの誤用に対する懸念がある中で、真実と正確性の支持者としての立ち位置を明確にしています。