最近、23名のAI研究者、学者、クリエイターによる論文が発表され、「安全港」としての法的および技術的保護を確立することが、AI製品の独立した評価を促進する上で重要であると主張しています。この保護は、これらの技術に関する「誠意ある」調査を行う研究者、ジャーナリスト、アーティストにとって必要です。
この論文は、OpenAI、Google、Anthropic、Inflection、Meta、Midjourneyなどの主要AIプロバイダーの利用規約が、AIの脆弱性に関する研究を法的に制約する重要な障壁であることを強調しています。著者たちは、これらの企業がアカウント停止や法的な影響に対する補償を提供することで、公共の利益に資するAI研究を支援するよう求めています。
「これらの規約は悪用を抑制するために意図されていますが、AI安全研究を無意識のうちに妨げています」と、関連するブログ投稿は記しています。企業がこれらのポリシーを厳格に適用することで、重要な研究が妨げられる可能性があります。
共著者であるMITメディアラボのシャイン・ロンプレとプリンストン大学のサヤシュ・カプールは、最近のニューヨーク・タイムズの訴訟に関連して、この問題の重要性を強調しました。OpenAIは、タイムズのChatGPTに対する評価を「ハッキング」と呼びましたが、タイムズの主弁護士は、OpenAIの解釈が正当な調査を悪意のある活動として誤解釈していると反論しました。
ロンプレは、ソーシャルメディアを調査するジャーナリストを保護することを目的としたナイト第一修正研究所の以前の活動について言及しました。「私たちはAI研究のための安全港を提案する際に、そのイニシアティブから学ぶことを目指しました」と彼は説明しました。「AIに関しては、使用と関連する危害についての明確さが欠けているため、研究へのアクセスが重要です。」
論文は、「AI評価とレッドチーミングのための安全港」と題し、OpenAI、Anthropic、Inflection、Midjourneyといった企業での公共の利益に関する研究中にアカウントが停止される事例を指摘しています。特にMidjourneyは頻繁にアカウント停止が行われています。共著者でアーティストのリード・サウゼンは、Midjourneyの出力における著作権侵害の可能性を調査した結果、複数回の禁止を受け、高度な著作権侵害がユーザーの意図なしに発生することを明らかにしました。
「Midjourneyに3回禁止され、個人的には約300ドルの損失がありました」とサウゼンは語りました。「最初の禁止は結果投稿から8時間以内に行われ、その後、ユーザーに通知することなく利用規約を改訂し、侵害内容に対する責任を転嫁しました。」
サウゼンは、企業が自己評価を行わないことで著作権所有者に害を与えているため、独立した評価の重要性を訴えています。
これらの議論の核心は透明性です。ロンプレは、独立した研究者が責任ある使用を示せる場合、AI製品の能力や欠陥を調査することを許可する重要性を強調しました。彼は、企業と協力して透明性を向上させ、安全性を強化したいと述べています。
カプールは、企業がサービスの悪用に関して正当な懸念を抱いている一方で、ポリシーは悪意のあるユーザーと重要な安全研究を行う研究者に対して均一に適用されるべきではないと認識しています。彼は、関係企業との対話が進行中であり、「ほとんどの企業は私たちの提案に関与しており、一部は特にOpenAIのように、私たちの初期の草案に基づいて利用規約の変更を始めています」と述べました。
全体として、論文はAIの安全性を向上させ、明確で保護的な措置を通じて研究を支持するバランスの取れたアプローチを提唱しています。