AIのアウトプットは保護された言論と見なされるのか?法律専門家が警鐘を鳴らす危険な考え方

ジェネレーティブAIと表現の論争:法的視点とリスク

ジェネレーティブAIはますます高度化しており、表現豊かで情報的、しばしば説得力のあるコンテンツを生成しています。アメリカの法律専門家たちは、大規模言語モデル(LLM)により生成されたコンテンツが第一修正によって保護される可能性があると提案しており、この保護は有害なコンテンツにまで及ぶ可能性があるため、政府の監視を越えることになります。

規制の必要性

ヒューストン大学法科センターの助教授であるピーター・サリブは、AIによって生成されるコンテンツから生じるカタストロフィックな結果を避けるためには効果的な規制が不可欠だと主張しています。彼の見解は、ワシントン大学法科大学院のレビューで特集される予定です。「保護された表現は神聖な憲法のカテゴリーです」とサリブは説明し、高度なモデル(GPT-5など)の出力が保護される場合の影響についての懸念を強調しています。このようなシナリオは、これらの技術を規制する能力に深刻な障害をもたらすかもしれません。

AIが保護された表現として支持される理由

1年前、法律ジャーナリストのベンジャミン・ウィッテスは、私たちがChatGPTのような機械に「第一修正の権利」を与えているかもしれないと主張しました。彼は、これらのAIシステムは「否定できないほど表現的」であり、テキストや画像を生成し、対話に参加することで表現に似たコンテンツを生み出していると述べています。ウィッテスは、AIコンテンツが派生的であっても、第一修正は表現を保護するものであり、独自性を求めるものではないと指摘しています。

サリブは、多くの学者がAIの出力が表現に非常に似ているため保護されるべきだと認識しつつあると述べています。一部は、これらの出力が関与する人間プログラマーの保護された表現であると主張し、他の人はそれがChatGPTのようなAIシステムの企業所有者に帰属すると考えています。しかし、サリブは「AIの出力は第一修正権を持ついかなるスピーカーからのコミュニケーションを表していない。人間の表現ではない」と反論しています。

AI出力の新たなリスク

AIの進歩は急速であり、ますます能力の高いシステムが自律的かつ予測不可能な方法で使用されています。AI安全センターのアドバイザーであるサリブは、ジェネレーティブAIが致命的な化学兵器の合成やクリティカルインフラへの攻撃を引き起こすリスクを警告しています。「近未来のジェネレーティブAIシステムは人命に重大なリスクをもたらすという強力な経験的証拠があります」と彼は述べ、バイオテロや自動政治暗殺といった潜在的なシナリオを予見しています。

AIは表現だが人間の表現ではない

世界のリーダーたちは、安全で倫理的なAIの運用を確保するための規制を導入し始めています。これらの法律は、AIシステムが有害なコンテンツを生成することを控えることを義務付け、言論検閲のように見える可能性があります。サリブは、AIの出力が保護された表現である場合、規制は厳格な憲法の精査を受け、即時の脅威がある場合を除いて規制が許可されると指摘しています。

企業の表現権と規制

法人は人間ではありませんが、派生的な表現権を持っています。サリブは、企業の権利は人間のクリエイターの権利に依存すると主張します。LLMの出力が保護された表現として認められない場合、それが企業によって伝達される際に保護されるのは不合理です。リスクを効果的に軽減するため、サリブはAI出力の規制を提唱し、システムの生成プロセスの制限を避けるべきだと述べています。現在のLLMは、その複雑性や予測不可能性から、有害な出力を回避するために完全に制御またはプログラムできません。

成功する規制はAI出力の性質に焦点を当て、モデルのコンテンツがリリースに適した安全性を持つかどうかを判断することにすべきです。このアプローチは、AI企業が安全性を優先するよう促すでしょう。最終的に、「法律は人々が欺かれたり、傷つけられたりしないよう設計されなければならない」とサリブは強調し、進化するAI能力に対する慎重な立法行動の重要性を示しています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles