最高裁判所は、連邦機関の規制権限を大幅に制限しました。これは『モーニングブルー』でも取り上げられています。数ヶ月前、AI規制に向けた動きが高まり、英国でのAI安全サミットやバイデン政権のAIに関する大統領令、EUのAI法などが注目されました。しかし、最近の司法判断や政治的な動向は、米国におけるAI規制の将来に疑問を投げかけています。本記事では、これらの変化の影響と今後の課題について考察します。
Loper Bright Enterprises v. Raimondoの最高裁判所の判決は、AIを含むさまざまな分野における連邦機関の監督権限を制限します。40年にわたるシェバロン・デファレンスの前例を覆すことで、議会の法律の解釈が機関から司法にシフトしました。
機関の専門性と司法の監視
多くの既存法、特に技術や環境に関連する法律は、曖昧な内容が多く、解釈には機関の助けが必要です。この曖昧さは、政治的または実務的な理由で意図的に生じることが多いです。連邦裁判官は、これら不明確な法律に基づく規制決定に異議を唱えやすくなり、AI規制の進行を妨げる可能性があります。支持者は、これは法律の一貫した解釈を保証すると主張しますが、AIのような急速に進化する分野では、機関のほうが専門知識を持っています。例えば、連邦取引委員会(FTC)はAIに関する消費者保護を、平等雇用機会委員会(EEOC)は雇用におけるAIの使用を、食品医薬品局(FDA)は医療機器におけるAIを監視しています。これらの機関はAIの専門家で構成されている一方、司法にはそのような専門知識が欠けています。それにもかかわらず、高裁は「…機関は法的な曖昧さを解決する特別な能力を持たない。裁判所が持つ」と主張しています。
課題と立法の必要性
Loper Bright Enterprises v. Raimondoの判決は、AI規制の確立と実施を妨げる可能性があります。New Lines Instituteによると、この判決により、機関は複雑な技術的詳細を関連性のある形で明確にし、規制を正当化する必要があります。エレナ・ケイガン判事の反対意見では、裁判所の多数派が満たすことができない調整役を引き受けていると指摘されています。口頭弁論では、AI規制についての情報に基づいた意思決定の必要性を強調し、知識のある当事者がこれらの議論をリードすべきだと主張しました。もし議会が連邦機関にAI規制を指導させたいのであれば、今後の立法において明確に示す必要があります。ラトガース大学の法律教授エレン・グッドマンは「解決策は常に議会から明確な立法を得ることだったが、今はその重要性がさらに増している」と強調しています。
政治情勢
しかし、議会がそのような措置を講じるとは限りません。最近の共和党の政策は、既存のAIに関する大統領令を撤回する意向を示し、「過激な左派の思想」を排除する方針を打ち出しています。アナリストのランス・エリオットは、これがAI関連の報告や評価要件を排除することを含む可能性があると指摘しています。技術起業家のジェイコブ・ヒーなどは、既存の法律がAIを十分に規制していると主張し、過剰な規制が米国の競争力を損なう恐れがあると警告しています。それでも、Loper Bright Enterprisesの判決は、それらの法律が支えるべき規制の枠組みを弱体化させます。
現在の行政指導がない中で、共和党の政策は自由な発言と人間の向上を強調するAI開発を支持しています。トランプの同盟者たちによる「アメリカ優先のAI」を優先する新たな枠組みの設立が進められており、負担と見なされる規制の減少につながる可能性があります。
規制の展望
政治状況に関わらず、米国は新たなAI規制環境に直面することになります。最高裁の決定は、専門機関が効果的なAI規制を施行する能力に深刻な懸念をもたらし、必要な監視が遅れたり妨げられたりする恐れがあります。リーダーシップの変化も規制アプローチに影響を与える可能性があります。保守派が勝利すれば、英国の厳格な規制とEUの包括的なAI法から大きく逸脱し、革新を促進するより寛容な規制環境が予想されます。
これらの変化の累積的な影響は、AI規制の国際的一貫性を損なう恐れがあります。このような断片化は国際的な協力を妨げ、研究パートナーシップやデータ共有の合意を複雑にし、グローバルなAI基準にも影響を及ぼす可能性があります。緩和された規制が米国の革新を促進する一方で、倫理、安全、雇用に関する懸念が生じ、AI技術への公共の信頼が低下する恐れがあります。規制が弱体化する中、大手AI企業は倫理基準や安全ガイドラインについて積極的に協力し、透明性や監査可能性を優先して信頼と責任ある開発を促進するかもしれません。
最終的に、AI規制における不確実性が高まる時代が待っています。政治的な動向が変化する中で、政策立案者と業界リーダーが協力し、AI開発が倫理的、安全で社会的な利益に沿ったものであることを確保することが重要です。