世界中の政府は、人工知能(AI)に関連するリスクを軽減するための措置を熱心に模索していますが、専門家の間では効果的な制御が果たして実現可能かどうかについて懐疑的な見方も残っています。最近開催された英国のAI安全サミットでは、米国、中国、欧州連合、英国、そして25の国家のリーダーたちが集まり、情報の誤用や故意・偶発的な危害といった問題から守るための共同アプローチが形成されました。
しかし、サミットで提唱された野心的な目標は、必ずしも現実的ではないとの意見もあります。ドミノデータラボのデータサイエンス戦略責任者、ケル・カールソン氏は「AIは専門家システムから従来の機械学習、そして最近の生成型AIまで多岐にわたる技術を含みます。この多様性は、これらすべての技術とその応用に対して適切な規制を設計することを難しくしています」と述べています。
安全への取り組み
サミットでは、政策立案者たちがBletchley宣言に基づいた安全性のためのAI研究の継続的な必要性を強調しました。この協力的な姿勢は、AIがもたらす潜在的な脅威についての著名な人物からの警告が相次ぐ中で示されています。存在に関わるリスクや大規模な失業の可能性が挙げられていますが、一部の専門家はこれらの終末的な予測が誇張またはセンセーショナルに報じられていると主張しています。MetaのチーフAI科学者、ヤン・ルカン氏は「AIの終末主義は、間もなく終末宗教と区別がつかなくなります」とTwitter(現在のX)で発言しました。
Bletchley宣言では、「人工知能(AI)は、巨大な国際的機会を提供します。AIには人間の幸福、平和、繁栄を変革し向上させる可能性があります」と宣言されています。この宣言は、AI技術の設計と導入において、人間中心で信頼できる責任あるアプローチを強調し、科学的証拠に基づいてAIリスクを特定し理解するための国際的な協力を促しています。
「AIから生じる多くのリスクは本質的に国際的であり、国際協力を通じて最も効果的に対処されるべきです」と宣言は述べ、国家間の共通責任を強調しています。
個別の取り組みと懐疑
これらの国際的な取り組みに応じて、各国政府もAIを規制するための措置を講じています。サミット前に、バイデン大統領は、政府機関、企業、学界の協力を促進することを目的とした行政命令を発出し、AIの責任ある開発を導きながら雇用と消費者のプライバシーを保護する方針を示しました。「私の政権は、機会と正義を奪われやすい人々を不利に扱うためにAIを使うことを許すことはできませんし、許しません」とバイデン氏は強調しています。
しかし、AI規制の専門家ミラン・コルデスタニ氏は、現在の提案がリスクに十分に対処していないと懸念を示しています。バイデン氏の命令の曖昧さを批判し、具体的な措置を詳述することなく省庁にAIの安全対策の実施を指示する点を挙げました。「提案された規制は、民間部門の行動を制約せず、個人がAI技術とどのように相互作用するかを見落としている」と述べ、学界をAIリスクに関する議論に巻き込む必要があることを強調しました。
コルデスタニ氏は、効果的なAI規制は技術そのものへの対応にとどまらず、社会への広範な影響、労働力のダイナミクス、流通ネットワーク、認知プロセスに関するものでもあるべきだと考えています。「1980年代後半の立法者は、ソーシャルメディア上の誤情報を規制する必要性を予見できなかった。AI規制も同様に、新たなリスクに対処するために動的に進化する必要があります」と述べています。
グローバルな課題と倫理的懸念
AI規制の課題はその国際的な広がりにも表れています。モデュラスCEOのリチャード・ガードナー氏は、AIの規制は核兵器の管理に例えています。「国内でAIを規制するのは複雑で、対立国は国際的合意にもかかわらず開発を続ける可能性があります」と彼は指摘しました。無規制のAI製品を創り出す危険な開発者の存在はさらに難しさを増す要因です。
著作権に関する問題に関して、ガードナー氏はAIのトレーニングやデータ利用を管理するためにrobots.txtファイル、つまりウェブサイトの巡回を指示する標準プロトコルの使用を提唱し、保護された資料が除外されるようにする必要があると述べています。「革新者が研究開発を追求する自由を許す必要があります」と彼は強調し、革新を妨げるような過剰な規制措置には警鐘を鳴らしています。
AIに関する倫理基準を定義することは容易ではありません。現在の人権法はAI施策に対する挑戦の基礎を形成できますが、それらの権利を具体的なガイドラインに変換するための明確な規制が緊急に求められています。AIおよびアプリケーションセキュリティの専門家、ロブ・ヴァン・ダーヴィア氏は「既存のプライバシー規制は、個人データを使用するAIシステムの目的に制限を設けますが、セキュリティ規制はAIエンジニアリングがもたらす新しい脆弱性を見落とすことが多い」と指摘しています。
進化する状況への適応
AI技術の急速な進展を踏まえ、規制は継続的なプロセスでなければなりません。名状する技術の新しい進展に対する評価が求められます。コルデスタニ氏は、このプロセスが革新的なトレーニング方法と応用に応じた新たな立法や国際条約を含む可能性があると示唆しています。政府は、革新の必要性とAI開発の安全性とのバランスを取るため、企業と協力して取り組む必要があります。
さらに、学界をこの議論に巻き込むことは、公衆の安全を道徳的・倫理的な視点から確保するために重要です。公平なアクセス、データ倫理、社会的偏見についての会話を促進することが求められます。最終的な目標は、市民を日常生活のさまざまな側面におけるAIによる潜在的な脅威から保護することです。
コルデスタニ氏は、悪意のある行為者がAIを悪用する可能性があることを警告し、強固な国際規制の必要性を強調しています。「公的、私的、学術的なセクターを巻き込む多様なステークホルダーアプローチを確立することが、現在および新たな脅威への対処に不可欠です」と彼は主張しました。
カールソン氏は、すべてのAI技術に対して一律の規制を設けるのではなく、特定の使用例に焦点を当てたターゲットを絞った規制のアプローチを提唱しています。たとえば、詐欺のためのディープフェイクの悪用に対応する方が、生成AIの出力への透かし義務を強いる広範な規制よりも有益であると彼は述べています。
規制は、最新のAIの進展に遅れをとることが避けられませんが、技術と共に進化する応答的な枠組みを作り上げるために不可欠です。このことは、AIの革新と社会への統合において人間の視点が常に最前線に位置することを保証するために重要です。