MITの研究者や学者たちが、アメリカ政府に対して人工知能(AI)の規制枠組みの拡大を提案する政策論文を発表しました。この論文は「安全で繁栄するAIセクターを創造する」というタイトルのもと、10ページにわたりAI技術を包括するために既存の法的枠組みを拡張する必要性を強調しています。特に、AIによる診断支援に関連する医療規制へのAIの統合について提案されています。また、著者たちはAIも現在の政府運営、例えば警察活動や保釈判断、採用プロセスに関する監視の対象となるべきだと主張しています。
研究者たちは、人間の活動を規制する法律はAIシステムにも同様に適用されるべきだと強調しています。彼らは「AIを用いない人間の行動が規制されている場合、AIの使用も同様に規制されるべきだ」と述べており、この原則がAIシステムの開発、展開、および利用において、人間の行動に対して設けられた基準に従うことを保障します。
政策論文では、既存の法律の下で scrutinized(監視されている)高リスクのAIの応用が重要な焦点とされています。例えば、自動運転車は人間が運転する車両と同じ基準を満たす必要があることから、既存の枠組みを効果的に適用する事例として挙げられています。
著者たちは、ChatGPTのような汎用AIシステムの開発者に対し、技術のリリース前にその目的を明確に定義することを義務付けるべきだと主張しています。このアカウンタビリティ(責任)により、規制当局は意図された使用に対する具体的なガイドラインを策定し、開発者が定義されたパラメータに従ってシステムを調整できるようになります。
この論文の重要な側面は、AIの文脈における知的財産権に関する問題の明確化です。著者たちは、創作者が潜在的な侵害から保護されるためのメカニズムの開発が必要であるとし、AIによって生成されたコンテンツの必須ラベリングを解決策のひとつとして提唱しています。
また、現行の規制および法的枠組みがAIに関与する場合にどのように適用されるかについての不明確さが指摘されています。「AIが関与する場合に現在の規制および法的枠組みがどのように適用されるのか、それが十分に機能するのかは不明である」と述べており、この不透明感がAI技術に関連するリスクに対して、提供者、ユーザー、および一般市民に困惑をもたらしています。著者たちは、AIの責任ある開発と利用を促すためにさらなる明確さと監視が重要であり、その結果、すべてのアメリカ人にとっての利益を最大化できると強調しています。
MITシュワルツマン計算大学のデーン、ダン・ハッテンロッシャーは「我々の国はすでに比較的高リスクな事柄を多く規制しており、その分野でガバナンスを提供しています。それが十分でないとは言っていませんが、まずは人間の活動が既に規制され、高リスクだと社会が認識している領域から始めましょう。このような形でAIの規制に取り組むことが、現実的な前進方法です」と述べています。
この政策論文は、大規模言語モデルの管理、労働者を重視したAI戦略、AI生成コンテンツのラベリングを含む他のさまざまな側面を探求する論文と一致しており、良好に規制されたAI環境の確立への広範なコミットメントを示しています。