責任あるAI:技術における重要な議論
責任あるAIは、今日の技術環境において重要なテーマです。モデル開発者は、生成AIや大規模言語モデル(LLM)の不適切または悪意ある使用を防ぐために努力を続けており、世界的なAI規制も進化しています。しかし、AI開発者や組織は、今すぐに効果的な解決策を必要としています。
この懸念の高まりを受け、行動使用条項を持つ特定のライセンスが採用されており、その中には非営利の責任あるAIライセンス(RAIL)も含まれています。これらのライセンスは、AIモデル、コード、およびトレーニングデータの共有時の使用方法に法的な制約を設けます。
生成AIの急速な普及に伴い、カスタマイズと標準化をさらに促進するために、RAILは「Rail License Generator」を立ち上げました。この革新的なツールを使うことで、AI開発者はライセンスの対象となる関連アーティファクトを選択し、キュレーションされたカタログから使用制限を設定できます。
RAIL共同議長のダニエル・マクダフは、「基盤モデルは通常、広範な汎用性を持ち、さまざまな言語を解釈し、最小限の微調整で下流のアプリケーションに適用できます」と説明しています。「以前はアプリケーションの制限がそれほど必要ではありませんでしたが、現在ではこれらの多用途モデルが簡単に再利用できるため、これらのライセンスは不可欠です。」と続けました。
倫理基準を法的権限で定義する
2018年に始まったRAILイニシアチブは、現在41,700のモデルリポジトリをRAILライセンスで網羅しています。行動使用条項を搭載した代表的なモデルには、Hugging FaceのBLOOM、MetaのLlama 2、Stable Diffusion、Gridが挙げられます。
Rail License Generatorは、アクセス障壁を下げることで、この数を増加させることを目指しています。Jesse Josua Benjamin、Scott Cambo、Tim Korjakowが主導するRAILツールと手続きガバナンス作業部会によって開発されたこのツールは、カスタマイズされたライセンスの作成を効率化します。
ユーザーはまずライセンスの種類を選択し、初期テンプレートを生成します。利用できるライセンスの種類は次の通りです:
- オープンRAIL:開発者は、確立された行動制限に従う限り、ライセンスされたアーティファクトを使用、配布、変更できます。
- リサーチRAIL:ライセンスされたアーティファクトの使用が研究目的に制限され、商業利用は禁止され、行動制限に従います。
- RAIL:行動使用条項は除外されますが、ライセンスアーティファクトの使用者やその使用方法に関する追加条件が含まれる可能性があります。
次のステップでは、ユーザーがライセンスまたは共有するアーティファクトを選択し、多くの場合AIに関連するコードやアルゴリズム、モデルの慎重な公開が求められます。ユーザーは、さまざまなシステム固有の制限から選択できます。
最終的なライセンスは、LaTeX、プレーンテキスト、Markdown形式のオプション、ドメインアイコンのPNGダウンロード、完全なライセンスへのQRコードリンクとともにエクスポートされます。Rail License Generatorは法務チームにアクセスできない個人をサポートしますが、大規模・小規模の組織の両方に利用されています。マクダフは、ライセンス文書作成に伴う「不安の層」が一般的であり、言語が特定の分野、文脈、AIタイプに適応される必要があると指摘しました。多くの開発者は、コンピュータサイエンスや研究に背景を持つために法的条件を draft する自信を持てずにいます。
「ライセンスを作成するのにかかる時間は、含めたい条項を特定すれば数分に短縮されます」とマクダフは述べました。「このツールは倫理的原則を法的権威で codify します。」
従来の科学プロセスに対するAIの影響
オープン性とオープンソースの取り組みは、科学研究や技術の進歩にとって基盤となるものであり、研究成果の検証や監査を可能にしています。このオープン性はAIに大いに貢献していますが、基盤モデルはその適応性のために独自の課題を伴います。
開発者はしばしば良い意図で強力なモデルを作成しますが、これらのモデルの汎用性が意図しない、または有害な用途につながることがあります。分散化はこれらのリスクを悪化させ、下流ユーザーに対する責任と対応を複雑にします。
「オープンソースは利点がありますが、単一のアクターが重要な下流の影響を行使できる場合、例えば誤情報を広める場合には、より複雑になります」とマクダフは警告しました。
RAIL共同議長のダニッシュ・コントラクターは、開発者が使用制限について抱える混乱を強調しました。「多くの人々が『AIがXを行うことができるなら、Yもできる』と仮定しています」と彼は説明し、医療モデルがロボティクスや軍事用途の分野で意図的または意図せずに悪用される可能性を指摘しました。
効果的なコミュニケーションとライセンス違反を追跡し強制するためのツールへのアクセスが重要であると、コントラクターは強調しました。行動制限は、一貫性と多様性のバランスを提供できます。一部の条項は差別や誤情報の禁止など、普遍的に適用可能ですが、標準化は重要です。
「親しみやすく柔軟なライセンスを作成するためのツールが求められています」とマクダフは繰り返しました。最後に彼は「オープンソースコードの不適切な使用に伴うリスクは、GoogleやMicrosoftのような企業が見過ごすにはあまりにも重大です」と締め括りました。