AIガバナンスツールの一般的な欠陥を報告:多くが効果的でないAI修正を含む

最近のワールド・プライバシー・フォーラムの報告は、政府や国際機関が使用するAIガバナンストールについての重要な知見を示しています。この報告では、18のツールをレビューした結果、約38%が「不適切な修正」を含んでいることが判明しました。これらのツールは、公正性や説明責任を評価するために設計されていますが、重要な品質保証メカニズムが欠如していたり、元の文脈以外では適切とは言えない測定方法を使用していたりします。

これらのツールの多くは、Microsoft、IBM、Googleなどの大手テクノロジー企業によって開発されており、彼ら自身が評価するAIシステムをも作成しています。たとえば、IBMのAI公正性360ツールは、米国政府監査局によって倫理原則を組み込むための指針として支持されていますが、その「不均一影響除去アルゴリズム」の基礎研究は学界から強い批判を受けています。

ワールド・プライバシー・フォーラムの創設者であるパム・ディクソン氏は、「現在使用されているAIガバナンストールのほとんどが、適切な基準なしに運用されています」と述べています。彼女は、確立された品質保証要件の欠如が重大な問題であると指摘しました。本来特定の文脈に向けて設計されたツールが誤って適用され、「オフラベル使用」が意図しない結果を招く可能性があります。

AIガバナンストールは、AIシステムの包摂性、公正性、説明性、プライバシー、安全性などの側面を評価・測定するメカニズムとして定義されています。これらのツールは規制当局や一般市民に安心感を提供する一方で、誤った安心感をもたらし、意図しない問題を引き起こすこともあります。

EUのAI法の成立やバイデン大統領によるAIに関する行政命令の発表により、AIガバナンスの改善のタイミングが訪れています。ワールド・プライバシー・フォーラムの副ディレクターであるケイト・ケイ氏は、「いくつかの欠陥は明らかになっていますが、AIガバナンスエコシステムには改善の大きな可能性があります」と述べ、ツールが政府のAI政策を実行する手段であり、将来の法律や規制の実施において重要な役割を果たすことを強調しました。

さらにケイ氏は、米国の雇用法における80%ルールが、AIガバナンスツールで誤用されている例を挙げました。このルールは選考過程が特定のグループに対して逆影響を及ぼすかどうかを評価しますが、雇用とは無関係な文脈に抽象化され、不適切に適用される結果を招いています。

AI規制の設立圧力の中で、ケイ氏は欠陥がある方法論を政策に埋め込むことに警鐘を鳴らしました。急いで実施することによって既存の問題を悪化させるリスクを強調しました。

2024年に向けて、ディクソン氏とケイ氏は、AIガバナンスツールの進展に楽観的です。ディクソン氏は、経済協力開発機構(OECD)がこれらのツールを改善するために協力を望んでいることを示唆し、良い方向性を示しました。国立標準技術研究所(NIST)も証拠に基づく厳格な基準の開発に関心を示しています。彼らは、焦点を絞った努力によって、AIガバナンスの改善が6ヵ月以内に可能であると信じています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles