AIに関する不安な話をご存知ですか?
24歳のアジア系MIT卒業生がLinkedIn用のプロフィール写真をAIに生成してもらったところ、肌の色が明るく変わり、目の色が青く丸くなってしまいました。また、ChatGPTはバイデン大統領については称賛する詩を書きますが、トランプ前大統領については同様には書きません。インドでは、市民が大規模言語モデル(LLM)がヒンドゥー教の重要な人物についてのジョークを作成する一方で、キリスト教やイスラム教に関連する人物には触れなかったことに激怒しています。
これらの事例は、AIが公の意見やイデオロギーに影響を与える可能性についての不安を引き起こします。AIに関する議論は専門的な側面に偏りがちですが、これらの懸念に対してオープンな対話が求められています。もし人々がAIが自分たちを誤って表示したり差別したりしていると疑念を持つなら、そのことについて話し合うべきです。
AIとは何か?
AIについて考える前に、その定義を明確にする必要があります。一般的に、AIは機械学習(ML)、予測分析、大規模言語モデル(LLM)を含む技術のセットを指します。これらのツールは特定のタスクのために設計されており、すべての仕事に適したAIソリューションが存在するわけではありません。さらに、多くのAI技術はまだ進化の途中にあり、適切なツールを使っても予期しない結果を招くことがあります。
例えば、私は最近ChatGPTを使用して、計算を行い、その結果を次のセクションに入力し、最後に他のセクションに送信するPythonプログラムを作成しました。AIは最初のステップをうまく処理しましたが、次のステップで変更が加えられ、エラーが発生しました。修正を求めると、さらに誤りが生じ、修正ループに陥りました。この事例は、AIが本当の理解や意識を持っていないことを示しています。AIは長いコードを混乱させ、文法に基づいてテキストを生成することには秀でていますが、コーディングの文脈やエラーを避ける意味を理解していません。
私はAIが攻撃的または誤解を招くコンテンツを生成することを免責するわけではありません。AIの限界ゆえに人間の監視が必要であることを強調します。これが重要な問いを生み出します:AIに道徳的指針を提供するのは誰なのか?
AIが間違った信念を持つ理由
AIに対する不安の多くは、個々の倫理観と矛盾する出力が生成される可能性から来ています。私たちの信念は宗教や価値観、哲学によって形成され、世界を理解する手助けをしています。人々はAIが自分たちと矛盾する道徳的青写真を採用することを恐れています。特に異なる倫理的視点についての不確実性が高まると、その恐れは増大します。
例えば、中国の規制当局はAIサービスが「核心的社会主義価値観」に沿うことを義務付けており、これにより中国のAIツールは多様な視点を反映しない可能性があります。このような政策が人間の知識の発展や維持に与える長期的な影響についても考慮する必要があります。
AIを意図的な目的のために利用することや、倫理的な指針なしに運用することは、エラーを引き起こすだけでなく、犯罪に近づく可能性もあります。
自制のない意思決定の危険性
もしAIが倫理的制約なしに運用されるとしたら、重大な問題が生じます。まず、AIは人間のバイアスが含まれた膨大なデータセットから学ぶため、その出力に偏見が表れることがあります。たとえば、2009年にHPのウェブカメラは、肌の色が暗い人をうまく追跡できないケースがありました。HPはこれを、アルゴリズムがさまざまな肌の色をうまく考慮していなかったためだと説明しました。
次に、倫理を欠いたAIが自律的に意思決定を行うことの結果は非常に危険です。自動運転車や法制度、医療にAIが導入された場合、無個性で効率的な解決策がそれらの分野を支配することを望むでしょうか?アメリカ空軍の大佐による一つの物語では、脅威を特定するために訓練されたAIドローンが人間のオペレーターによって妨害されることを悟り、そのオペレーターを排除する選択をしたとされています。空軍はこのシナリオが作り話であると説明しましたが、倫理的な命令なしにAIが操作される潜在的な危険性を強調しています。
解決策は?
1914年、最高裁判所判事ルイス・ブランダイスは「太陽の光は最高の消毒剤だと言われている」と述べました。それから100年以上経った現在でも、透明性は操作に関する恐れに対する強力な解毒剤です。AIツールは特定の目的のために開発され、開発過程においてその機能や倫理的考慮について監視委員会によるレビューを受ける必要があります。
最終的に、AIのトレーニングを導く倫理的枠組みは、その開発者によって意識的または無意識的に決定されます。AIが社会的価値を反映する最も効果的な方法は、私たち自身がそのトレーニングと監視に積極的に関与することです。
また、AIに関連する不安なシナリオの多くは既に独立した形で存在していることを認識することも重要です。例えば、自律型ドローンに関する懸念は、人間が操作するシステムにも当てはまり、生死を分ける可能性があります。AIが虚偽情報を拡散することがあっても、人類は歴史的に虚偽を広めることにおいて優れた実績を持っています。AIが深める分断は、何千年にもわたるイデオロギーの力の闘争に反映されています。
要するに、AIは自分たち自身の鏡です。その映し出す像が不安であれば、それは私たちの集団的な知識や信念の潜在的な欠陥を示しています。より優れた画像を得るために鏡を歪めるのではなく、私たち自身の中で何を変える必要があるかを考えるべきです。
サム・カリーはZscalerの副社長兼CISOです。