GoogleがGeminiAIツールの誤った画像に謝罪
Googleは金曜日、同社の新しいGeminiAIツールによって生成された不正確で潜在的に攻撃的な画像について謝意を表明しました。この反応は、ユーザーがナチス兵士やアメリカ建国の父たちに関するプロンプトに対して、歴史的に不正確で人種的多様性に富んだ画像が生成されたと報告したことを受けてのことです。
ブログ記事で、Googleの上級副社長プラバカー・ラガバン氏は、生成された画像が「不正確または攻撃的」であったことを認め、「目標を外した」と述べました。ラガバン氏は、オープンエンドなプロンプトにおいて幅広い人々を代表することによって偏見を排除することを目指していると説明しました。しかし、特定の歴史的文脈が必要なプロンプトは、正確な表現を必要とすることを強調しました。
「たとえば、サッカー選手や犬を散歩させている人の画像を求める場合、多様な描写が適切です。一つの民族だけの画像は望ましくないでしょう」と説明しました。「一方、特定の個人や特定の歴史的文脈でのグループの画像を求める場合、その応答は要求に正確に応じる必要があります。」
AIにおける偏見と多様性の課題
この出来事は、AIシステムにおける偏見の持続的な課題を浮き彫りにしています。AIツールの中には、多様性の欠如や不適切な表現に対して同様の反発を受けたものもあります。Googleは包括性を追求する中で、過剰な修正を行い、1820年代のアメリカ合衆国の上院議員が人種的に多様であったり、さまざまな民族のナチス兵士の画像を生成するなど、歴史的に不整合な画像を生み出しました。これが、批評家たちからは過剰な政治的正しさに対する嘲笑を招く結果となりました。
この懸念に対して、Googleは一時的にGeminiの人物画像生成機能を停止し、再発表までにこの機能の改善を約束しました。
Gemini論争の深い意味
Geminiの問題は、GoogleのAIイニシアチブにおけるより広範な問題を反映しています。最近の立ち上げ以降、同社は画像に関する論争のほかにも、Geminiの能力を誇張したプロモーション動画や、以前のAIモデルであるGoogle・バードに対する批判も受けました。
MicrosoftやオープンAIといった競合が進出する中で、Googleは「Gemini時代」というビジョンを構築するのに苦労しています。バードからGeminiに至るまでのAI製品の迅速なリリースやリブランドの流れは、消費者を困惑させています。
これらの失敗は、歴史的正確さと多様性をどのように両立させるかという課題を浮き彫りにし、同時にGoogleの戦略の根本的な弱点を明らかにしています。かつては検索技術のリーダーであったGoogleは、現在では一貫したAIソリューションの提供が難しい状況に直面しています。
これらの問題は、「迅速に物事を進め、壊す」というテクノロジーの倫理観に起因している部分があります。Googleは競合するツール、ChatGPTに対抗するために、急いでGeminiを市場に投入しましたが、この急いだアプローチは消費者の信頼を損なう結果となっています。信頼を再構築するためには、Googleはさらにおもしろい発表を行うのではなく、慎重なAIロードマップが必要です。
最新の事件はまた、Googleの内部AI開発プロセスについての疑問も提起します。以前の報告によれば、AIに倫理的配慮を組み込む努力が停滞しているとされています。Googleは、技術を迅速に展開することだけでなく、安全かつ責任を持って展開することを重視するリーダーに指導される、包括的で多様なAIチームの構築を優先する必要があります。
GoogleがAIの初期の過ちから学ばなければ、さらなる後れを取るリスクがあります。ユーザーは混乱よりも明確さを求めています。Geminiの事件は、GoogleがAIの出力とメッセージングの両方を制御を失ったことを示しています。公衆の信頼を回復するためには、基本的な原則に戻ることが必要かもしれません。