AIの「コードレッド」から1年、GoogleのGeminiに寄せられた反発:避けられなかったのか?

週末の間、私のソーシャルメディアのフィードは、Googleの「目覚めた」Gemini AIモデルを嘲笑したり批判したりするスクリーンショットやミーム、見出しで埋め尽くされていました。この騒動は、Googleが歴史的に不正確で誤解を招くイメージを生成したと認めたことに続きました。X(旧Twitter)では、ユーザーがGeminiの出力を示すスクリーンショットを共有し、その中には「社会に悪影響を与えたのは、エロンがミームをツイートしたことか、ヒトラーか明言できない」といった不条理な主張が含まれていました。また、VCのマーク・アンドリーセンは、クリエイターが嫌悪する人物やアイデアのリストを「意図的にプログラムされた」と主張し、間違った内容や攻撃的なコンテンツを再投稿することを楽しんでいました。

Geminiの昨年12月のローンチ時の期待感と、その後の反発との間の明確な対比は印象的です。ニューヨーク・タイムズは、Googleが2022年11月にChatGPTが登場した後、「コードレッド」を宣言し、この生成AIブームがテクノロジー大手を脅かすことになったと報じました。GoogleはChatGPTを開発した技術者たちに貢献していましたが、自社ブランドを守ることには慎重でした。OpenAIのようなスタートアップは、急成長のためのリスクを受け入れる姿勢を見せていました。

ChatGPTの成功を受けて、GoogleのCEOスンダー・ピチャイは会社のAI戦略の再定義に深く関与したと報じられています。迅速なイノベーションの必要性とユーザー満足の維持との間の緊張感が、Geminiへの反発を引き起こした要因と考えられます。Googleは、過去に問題となるようなAIの出力を避けるために、より高度な大規模言語モデル(LLM)の発表に慎重でした。

Googleは過去にもLLMに関する論争を経験しています。2022年6月、エンジニアのブレイク・レモワインは、Googleのチャットボット技術「LaMDA」が意識を持っていると主張しました。彼は責任あるAIチームで働いており、LaMDAに対する差別的言語の兆候をテストしましたが、最終的にはAIの好きな代名詞について尋ねるやり取りのトランスクリプトを流出させました。

その時、Googleとその研究所であるDeepMindはLLM領域において慎重でした。DeepMindはSparrowチャットボットをプライベートベータ版でリリースする計画でしたが、Sparrowは「間違いを犯すことがある」と強調していました。

OpenAIやAnthropicのようなスタートアップは、Googleとは異なるプレッシャーに直面していません。ニューヨーク・タイムズの以前の記事でも述べられているように、Googleは高度なAIを責任を持って展開するのが難しく、内部的には小規模企業はより少ない制約の下で運営されていることが認識されていました。Googleは業界と関わり続ける必要があることを認識しないと、取り残されるリスクを抱えていました。

現在、Googleは生成AIに全力を注いでいますが、このコミットメントにはいくつかの課題が伴います。OpenAIのように株主の要求や伝統的製品に依存する膨大なユーザー基盤がないわけではありません。すべてのLLM企業は幻覚の問題に悩まされています。先週、ChatGPTも頓珍漢な応答を生成し、その問題に対処中であるとの声明を発表しました。これらの出力はGeminiほどの論争を引き起こさないかもしれませんが、Googleに対する期待は依然高いままです。AI分野の確立されたプレイヤーとして、小規模企業にはない厳しい監視を受けています。

社会的、文化的、政治的な多様な価値を満たすバランスを達成するのはほぼ不可能です。幻覚が現在のAI技術における固有の要素であるため、Googleは批判的な観客の要求を満たしつつ責任を持ってイノベーションを追求するという難しい立場に置かれています。

Most people like

Find AI tools in YBX