この岩に微笑みたい衝動を感じるあなたは、決して一人ではありません。私たち人間は、物体に人間的な特性を見出す傾向があり、この現象は「擬人化」と呼ばれ、AIとの関わりでもますます重要性を増しています。
擬人化は、チャットボットに「お願いします」や「ありがとう」と言ったり、期待に応えてくれる生成AIの出力に感謝を表したりする形で現れます。しかし、単純なタスク、例えば記事の要約などでAIのパフォーマンスを期待する一方で、科学論文のアンソロジーのようなより複雑な主題においても同様の性能を求めてしまうことが、真の課題です。同様に、AIがMicrosoftの業績に関する答えを提供する際、私たちが多くの企業の業績報告に基づく市場調査をも期待すると、幻滅を味わうことになります。
これらのタスクは、一見似ているようで、AIモデルにとっては本質的に異なります。Cassie Kozyrkovの言葉を借りれば、「AIは絵筆と同じくらい創造的です」。AIと生産性を最大化する上での主要な障害は、我々がそれを道具として効果的に活用できるかどうかにかかっています。
実際、Microsoft Copilotのライセンスを導入したクライアントの中には、ユーザーがその価値を見いだせず、後に座席数を減少させたケースもあります。これは、AIの能力に対する非現実的な期待とその性能の現実とのミスマッチが原因です。「ああ、AIはそれには向いていない」という瞬間を、多くの人が経験していることでしょう。
生成AIをあきらめるのではなく、私たちはAIと機械学習を理解するための直感を育むことで、擬人化の落とし穴を避けることができます。
機械学習における知性と推論の定義
知性の定義は常に曖昧です。犬が treatsをおねだりするのは知的な行動でしょうか?猿が道具を使うと、知性が示されるのでしょうか?同様に、コンピュータがこれらのタスクを実行する際、それを知的だと見なせるのでしょうか?
最近まで、私は大規模言語モデル(LLM)が本当に「推論」できるわけではないと考えていました。しかし、信頼できるAI創業者との最近の議論を通じて、AIにおける推論のレベルを評価するための基準を提案することに至りました。本の理解力や定量的推論用の基準が存在するように、AI特有の基準を導入することで、LLMに基づくソリューションの期待される推論能力や、不可能な例を伝える手助けができるでしょう。
AIに対する非現実的な期待
人間は、他者の誤りに対して比較的寛容です。自動運転車は統計的に人間の運転手より安全ですが、事故が起きると大きな非難の声が上がります。同様に、AIが人間に期待されるタスクで失敗すると、失望感が増幅されます。
多くの人はAIを「インターンの大軍」と表現しますが、機械は時に人間にはない方法で失敗します。それでも、さまざまな分野では人間を上回る成果を上げています。
その結果、10%以上の組織が生成AIプロジェクトを成功裏に開発し実施することができていません。ビジネスの価値との不適合や、データキュレーションに関連する予期しないコストがこうした取り組みをさらに複雑にしています。
これらの課題を克服し、プロジェクトの成功を収めるためには、AIユーザーに的確な直感を養うことが重要です。
AIとともに直感を育むためのトレーニング
トレーニングは、急速に進化するAIの環境に適応し、機械学習の知識を再定義する上で不可欠です。「AIトレーニング」という言葉は抽象的かもしれませんが、3つの重要な領域に分類できます。
1. 安全性: AIを責任を持って使い、新たに出現するAI強化型フィッシング詐欺を避けることを学ぶ。
2. リテラシー: AIが何ができるのか、何を期待し、潜在的な落とし穴は何かを理解する。
3. 準備性: 作業の質を向上させるためにAIツールを巧みに効率的に活用するスキルを習得する。
AI安全性のトレーニングは、まるで新しいサイクリストのための膝や肘のパッドのように、ある程度の怪我は防げるかもしれませんが、より困難な状況には備えられません。一方、AIの準備性に関するトレーニングは、チームがAIや機械学習の可能性を最大限に活かす力を与えます。
職場に生成AIツールとの安全なインタラクションの機会を増やすことで、何が効果的で何がそうでないかを認識する能力が向上します。
今後1年の間にどのような能力が現れるかは推測するしかありませんが、それらを推論のレベルに関する明確な基準に結び付けることで、貴社のチームが成功に向けて準備できるようになります。「わからない」と言うべき時、支援を求めるべき時、そして特定のAIツールでは対処できない問題について理解するために最も重要なことです。