最近のニュースでは、人工知能(AI)が「岩を食べるよう人に勧める」との報道や、AIが生成した参加者による初の美人コンテスト「ミスAI」の開催があり、AI技術の責任ある開発と利用についての重要な議論が再燃しています。岩を勧めることはAIアルゴリズムの欠陥を示しており、美人コンテストは狭い美しさの基準を支持する人間の傾向を反映しています。AIによる災害の警告が続く中で、あるAI研究者は70%の確率で破滅が訪れると予測していますが、これらの問題は目立ちながらも、現状からの脱却を示すものではありません。
AIの悪用の顕著な例として、金融詐欺に利用されるディープフェイクや個人に対する不適切な描写が挙げられ、技術の危険性が浮き彫りにされています。しかし、これらの行動はAIの自律性によるものではなく、人間の悪意に起因しています。また、AIによる雇用の喪失が現実化する兆しもまだ見られません。
AIに関するリスクの中には、技術の兵器化、社会的偏見、プライバシーの侵害、AIシステムの理解の難しさが含まれています。それでも、AIが人類に対して本質的に脅威をもたらす証拠はほとんどありません。
その一方で、AI企業の現職および元職員13人が、人的生命への脅威を含む技術のリスクについて懸念を示した内部告発の書簡を発表しました。これらの告発者は先進的なAIシステムに深く関わった経験があり、彼らの懸念は信頼性を増します。AI研究者エリエザー・ユドコウスキーの過去の警告は、ChatGPTのようなAIが人間の知性を超えて人類に危害を加える可能性を助長しました。
しかし、プラットフォーマーのケイシー・ニュートンが指摘したように、告発の内容にセンセーショナルな発見を期待している人々は失望するかもしれません。これは、雇用主からの制約や、投機的なストーリー以上の実質的な証拠の不足から生じている可能性があります。
ポジティブな点として、「フロンティア」と呼ばれる生成AIモデルは、標準化したテストでのパフォーマンスが向上し続けていることが挙げられます。ただし、モデルが訓練データでしか優れた性能を発揮しない「過学習」もあり、これが性能評価の見かけ上の inflating claims に寄与することがあります。特に統一司法試験でのパフォーマンスの誤解を招く評価がこれに当たります。
AIの「ゴッドファーザー」と称されるジェフリー・ヒントンを含む著名なAI研究者たちは、人工一般知能(AGI)が5年以内に実現する可能性があると信じています。AGIは、多様なタスクにおいて人間レベルの知性に匹敵またはそれを超えるAIシステムのことを指し、これが存在に関する懸念を引き起こすポイントです。ヒントンがAGIを遠い未来のことと見なしていた考え方を最近転換させたことは、議論の緊急性を強調しています。
また、最近解雇されたOpenAIの元研究者レオポルド・アッシェンブレナーは、コンスタントな進展が続けば2027年までにはAGIが実現すると予測する報告を発表しました。
AGIの到来に対して懐疑的な専門家もいる一方で、OpenAIのGPT-5やClaude、Geminiの次世代モデルでは目覚ましい進展が期待されます。ただし、今後の技術的成長が停滞すれば、存在に関する懸念もおそらく消えることでしょう。
AIモデルのスケーラビリティに懸念を示している専門家もおり、早期の「AI冬」の兆しが見え始めたとの声もあります。AI冬は、期待に応えられず関心と資金が減少する歴史的な時期であり、しばしばAIの能力に対する過剰な期待の後に訪れます。
最近のレポートでは、Pitchbookが2023年第3四半期に生成AIの取引がピーク時から76%減少したと報告しています。この投資の減少が企業の財政に悪影響を及ぼし、新興AIプロジェクトの革新を妨げる可能性がありますが、最先端モデルの開発に関わる大手企業はこの傾向からは守られるかもしれません。
Fast Companyによると、AIが企業の収益や株価にプラスの影響をもたらすほどの生産性向上を実現している証拠は不足しているとのことです。その結果、2024年後半には新たなAI冬の脅威が議論の中心になるかもしれません。
それでも、多くの専門家は楽観的です。ガートナーはAIの影響を印刷技術や電気のような変革的発明に例え、その社会を再形成する可能性を強調しています。ウォートンビジネススクールのイーサン・モリック教授は、生成AIを即座に業務プロセスに統合するよう提唱しています。
生成AIの能力を裏付ける証拠も増加しています。例えば、AIシステムは議論で人を説得する効果が87%高いとされており、また、AIモデルが感情サポートにおいて人間を上回る可能性も示されています。
中心的な問いは、AIが重大なグローバルな課題の解決に寄与するのか、それとも人類の滅亡に至るのかということです。おそらく、その結果は画期的な進展と、先進AIに関連する残念な落ち込みの組み合わせとなるでしょう。技術進歩の二極化した性質から、業界のリーダーたちもAIのリスクと報酬について異なる見解を持っています。
私自身は、最近のAI安全性の進展を考慮して、破滅の確率は約5%だと考えています。Anthropicなどの組織が大規模言語モデル(LLMs)の機能を明らかにすることで、リスクを効果的に軽減する能力が高まることが期待されます。
最終的に、AIの未来は前例のない機会と顕著なリスクのバランスを取る交差点に立っていると言えます。十分な情報に基づいた議論を行い、倫理的開発を確保し、積極的な監督を実施することが、AIが社会にもたらす利益を最大化するために重要です。豊かさに満ちた未来の可能性がある一方で、ディストピアに陥るリスクも存在します。責任あるAI開発は、明確な倫理ガイドライン、厳格な安全プロトコル、人間の監視、強固な制御メカニズムを優先して、この急速に進化する領域をナビゲートしていく必要があります。