今週のAIに関するトップニュース
1. DeepMindが人間教示型AIシステムを発表
GoogleのDeepMindが、複雑なタスクを人間の指導者から直接学習する画期的なAIエージェントシステムを発表しました。Natureに掲載された研究論文では、「文化的伝達」という手法が紹介されており、AIモデルが事前に収集された人間データに頼らずスキルを習得できるようにしています。この新しいアプローチは、個人が何かを観察して学ぶ方法に近く、ビデオチュートリアルのように学ぶことに似ています。GoalCycle3Dというシミュレーション環境で示されたユニークな少数ショット模倣プロセスを通じて、AIエージェントは人間のデモンストレーターからの行動を成功裏に模倣し、デモ終了後もタスクを記憶していることを示しました。DeepMindは、この手法が人工一般知能の発展に文化的進化を統合するための礎を築くものであると主張しています。
2. AI労働力革命に備える
Qantm AIの創業者兼CEOであるセス・ドブリンによる深い洞察に基づくコラムでは、組織や従業員がどのようにAIの進展を積極的に活用できるかについて議論されています。技術の急速な進化に伴い、現代の労働力がAI駆動の経済に迅速に適応し、再スキルを磨くことが重要です。ドブリンは、教育システム、企業のトレーニングプログラム、政府の政策がこれらの変化に合わせて進化する必要性について強調しています。生成AIの影響はすべての分野に広がり、手作業からホワイトカラーの職務に至るまで影響を及ぼしています。様々な利害関係者が連携し、この変革期に備え、労働力の混乱を最小限に抑えることが不可欠です。
3. Googleが新しい言語モデル「Gemini」を発表
Googleは、待望された次世代大規模言語モデル「Gemini」を公式に発表しました。このモデルは、同社のラインアップで最大かつ最も高性能なものとして知られています。Googleは、Geminiについて詳細な情報を公開し、このモデルにはUltra、Pro、Nanoの3つのバージョンがあることを明らかにしました。これにより、スマートフォンからデータセンターまで多様なデバイスで利用可能です。Gemini Proは、GoogleのBardチャットボットの動力源となり、その推論能力と理解力を高めています。2024年初頭には、Bard Advancedが新たな機能を追加して発表予定です。12月13日からは、開発者と企業ユーザーがVertex AIおよびGoogle AI Studio上でGemini APIを通じてGemini Proにアクセスできるようになります。
4. MetaのAudiobox:テキストをユニークな音に変換
Metaが最新の音声生成AIモデル「Audiobox」を発表しました。このモデルは、テキストを音に変換します。従来のVoiceboxとは異なり、Audioboxではユーザーが生成したい音を自然言語のプロンプトで説明することができます。たとえば、「パイナップルをかじるビーバー」と入力すると、その説明に基づいたユニークなサウンドスケープが生成されます。また、このモデルはテキストプロンプトと音声入力を組み合わせて音声を合成でき、ユーザーが生成された音のスタイルや効果をより細かくコントロールできるようになります。この機能は従来のモデルにはないものであり、Metaの研究ウェブサイトで音声サンプルを体験できます。
5. OpenAIのRain AIとの戦略的チップ購入
OpenAIは、CEOSam Altmanが共同設立したスタートアップRain AIからAIチップを5100万ドルで買収する重要な契約を結びました。この協力関係は、先進的な神経模倣処理技術に基づいており、人間の脳が情報を処理する方法を模倣することを目的としています。OpenAIとRainの先行の関わりは2019年に遡り、革新における長年のパートナーシップを示しています。最近のアルトマンを巡る内部の論争にもかかわらず、この契約はOpenAIの能力を強化し、Rainは2024年10月までに最初のハードウェアバッチを提供する見込みです。