開発者のためのジェネレーティブAI活用ガイド:カスタマイズされたユースケースアプローチで始める旅

生成AIは人間の生産性を大幅に向上させる可能性を秘めていますが、基盤モデルをゼロから開発・訓練できる専門知識とリソースを持つ組織は限られています。この課題は二重です。一つは、コンテンツ所有者による厳しい知的財産権のために、必要なトレーニングデータを収集することがますます難しくなっていること。もう一つは、トレーニングに必要な財政的リソースが高額になりがちなことです。それにもかかわらず、生成AI技術を広く利用可能にすることによる社会的利益は大きいです。

では、小規模な企業や個人開発者はどのように生成AIをアプリケーションに組み込むことができるのでしょうか?その解決策は、既存の基盤モデルのカスタマイズ版を作成・展開することにあります。

新しい生成AIモデルの開発には多大な投資が必要なため、様々なアプリケーションに対応できる柔軟性が求められます。現在のGPTベースモデルが使用される多様な方法からもわかるように、一般的なモデルが特定のドメインのニーズに適しているとは限りません。特定のニッチ向けに大規模なモデルを使用すると、計算資源、時間、エネルギーを不必要に消費する結果となります。

したがって、ほとんどの企業や開発者は、大きな生成AIモデルを基盤として使用し、特定のニーズに合わせてアダプトすることで、開発の手間を大幅に減らすことができます。このアプローチにより、利用可能なCPUやAIアクセラレーターを使用し、GPUの不足問題を回避しながら柔軟なインフラを提供できます。重要なのは、特定のユースケースに集中し、オープンで標準に基づくソフトウェアと広く利用可能なハードウェアを通じて、プロジェクトの範囲を絞りつつ柔軟性を最適化することです。

ユースケースアプローチを通じたAIアプリケーション開発

ソフトウェア開発において、ユースケースはターゲットユーザーの特徴、解決すべき問題、およびアプリケーションの実現方法を明確にします。この定義は製品の要件を決定し、ソフトウェアアーキテクチャに影響を与え、製品ライフサイクルのロードマップを提供します。最も重要なのは、プロジェクトの範囲を明確にすることです。

生成AIプロジェクトにおいて、ユースケースの設定はモデルのサイズ、計算要求、エネルギー消費を削減し、特定のデータセットに焦点を当てることで正確さを向上させることができます。このターゲットアプローチは、開発コストと手間の削減に繋がります。

ユースケースを定義する際には、プロジェクトごとに異なる要因が考慮されますが、以下のガイドラインを使うと良いでしょう:

- データ要件: どの種類と量のトレーニングデータが必要で、入手可能なのか?データは構造化されているのか、非構造化されているのか?アプリケーションはデータをどのように処理するのか—バッチ処理かストリーミングか?モデルの更新頻度はどのくらいか?健康管理などのリアルタイムな情報が重要なアプリケーションでは、データが常に最新であることを確保するために、別のアプローチが必要になるかもしれません。

- モデル要件: モデルのサイズ、パフォーマンス、結果の透明性など、適切なモデルを選ぶ際に考慮すべき重要な要素です。大規模な言語モデル(LLM)のパフォーマンスは、数十億から数兆にわたります。たとえば、MetaのLlama 2は70億から700億のパラメータを持つバージョンを提供し、OpenAIのGPT-4は1.76兆のパラメータを有すると報告されています。大きなモデルは一般的に高いパフォーマンスを発揮しますが、特定のニーズには小さなモデルの方が適している場合もあります。

- アプリケーション要件: 精度、レイテンシ、プライバシー、安全性などの必要な基準を特定しましょう。同時にサポートすべきユーザー数はどれくらいか?ユーザーはこのアプリケーションとどのようにインタラクトするのか?低レイテンシのエッジデバイスで動作させるか、高キャパシティのクラウド環境で運用するかによって、実装の決定に大きく影響します。

- 計算要件: 上記の要因が明確になったら、必要な計算リソースを確認します。データ処理を並列化する必要がありますか?ファインチューニングや推論の要件に基づき、ハイブリッドなクラウドエッジセットアップが必要ですか?生成AIモデルをゼロから開発するためのリソースを持っている場合でも、必要な計算インフラの再構築が予算に収まるかを評価すべきです。

これらの考慮事項は、プロジェクトの要件を定義しスコープを狭めるための議論を導きます。データエンジニアリング、前払いの開発費用、推論コストをサポートするビジネスモデルなどの財政的な側面も、データ、訓練、デプロイメントの戦略を左右します。

Intelの生成AIテクノロジーが提供するサポート

Intelは多様な計算ニーズに適した異質なAIハードウェアソリューションを提供しています。ハードウェアの潜在能力を最大化するために、Intelは人気のデータ分析ツールとエンドツーエンドのAIツールの最適化版を提供しています。最近、IntelはHugging FaceのオープンLLMリーダーボードで第1位にランクインした7Bパラメータモデルを紹介しました(2023年11月現在)。IntelのAI開発者エコシステムからのリソースは、アプリケーションの精度、レイテンシ、安全性の要求を満たすことができます。Hugging FaceやGitHubでは、Intelハードウェア向けに最適化された数百の事前学習モデルから始められます。データをIntelのツール(Modinなど)を使って前処理し、FoundationモデルをIntel® Extension for TransformersやHugging Face Optimumなどのツールで微調整し、SigOptでモデルチューニングを自動化することができます。

生成AIユースケースの例

1. カスタマーサービス:チャットボットのユースケース

LLMベースのチャットボットは、よくある問い合わせに即座に応答することでサービスの効率を向上させ、担当者がより複雑な問題に取り組む時間を増やします。一般的なLLMは、さまざまな言語で会話が可能ですが、特定のビジネス知識が欠けている場合や、確証のない情報を自信を持って「ハルシネート」することがあります。ファインチューニングはモデルを段階的に更新し、文書からの関連データを取得するためのリトリーバル方式(例:RAG)も活用できます。どちらのアプローチも、コンテキスト特異的な応答を生成し、Intel® Xeon® Scalableプロセッサーのような利用可能なCPUを活用できます。

2. 小売:バーチャル試着のユースケース

生成AIは、バーチャル試着などの没入型オンラインショッピング体験を提供し、顧客満足度を高め、サプライチェーンの効率を最適化します。このアプリケーションは画像生成に基づいており、特定の衣料品ラインに焦点を当てる必要があります。Stable Diffusionのような画像モデルのファインチューニングには、CPUプラットフォームで処理される限られた数の画像が必要です。顧客プライバシーを保護するため、画像はローカルに保存し、消費者デバイスに保存される可能性があります。

3. 医療:患者モニタリングのユースケース

生成AIとリアルタイム患者モニタリングを組み合わせることで、個別のレポートやアクションプランを生成できます。このユースケースでは、さまざまな入力タイプを処理するためにマルチモーダルAIが必要です。医療でモデルを訓練することはプライバシーの懸念を伴うため、患者データは提供者のもとに保持する必要があります。連合学習により、モデルは機密データを転送することなくローカルで訓練できます。ローカル推論が理想的ですが、場合によってはエッジコンポーネントとクラウドコンポーネントのハイブリッドソリューションが必要になるかもしれません。

どのように始めるか

まず、上記のガイドラインに基づいてユースケースを定義し、データ、計算、モデル、アプリケーションの要件を明確にしましょう。次に、AIエコシステムで利用可能な基盤モデル、参照実装、コミュニティリソースを探求します。プロジェクトに最適なファインチューニングと最適化技術を特定し、活用してください。

計算ニーズを把握することは時間がかかり、プロジェクトの進行中に進化する場合があります。Intel® Developer Cloudは、開発を開始するために必要なさまざまなCPU、GPU、AIアクセラレーターを提供します。

最後に、開発とデプロイの各段階で異なる計算プラットフォーム間の移行を容易にするために、広く利用可能でオープンで標準に基づくAIツールやフレームワークを選択し、さまざまなデバイスで最適なパフォーマンスを発揮できるようにしましょう。

さらに学ぶ: IntelAIソフトウェア、IntelDeveloper Cloud、IntelAIリファレンスキット、oneAPIによる統一プログラミング

ジャック・エリクソンは、IntelのAIソフトウェア部門のプリンシパルプロダクトマーケティングマネージャーです。チャンダン・ダマンナガリは、IntelのAIソフトウェア部門のディレクターです。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles