ジェネレーティブAIのリスクとセキュリティ対策
ITリーダーたちは、マーケティング、デザイン、製品開発、データサイエンス、オペレーション、営業などの重要な業務機能において、ジェネレーティブAIを優先的に活用しています。また、ワクチン開発やがん検知、環境・社会・ガバナンスの取り組みなど、人道的な活動でも重要な役割を果たしています。しかし、これらの応用には、プライバシー、コンプライアンス、機密データや知的財産の損失といった独自のセキュリティリスクが伴います。ジェネレーティブAIの採用が拡大する中で、リスクはますます高まるでしょう。
「組織はすべてのジェネレーティブAIプロジェクトを計画的に進める必要があります。現在のリスクだけでなく、将来の課題も考慮に入れなければなりません」と、シスコのOutshiftにおけるSVPであるビジョイ・パンディ氏は警告します。「イノベーションとユーザーの信頼のバランスを取り、プライバシー、信頼性、説明責任を優先することが重要です。」
ジェネレーティブAIの特有リスクの理解
ジェネレーティブAIに関連するリスクは、従来の技術とは異なります。高度なフィッシング攻撃がディープフェイク技術を利用することで、個人を誤解させ、身元詐欺を助長します。また、詐欺師は企業のカスタマーサービス担当者を装って機密情報を不正に取得し、大きな経済的損失を引き起こす可能性があります。
さらに、ユーザーはしばしば無意識に機密情報をジェネレーティブAIモデルに入力し、これがトレーニング目的で保持されることでプライバシー compliance とデータ保護に関する懸念が高まります。新たな規制に対して警戒を怠らないことが、組織には求められます。
大規模言語モデル(LLM)の膨大なデータ要件はリスクを抱えていますが、既存のセキュリティフレームワークは生データやデータ漏洩のリスクを軽減するのに役立ちます。詐欺師はジェネレーティブAIのプロセス内の脆弱性を利用し、正確な予測を妨げたりサービスを拒否させたり、運用システムに侵入してソーシャルメディアの評判に悪影響を及ぼす恐れがあります。
「データの毒盛りやモデルの逆転といった脅威に直面する中で、検出が最も重要です」とパンディ氏は説明しています。「我々は信頼の限界を基にモデルの出力を評価しますが、攻撃者がプロセスを妨害すれば、信頼基準が揺らぐ可能性があります。」
問題の即時検出は困難であり、問題は通常時間をかけて現れます。セキュリティオペレーションチームは、MITRE ATLASやOWASP Top 10といったリソースを活用し、新たなジェネレーティブAIセキュリティ問題に対応しています。「ジェネレーティブAIはまだ進化しており、セキュリティもそれに伴って進化しなければなりません」とパンディ氏は警告します。「これは継続的な旅です。」
知的財産セキュリティと透明性の問題
ジェネレーティブAIは膨大なデータセットと複雑なアルゴリズムを処理して複雑な出力を生成しますが、ユーザーは通常、提供される情報の出所を追跡することができず、結果として知的財産の露出に関する重要なリスクが生じます。これは、外部のトレーニングデータだけでなく、ユーザーが入力したコンテンツにも起因します。
「データへのアクセスを確保し、知的財産や機密情報が組織を離れたりモデルに誤って入力されたりしないよう守ることが課題です」とパンディ氏は述べています。「オープンソースやライセンスコンテンツを不適切に使用していないか確認する必要があります。」
さらに、ジェネレーティブAIモデルはリアルタイムのデータの関連性や具体性に欠けることが多く、現在のビジネスコンテキストを取り入れ、検証用の引用を提供するリトリーバル強化生成(RAG)などのアプリケーションに影響を与えることがあります。RAGはLLMを強化し、継続的な学習を可能にすることで不正確さを減らし、機密情報を安全に保つことができます。
「RAGは量子物理学を学ぶために図書館に一般人を送り込むようなものです」とパンディ氏は説明します。「関連情報の収集と取り入れを行い、それがRAGの本質です。挑戦には直面しますが、実験を通じて、データの完全性を損なうことなく組織のニーズに合わせた基盤モデルをカスタマイズします。」
ユーザーの安全を確保し、未来を見据える
「現在、ジェネレーティブAIのユースケースは明確に定義されていますが、今後数年でそれは私たちが創造したり消費したりするすべてに浸透していくでしょう」とパンディ氏は予測します。「そのためには、ゼロトラストアプローチを採用する必要があります。」
データからモデル、ユーザーアクセスに至るまで、パイプラインのすべてのコンポーネントに失敗の可能性があると考えるべきです。また、この技術の新しさから、確立されたルールがないため、人為的エラーや脆弱性が見落とされがちです。包括的なドキュメンテーションは、潜在的な違反を扱い、セキュリティ対策を優先させるために重要です。
「目標を明確にし、データソース、製品化されたモデル、トレーニングプロセスを文書化しましょう」とパンディ氏はアドバイスします。「アプリケーションの重要性に応じて分類し、その重要性を反映したセキュリティポリシーを策定することが求められます。」
セキュリティは、インフラからアプリケーションに至るまで、すべてのレベルに組み込まれるべきです。もし一層が失敗した場合、深層防御戦略が追加の保護を提供し、セキュリティは継続的な旅であることを示します。「ジェネレーティブAIのセキュリティを管理するためには、他のモデルのセキュリティの懸念を扱うためのモデルを開発する確率過程が解決策です」とパンディ氏は示唆します。
ジェネレーティブAIにおけるユーザー信頼の重要性
ユーザーの信頼は、ビジネスのパフォーマンス指標の一つです。「セキュリティはユーザーエクスペリエンスに影響を与え、ジェネレーティブAIソリューションの成功に直接的な影響を及ぼします」とパンディ氏は強調します。信頼の喪失は収益に甚大な影響を及ぼす可能性があります。
「安全性のないアプリケーションは実質的に存在しなくなり、関連する収益化やビジネス目標は無意味になります」と彼は説明します。「同じことが、安全でないジェネレーティブAIモデルやアプリケーションにも当てはまります。セキュリティがなければ、モデルは使用できず、ビジネスの成長を妨げます。」
逆に、顧客が自分のプライベートデータが不正に取り扱われたことを知ると、特にジェネレーティブAI環境において、信頼が急速に損なわれ、AI技術の脆弱なイメージをさらに悪化させることがあります。
これら二つの同時の課題は、組織がリスクを十分に把握し、効果的な解決策を構築するために時間を要することを意味しています。「ゼロトラストの哲学を採用し、強力な防御を築き、ジェネレーティブAIの不透明性を意識することが必要です」とパンディ氏は結論付けます。「今日の出発点は、3年後には大きく異なり、ジェネレーティブAIとその関連セキュリティ施策が迅速に進化していくことを認識しましょう。」