組織が生成AIの可能性を活用するにつれて、安全保障上の課題も増加しています。IBMはこのリスクに対処するため、生成AI専用の新しいセキュリティフレームワークを発表しました。この「IBM 生成AIセキュリティフレームワーク」は、データ収集から生産展開まで、ワークフロー全体のライフサイクルを保護することを目的としています。このフレームワークは、生成AIを用いる際に組織が直面する可能性のある一般的なセキュリティ脅威を明らかにし、効果的な防御戦略に関する実用的な推奨事項を提供します。過去1年間で、IBMはwatsonXポートフォリオを通じて生成AIの機能を強化し、高度なモデルとガバナンスツールを含めています。
IBMの新興セキュリティ技術プログラムのディレクター、ライアン・ドハティは、このフレームワークの重要性を次のように強調しました。「私たちは専門知識を集約し、最も一般的な攻撃と、組織が生成AIプロジェクトを守るために実施すべき主要な防御策を概説しました。」
生成AIセキュリティのユニークな特性
IBMはセキュリティにおいて豊富な経験を持っていますが、生成AIのワークロードに伴うリスクは、従来のリスクと異なります。IBMのアプローチの三つの核心的要素は、「データの保護」「モデルの保護」「利用の保護」です。これらの柱は、全プロセスにわたる安全なインフラとAIガバナンスの必要性を強調しています。
IBMのフェローでありCTOのスリダール・ムッピディは、アクセス管理やインフラストラクチャーセキュリティといった基本的なデータセキュリティの実践が、生成AIでも従来のIT環境と同様に重要であることを指摘しました。
とはいえ、生成AIに特有のリスクも存在します。たとえば、データポイズニングとは、誤ったデータをデータセットに導入し、不正確な結果をもたらすことです。ムッピディは、バイアスやデータの多様性、さらにはデータドリフトやプライバシーの懸念が特に注意を要する問題であることを指摘しました。さらに、プロンプトインジェクションでは、ユーザーが悪意を持ってプロンプトを変更しモデル出力を操作するため、新たなリスクとなります。
主なセキュリティ概念:MLSecOps, MLDR, AISPM
「IBM 生成AIセキュリティフレームワーク」は単なるツールではなく、生成AIワークフローを保護するためのガイドラインと推奨事項の集合です。
生成AIの発展に伴い、新しいセキュリティカテゴリーが登場しています。これには、機械学習検出と応答(MLDR)、AIセキュリティポスチャ管理(AISPM)、機械学習セキュリティオペレーション(MLSecOps)が含まれます。MLDRはモデル内の潜在的リスクの特定に重点を置き、AISPMはクラウドセキュリティポスチャ管理(CSPM)に似ており、適切な構成と安全なデプロイメントのためのベストプラクティスの重要性を強調しています。
ムッピディは、「DevOpsがセキュリティを追加してDevSecOpsに進化したように、MLSecOpsは設計から利用に至るまで安全を統合した包括的なライフサイクルアプローチを表しています」と説明しました。
このフレームワークにより、組織は生成AIセキュリティの複雑さをより良く理解し、新たな脅威に対して強固な防御を確立できるでしょう。