セキュリティチームは、脅威検出戦略を強化するために、ChatGPTのような革新的なツールを積極的に検討しています。ガートナーの上級ディレクター兼アナリスト、デニス・シュー氏によれば、生成的AIツール(ChatGPTを含む)は、検出エンジニアリングやトレーニングなどの分野でセキュリティ専門家の支援に大きな可能性を秘めていますが、プレミアム版のコストが障壁となることがあります。
ロンドンで開催されたガートナー セキュリティ&リスク管理サミットにて、シュー氏は基本的な無料版ChatGPT(GP-3.5 Turboモデル)では、文脈保持やコーディングタスクに苦戦していると指摘しました。このため、セキュリティ専門家は、役割に必要な機能を実現するために、月額20ドルのChatGPT Plusや新しいChatGPT Enterprise版を選択する必要がある場合があります。組織が拡大するにつれて、利用者数に応じてコストは大幅に増加する可能性があります。
シュー氏は、Enterprise版が基本版やPlus版に比べてデータ管理が強化されていると強調しましたが、完全な展開準備が整っていないことには注意が必要です。それにもかかわらず、多くの主要なセキュリティ企業は、生成的AI機能の開発に積極的です。例えば、シスコのSplunk買収はデータ分析能力の向上を図っており、Privaceraは6月に生成的AIソリューションを発表しました。Nvidiaは、AI Enterprise 3.0スイートの一環として、深層学習セキュリティソフトウェアライブラリ「Morpheus」を導入しています。シュー氏は、企業がChatGPTの自然言語インターフェースを既存の製品に統合し、機能を効率化する傾向があると観察しています。
WormGPTやFraudGPTのような革新的なセキュリティツールも登場していますが、これらは「詐欺師を騙す」設計となっているため、アクセスには投資が求められることをシュー氏は警告します。広く利用可能なモデル(ChatGPTなど)は、フィッシングメールの生成など、同様の機能を果たすことができる状況にあります。シュー氏は、これがAIセキュリティ界における「軍拡競争」を引き起こしており、悪意のある行為者が優位に立っていると述べています。「たった月20ドルで、悪意のあるユーザーはマルウェアやフィッシングメールを作成できる一方で、防御側は同様の効率を得るためにはるかに高いコストがかかります」と彼は強調しました。
AIツールの限界を理解することが重要です。シュー氏はChatGPTを広範なデータセットで訓練された5歳の子どもに例え、特定のセキュリティタスクには有用であるものの、他のタスクには不十分であると指摘しました。「5歳の子どもに聞かない質問もある」と彼は皮肉交じりに語り、現実的な期待と検証の重要性を強調しました。セキュリティオペレーション(SecOps)の領域では、AIが生成した洞察の正確性を判断することが難しい場合があります。
シュー氏はまた、脆弱性管理や攻撃面管理にAIシステムを適用するための堅固なユースケースが不足しているとも指摘し、GoogleのSec-PaLMのみが悪意のあるスクリプトを認識できる確立された脅威検出用言語モデルであると述べました。しかし、まだ初期段階であり、基準が公表されていないと付け加えました。
ChatGPTのようなAIツールを導入しようとするセキュリティチームには、明確なガバナンスルールとプレイブックを確立することが不可欠です。「AIツールをどのように活用するかを理解し、明確なSecOpsユースケースを設定することが重要です」と彼は助言しました。シュー氏は、時間に敏感なケースや機密企業データに関わるシナリオを避ける重要性を強調し、組織がAIインタラクションに関するトレーニングを提供し、モニタリングプロトコルを実施することを推奨しました。
AIの変遷に対する意識も重要です。生成的AIツールは、同じクエリに対して一貫した応答を提供しない可能性があります。また、シュー氏はチームがテクノロジーの最新情報に注意を払うよう促しました。例えば、OpenAIは最近、GPT-4Vを用いた新しい機能をChatGPTに追加し、音声と画像によるインタラクションを可能にしました。この可能性に対して彼は期待を寄せ、チームがシステムと直感的に関わるシナリオを想像しました。
最終的に、ChatGPTのようなAIツールは、セキュリティ専門家の作業を効率化するために役立つ可能性がありますが、人間の専門知識を置き換えるものではありません。シュー氏は「このテクノロジーはまだ5歳の赤ちゃんであり、学ぶべきことが多い」と警告し、進化する中でこれらのツールを賢明に効果的に使用する重要性を強調しました。