クラウドプラットフォームが企業向けのコンピューティングインフラを急速に進化させてきたのと同様に、メンロベンチャーズは、現代のAIスタックも同じ成長経路を辿ると考えています。これには、一般向けクラウドプラットフォームに匹敵する巨額の価値創造の可能性があります。
ベンチャーキャピタル企業のメンロベンチャーズは、現在使用されている基盤となるAIモデルが、公共クラウドサービスの初期段階を反映していると指摘しています。AIとセキュリティのバランスを正しく取ることは、進化する市場がその潜在能力を実現するために不可欠です。メンロベンチャーズの最新ブログ投稿「パート1:AIのセキュリティ:AIスタックを保護するために競い合う新たなスタートアップたち」では、AIとセキュリティの交差点が新しい市場成長を促進する方法について詳述されています。
メンロベンチャーズのサイバーセキュリティ、AI、クラウドインフラに特化したパートナー、ラマ・セカールは次のように説明します。「これらの基盤モデルは、現在私たちが知っているAWSやAzureといった公共クラウドと非常に似ています。しかし、12〜15年前にインフラストラクチャサービスが始まると、新しい基盤が確立された際に巨大な価値創造が見られました。」セカールはさらに、「我々は同様の現象が近い将来に見られると信じています。基盤モデルプロバイダーはインフラストラクチャスタックの基礎に位置しています」と述べました。
ジェネレーティブAI成長を加速するためのセキュリティ課題の解決
インタビューの中で、セカールとメンロベンチャーズのプレスペクティブであり、サイバーセキュリティ、SaaS、サプライチェーン、オートメーションを専門とするフェイザ・ハスカラマンは、AIモデルが新しい現代AIスタックにおいて中心的な役割を果たすと強調しました。このスタックは企業の機密データの継続的なフローによる自己学習に依存しています。AIの普及により脅威の表面が指数関数的に増加し、大規模言語モデル(LLM)は主要な攻撃対象となっていることに注意を促しました。
現在のツールでLLMを保護することは困難であり、企業内での信頼のギャップが生じています。このギャップは、ジェネレーティブAIに関する期待とその実際の実装との間にある乖離から生まれています。一方で、攻撃者はAIベースの手法をどんどん使用しており、企業の競争に対する懸念が増しています。
ジェネレーティブAIの真の市場潜在能力を解き放つためには、セキュリティの懸念に対処することが不可欠です。メンロベンチャーズの調査によると、ジェネレーティブAIの採用に対する三つの主な障壁は、ROIが未検証であること、データプライバシーの問題、そして企業データがAIと利用するのが難しいという誤解です。
AIのセキュリティを向上させることで、データプライバシーの懸念を軽減し、他の二つの障壁にも対処できることが期待されます。最近、OpenAIのモデルはサイバー攻撃にさらされており、昨年11月にはAPIとChatGPTサービスが影響を受けるDoS攻撃が発生し、多くのダウンタイムを引き起こしました。
ガバナンス、可視性、安全性:AIセキュリティの重要な基盤
メンロベンチャーズは、ガバナンス、可視性、セキュリティがAIセキュリティの拡張に不可欠な基本要素であると主張しています。これらの要素は市場マップの基礎を形成しています。
ガバナンスツールは急速に成長しています。メディアの報道によると、特に市場投入時間やグローバルなスケーラビリティの利点を提供するクラウドベースのソリューションを提供するAIベースのガバナンスおよびコンプライアンスのスタートアップが急増しています。CredoやCraniumのようなツールは、企業がAIサービスの追跡、安全性やセキュリティリスクの評価、及び組織内でのAIの利用の包括的な把握を支援し、LLMの保護と監視において重要です。
可視性ツールは、モデルを監視し、アクセス、入力、出力に関するログを集約するために不可欠であり、誤用の検出を助け、完全な監査が可能になります。メンロベンチャーズは、HeliconeやCalypsoAIのようなスタートアップがソリューションスタックでこのニーズに応えていると指摘しています。
セキュリティソリューションは信頼の境界を設定することに重点を置いています。セカールとハスカラマンは、内部および外部でのモデル使用に厳格な管理を行う必要性を訴えています。特に、入力と出力を検証し、プロンプトインジェクションから保護し、個人を特定可能な情報(PII)を検出するAIファイアウォールプロバイダー(Robust IntelligenceやPrompt Securityなど)に注目しています。Private AIやNightfallのような企業は、機密データの特定と削除を専門にしており、LakeraやAdversaのような企業はセキュリティ対策の強靭性をテストするためのレッドチーム活動を自動化することを目指しています。HiddenlayerやLasso Securityのような脅威検出ソリューションも、LLMの疑わしい行動を監視するために重要です。さらに、DynamoFLやFedMLによるフェデレーテッドラーニング、TonicやGretelによる合成データ生成、Private AIやKobalt Labsによる機密情報の特定などのソリューションは、以下のAIセキュリティ市場マップに不可欠です。
DevOpsにおけるAIのセキュリティの優先事項
エンタープライズアプリケーションの多くがオープンソースソリューションを利用しているため、ソフトウェアサプライチェーンのセキュリティも、メンロベンチャーズが信頼のギャップを軽減しようとする別の分野です。
セカールとハスカラマンは、AIセキュリティがDevOpsプロセスに内在する形で統合され、企業アプリケーションアーキテクチャの基盤となるべきだと主張しています。AIのためのセキュリティが非常に広範に埋め込まれ、保護の価値が現在の信頼のギャップを埋める手助けをすることが、ジェネレーティブAIのより広範な採用を促進することであると強調しました。