共有する前に再考を: MetomicがChatGPTでデータ漏洩を防ぐ方法を発見しよう

OpenAIのChatGPTは、私たちの働き方を大きく変える可能性を秘めていますが、企業への導入には課題が伴います。企業は生成AIを競争優位性と認識する一方で、機密情報が漏洩するリスクも高いのです。

無制御な使用の課題

多くの従業員は、企業の承認なしにChatGPTを利用し、無意識のうちに機密データを共有しています。この問題を解決するために、Metomicが登場しました。同社は、OpenAIの大規模言語モデル(LLM)内でのユーザーの活動を追跡するためのブラウザプラグイン「Metomic for ChatGPT」を発表しました。

「これらのアプリには周囲の境界がなく、データ共有が無秩序に行われている」と、MetomicのCEOリッチ・バイバート氏は述べています。「誰も全体を把握できません。」

データ漏洩の実態

研究によると、15%の従業員が会社のデータを定期的にChatGPTに入力しており、ソースコード(31%)、内部ビジネス情報(43%)、および個人識別情報(PII)(12%)が主な内容です。この活動が行われている主な部門は、研究開発、財務、販売/マーケティングとなっています。

「これは新たな問題です」とバイバート氏は強調し、社員のツール使用に対する企業の「大きな不安」を指摘しました。「制約がないため、ブラウザさえあれば使えます。」

Metomicの調査によれば、従業員は重要な財務データ(バランスシートやコードスニペットなど)を漏洩させています。特に懸念されるのは、顧客のチャット記録が露出することで、名前、メールアドレス、クレジットカード番号などの機密情報が蓄積される可能性があります。

「顧客の完全なプロフィールがこれらのツールに入力されています」とバイバート氏は言い、競合他社やハッカーによるアクセスのリスクがあることを警告しました。

悪意のある内部の脅威

意図しない漏洩に加えて、退職する従業員が生成AIツールを利用して独自データを持ち去るリスクや、悪意を持った内部者による機密情報の故意の漏洩も存在します。いくつかの企業はChatGPTおよび同様のプラットフォームを禁止する選択をしていますが、バイバート氏はこれは持続可能な戦略ではないと警告しています。

「これらのツールは今後も存在し続けます」と彼は主張し、ChatGPTが生産性と効率を向上させる価値を強調しました。

従業員のエンゲージメントを重視したデータセキュリティ

MetomicのChatGPT統合はブラウザ内で機能し、従業員がプラットフォームにログインするとリアルタイムでアップロードされたデータをスキャンします。もし個人識別情報やセキュリティ資格情報などの機密データが検出された場合、ユーザーに対してそのデータを修正または適切にカテゴリ分けするよう通知します。

また、セキュリティチームには潜在的なデータ漏洩についてのアラートが届き、事前に対策が講じられます。

「これは従業員の視点からのデータセキュリティです」とバイバート氏は述べ、完全な制限ではなく可視性と制御の重要性を強調しました。「雑音をセキュリティと分析チームにとって実行可能な洞察に変えます」と彼は付け加え、IT部門が直面するアラート疲れに対抗します。

SaaSエコシステムのナビゲート

現在、企業はおおよそ991のSaaSアプリケーションを利用しており、そのうち接続されているのは25%に過ぎません。バイバート氏はSaaSツールの利用が前例のないほど増加していることを強調し、Metomicがさまざまなアプリケーションと接続でき、業界規制などの文脈要因に基づいて重要なデータリスクを認識する150のデータ分類器を備えていることを指摘しました。

「データがどこに存在するかを理解することが不可欠です」と彼は述べ、特定の部門や従業員内の「データホットスポット」の特定の重要性に言及しました。SaaSエコシステムの拡大に伴い、ChatGPTのような生成AIツールの使用も増加することでしょう。バイバート氏は「これは長い旅の始まりに過ぎません」と的確に述べています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles