国立標準技術研究所(NIST)は、人工知能(AI)システムに対する増大する脅威に対処するための報告書を緊急に発表しました。この報告書は「敵対的機械学習:攻撃と緩和策の分類と用語」と題されており、AIシステムがますます強力になっている一方で、攻撃に対しても脆弱になっている重要な時期に発表されました。
敵対的機械学習技術を使用する攻撃者は、AIシステムを巧妙に操作し、深刻な故障を引き起こす可能性があります。報告書では、これらの攻撃の手法を攻撃者の目的、能力、及び対象AIシステムの知識に基づいて分類しています。
NISTの報告書によると、「攻撃者は人工知能システムを意図的に混乱させたり、さらに「毒物」を仕込んで誤動作させることができる」と警告しています。これは、AIの開発および展開における脆弱性を悪用するものです。
報告書では、「データポイズニング」と呼ばれる攻撃手法も取り上げています。これは、敵対者がAIモデルのトレーニングに使用するデータを変更するもので、「最近の研究では、ポイズニングが規模を持って実行可能であり、低予算の敵対者でもモデルのトレーニングに使用される公共データセットに影響を与えることができる」と記述されています。
また、「バックドア攻撃」についても深刻な懸念が示されています。これは、特定の誤分類を引き起こすためのトリガーをトレーニングデータに埋め込む手法です。報告書は、「バックドア攻撃は防御が非常に困難である」と警告しています。
さらに、AIシステムに関連するプライバシーリスクについても言及されています。「メンバーシップ推論攻撃」と呼ばれる手法は、特定のデータサンプルがトレーニングに使用されたかどうかを明らかにする可能性があります。NISTは、「AIシステムの誤導を防ぐための完璧な方法はまだ存在しない」と警告しています。
AIは業界を革新する可能性を秘めていますが、セキュリティの専門家は注意の重要性を強調しています。報告書は、「最近の深層学習の進歩により推進されるAIチャットボットは、さまざまなビジネスアプリケーションに強力な能力を提供する。しかし、この新興技術は慎重に展開する必要がある」と述べています。
NISTの目的は、AIのセキュリティ課題に対する共通理解を築くことです。この報告書は、進化する脅威に直面するAIセキュリティコミュニティにとって重要な資源となるでしょう。
AppOmniの主AIエンジニアでセキュリティ研究者のジョセフ・サッカーは、「これが私が見た中で最高のAIセキュリティ出版物です。深さとカバレッジは驚異的で、敵対的攻撃に関する最も包括的な洞察を提供しています」と述べています。
専門家が新たなAIセキュリティの脅威に立ち向かう中で、私たちは保護のための絶え間ない戦いに直面しています。リスクを無視することができないため、AIが安全に業界に統合される前に、より強力な防御が不可欠です。