IBMのAIソリューションにおけるARTの活用法:敵対的頑健性ツールボックスの効果的な使用タイミング

IBMはオープンソースの取り組みである「Adversarial Robustness Toolbox(ART)」を通じて、人工知能(AI)のセキュリティを強化しています。本日、ARTがHugging Faceに登場し、AIユーザーやデータサイエンティストが潜在的なセキュリティリスクを最小限に抑えるためのツールを提供します。このリリースは新たなマイルストーンを迎えましたが、ARTは2018年からの開発を経て、2020年にはLinux Foundationにオープンソースプロジェクトとして寄付されました。IBMは、DARPAの「Guaranteeing AI Robustness Against Deception(GARD)」イニシアチブの一環として、ARTを進化させ続けています。

AI技術の普及が進む中、AIセキュリティへの注目が高まっています。一般的な脅威には、学習データの汚染や、悪意のあるデータを組み込むことでAIモデルを誤導する回避手法が含まれます。ARTをHugging Faceと統合することで、IBMは開発者が脅威を効果的に軽減できる防御ツールへのアクセスを向上させることを目指しています。Hugging FaceのAIモデルを利用する組織は、回避攻撃や汚染攻撃からシステムを保護しながら、これらの防御をスムーズにワークフローに統合できます。

「Hugging Faceは最先端のモデルを多数収蔵しています」とIBMのAIセキュリティおよびプライバシーソリューションマネージャーであるナタリー・バラカルド・アンヘル氏は述べています。「この統合は、コミュニティがHugging Faceモデル向けにART内のレッドブルーチームツールを活用できるようにします。」

ARTの歩み:DARPAからHugging Faceへ

IBMのAIセキュリティに関する取り組みは、現在の生成系AIブームに先立つもので、AI技術を保護するための積極的なアプローチを示しています。ARTはオープンソースの取り組みとして、Linux FoundationのLF AI & Dataプロジェクトの一部となっており、さまざまな組織からの多様な貢献を受けています。また、DARPAはGARDイニシアチブの一環としてIBMのART機能拡張を支援しています。ARTはLinux Foundationに残る一方で、Hugging Faceモデルへのサポートを拡大しています。Hugging FaceはAIモデルの共有に特化した協力プラットフォームとして急速に成長しており、IBMはNASAとの共同プロジェクトを含む、多くのパートナーシップを締結しています。

敵対的ロバストネスとAIにおける重要性

敵対的ロバストネスは、AIセキュリティを強化するために不可欠です。アンヘル氏は、これは機械学習システムを脅かす可能性のある敵対的な試みに気づき、それに対抗するための防御を積極的に構築することを指しています。「この分野では、機械学習パイプラインを効果的に保護するために、敵対的戦術を理解することが求められます」と彼女は述べ、関連するリスクを特定し軽減するためのレッドチームアプローチの重要性を強調しました。

2018年に始まったARTは、さまざまな攻撃と防御の変化するAI脅威に対応するよう進化しています。これには、物体検出や追跡、音声処理などの多様なモダリティにわたる攻撃が含まれます。「最近では、CLIPのようなマルチモーダルモデルを統合することに注力しており、これが近日中にシステムで利用可能になります」と彼女は言及しました。「セキュリティのダイナミックな状況では、進化する脅威や防御に対応するために新しいツールを継続的に開発することが重要です。」

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles