IBM은 오픈 소스 이니셔티브인 Adversarial Robustness Toolbox(ART)를 통해 인공지능(AI) 보안을 강화하고 있습니다. 오늘 ART가 Hugging Face에서 출시되며 AI 사용자와 데이터 과학자들이 잠재적인 보안 위험을 최소화할 수 있도록 설계된 도구를 제공합니다. 이번 출시로 새로운 이정표가 세워지지만, ART는 2018년부터 개발되어 2020년에는 리눅스 재단에 오픈 소스 프로젝트로 기여되었습니다. IBM은 DARPA의 '사기 대비 AI 강건성 보장'(GARD) 이니셔티브의 일환으로 ART를 지속적으로 발전시켜 왔습니다.
AI 기술의 보급이 증가함에 따라 AI 보안에 대한 관심이 높아지고 있습니다. 일반적인 위협으로는 훈련 데이터의 오염 및 악의적인 데이터 삽입이나 입력 객체 조작을 통한 회피 전술이 있습니다. IBM은 ART를 Hugging Face와 통합하여 개발자들이 위협을 더욱 효과적으로 완화할 수 있는 방어 AI 보안 도구를 접근성 높게 제공하고자 합니다. 이제 Hugging Face의 AI 모델을 활용하는 조직들은 회피 및 오염 공격에 대한 방어를 시스템에 원활하게 통합할 수 있습니다.
“Hugging Face는 최첨단 모델의 방대한 컬렉션을 보유하고 있습니다.”라고 IBM AI 보안 및 개인정보 보호 솔루션 관리자인 Nathalie Baracaldo Angel은 말했습니다. “이 통합을 통해 커뮤니티는 Hugging Face 모델에 대해 ART 내의 레드-블루 팀 도구를 활용할 수 있습니다.”
ART의 여정: DARPA에서 Hugging Face까지
IBM의 AI 보안에 대한 헌신은 현재의 생성적 AI 붐 이전부터 시작되어 AI 기술을 보호하기 위한 선제적 접근 방식을 보여줍니다. 오픈 소스 이니셔티브로서 ART는 리눅스 재단의 LF AI & Data 프로젝트의 일환이며, 다양한 조직의 기여를 통해 혜택을 보고 있습니다. 또한 DARPA는 GARD 이니셔티브에 따라 ART의 역량을 강화하기 위해 IBM에 자금을 지원하였습니다.
ART가 리눅스 재단에 포함된 것은 변함이 없지만, 이제 Hugging Face 모델을 지원합니다. Hugging Face는 AI 모델 공유를 위한 협업 플랫폼으로 빠르게 주목받고 있으며, IBM은 NASA와 협력하여 지리공간 AI에 초점을 맞춘 공동 프로젝트를 포함하여 여러 파트너십을 체결했습니다.
AI에서의 적대적 강건성과 그 중요성 이해하기
적대적 강건성은 AI 보안을 강화하는 데 필수적입니다. Angel은 이 개념이 머신 러닝 시스템을 손상시키려는 잠재적 적대적 시도를 인식하고 사전 방어를 구축하는 것이라고 설명합니다. “이 분야는 머신 러닝 파이프라인을 효과적으로 보호하기 위해 적대적 전술을 이해하는 것이 필요합니다.”라고 그녀는 서술하며 관련 위험을 식별하고 완화하기 위한 레드 팀 접근법의 중요성을 강조했습니다.
2018년 출범 이후 ART는 객체 감지, 추적, 오디오 처리 등 여러 분야에서의 다양한 공격과 방어를 포함하여 AI 위협의 변화하는 환경에 대응하기 위해 발전해 왔습니다. “최근 우리는 곧 시스템에서 사용할 수 있는 CLIP과 같은 다중 모드 모델 통합에 집중했습니다.”라고 그녀는 덧붙였습니다. “보안의 역동적인 환경에서는 진화하는 위협과 방어에 대응하기 위해 지속적으로 새로운 도구를 개발하는 것이 중요합니다.”