생성형 AI를 어떻게 안전하게 지킬 수 있을까요? IBM의 접근 방식에서 얻은 통찰력

조직들이 생성적 AI의 잠재력을 점점 더 활용함에 따라, 보안 문제도 증가하고 있습니다. 오늘 IBM은 생성적 AI를 위한 새로운 보안 프레임워크를 출시하여 이러한 위험에 대응하고 있습니다. IBM의 생성적 AI 보안 프레임워크는 데이터 수집부터 생산 배포까지 전체 생애 주기 동안의 워크플로우를 보호하는 것을 목표로 합니다. 이 프레임워크는 조직이 생성적 AI를 다룰 때 직면할 수 있는 일반적인 보안 위협에 대한 인사이트와 효과적인 방어 전략을 위한 실행 가능한 권장 사항을 제공합니다. 지난 1년 동안 IBM은 고급 모델과 거버넌스 도구를 포함한 watsonX 포트폴리오로 생성적 AI 역량을 강화했습니다.

IBM 보안의 신흥 기술 프로그램 디렉터인 라이언 도허티는 이 프레임워크의 중요성을 강조하며, “우리는 가장 가능성이 높은 공격과 조직이 생성적 AI 이니셔티브를 보호하기 위해 구현해야 할 최상위 방어 수단을 정리했습니다”라고 말했습니다.

생성적 AI 보안의 독특한 점은 무엇인가요?

IBM은 보안 분야에서 풍부한 경험을 가지고 있지만, 생성적 AI 워크로드와 관련된 위험은 친숙하면서도 독특합니다. IBM 접근 방식의 세 가지 핵심 원칙은 데이터, 모델, 사용의 보안을 확보하는 것입니다. 이러한 기둥은 전체 프로세스에 걸쳐 안전한 인프라와 AI 거버넌스의 필요성을 강조합니다.

IBM 보안의 펠로우이자 CTO인 스리다르 무피디는 접근 제어와 인프라 보안과 같은 기본 데이터 보안 관행이 생성적 AI에서도 전통적인 IT 환경과 마찬가지로 중요하다고 강조했습니다. 그러나 생성적 AI와 관련된 특정 위험도 있습니다. 예를 들어, 데이터 포이즈닝은 데이터셋에 잘못된 데이터를 투입하여 부정확한 결과를 초래하는 문제입니다. 무피디는 또한 편향, 데이터 다양성, 데이터 드리프트 및 개인 정보 보호 문제는 이 분야에서 특히 주의가 필요하다고 지적했습니다. 또한 사용자가 프롬프트를 통해 모델 출력을 악의적으로 변경하는 프롬프트 인젝션은 새로운 위험 영역으로, 이를 위한 새로운 통제가 필요합니다.

핵심 보안 개념: MLSecOps, MLDR, AISPM

IBM의 생성적 AI 보안 프레임워크는 단순한 도구가 아니라 생성적 AI 워크플로우를 보호하기 위한 지침과 권장 사항의 모음입니다. 생성적 AI 환경이 발전함에 따라, 머신러닝 탐지 및 대응(MLDR), AI 보안 자세 관리(AISPM), 머신러닝 보안 운영(MLSecOps)과 같은 새로운 보안 카테고리가 등장하고 있습니다. MLDR은 모델 내의 잠재적 위험을 식별하는 데 중점을 두고, AISPM은 클라우드 보안 자세 관리(CSPM)와 유사하여 안전한 배포를 위한 적절한 구성과 모범 사례의 중요성을 강조합니다.

무피디는 “DevOps가 보안이 추가된 DevSecOps로 발전한 것처럼, MLSecOps는 설계에서 사용까지 전반적인 생애 주기 접근 방식을 반영하며 보안을 통합합니다”라고 설명했습니다. 이 프레임워크는 조직이 생성적 AI 보안의 복잡성을 더 잘 탐색하고 새로운 위협으로부터 강력한 방어를 보장할 수 있도록 합니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles