Menlo Security의 새로운 연구는 기업에서 생성적 AI의 빠른 채택이 초래하는 긴급한 사이버 보안 문제를 강조하고 있습니다. ChatGPT와 같은 도구가 일상 업무에 필수 요소로 자리 잡으면서, 기업들은 보안 전략을 재평가해야 합니다.
“직원들이 일상적인 업무에 AI를 활용하고 있습니다. 우리의 통제 장치는 오용을 차단할 뿐만 아니라 무규제 접근을 방지해야 합니다,”라고 Menlo Security의 제품 마케팅 부사장인 앤드류 하딩이 독점 인터뷰에서 밝혔습니다. “생성적 AI 사용이 기업 내에서 급격히 증가했지만, 보안 및 IT 팀은 지속적인 도전에 직면하고 있습니다. CISOs가 GenAI의 생산성 이점을 활용하면서 위험을 관리할 수 있도록 강력한 통제를 적용하는 효과적인 도구가 필요합니다.”
AI 사용의 급증과 위험
Menlo Security의 보고서는 우려스러운 경향을 보여줍니다. 최근 6개월 동안 기업에서 생성적 AI 사이트 방문 횟수가 100% 이상 증가했으며, 잦은 사용자 수도 64% 증가했습니다. 이러한 빠른 통합은 새로운 취약점을 드러냈습니다.
많은 조직이 생성적 AI를 위한 보안 조치를 강화하고 있지만, 연구자들은 대부분이 비효율적인 도메인별 정책을 시행하고 있다고 지적합니다. “조직들은 보안을 강화하고 있지만, 목표를 놓치고 있습니다. 도메인별로 적용된 정책은 불충분합니다,”라고 하딩은 강조했습니다.
이러한 파편화된 접근 방식은 새로운 생성적 AI 플랫폼의 출현에 대응하기 어려움을 겪고 있습니다. 보고서에 따르면 생성적 AI 사이트에 대한 파일 업로드 시도가 6개월 사이에 80% 증가했으며, 이는 새로운 기능에 의해 촉진되었습니다. 위험은 단순한 데이터 손실을 넘어섭니다.
전문가들은 생성적 AI가 피싱 위협을 크게 증가시킬 수 있다고 경고합니다. 하딩은 “AI 기반 피싱은 단순히 더 똑똑한 피싱입니다. 기업은 AI 기반 사기가 심각한 문제가 되지 않도록 실시간 보호가 필요합니다,”라고 말했습니다.
새로운 필수 요소로의 전환
특히 ChatGPT 출범 이후 생성적 AI의 등장은 기술적 신기성을 넘어 비즈니스 필수 요소로 변화했습니다. OpenAI는 2018년 6월에 첫 번째 생성적 AI 시스템인 GPT-1을 소개했으며, 그 후 2022년 4월에는 구글의 PaLM과 같은 5400억 개의 매개변수를 가진 발전이 있었습니다.
2021년 초 DALL-E의 도입으로 대중의 관심이 급증했지만, 2022년 11월 ChatGPT의 데뷔가 광범위한 참여를 촉발했습니다. 사용자는 이메일 작성부터 코드 디버깅에 이르기까지 다양한 작업에 이러한 도구를 신속하게 통합하며 AI의 다재다능성을 입증했습니다.
그러나 이러한 신속한 통합은 간과되기 쉬운 중요한 위험을 동반합니다. 생성적 AI 시스템은 훈련에 사용된 데이터만큼만 안전하고 윤리적이며 정확합니다. 이들은 의도치 않게 편견을 노출하고, 잘못된 정보를 퍼뜨리며, 민감한 정보를 공개할 수 있습니다.
또한, 이러한 모델은 방대한 인터넷에서 데이터를 가져오기 때문에 어떤 콘텐츠가 수집되는지 통제하는 데 어려움을 겪습니다. 만약 독점 정보가 공개되면, 이러한 AI 시스템은 이를 흡수하고 이후에 노출할 수 있습니다.
보안과 혁신의 균형 잡기
전문가들은 보안과 혁신의 효과적인 균형을 위해 다층적 접근 방식을 제안합니다. 하딩은 “복사 및 붙여넣기 제한을 внед가하고, 보안 정책을 수립하며, 세션을 모니터링하고, 생성적 AI 플랫폼 전반에 걸쳐 그룹 수준의 통제를 시행해야 합니다,”라고 제안했습니다.
조직은 과거의 기술 변화에서 배워야 합니다. 클라우드 컴퓨팅 및 모바일 기기와 같은 기술은 본질적으로 새로운 위험을 도입하여 보안 전략의 지속적인 적응을 촉발했습니다. 생성적 AI에도 동일한 선제적 접근 방식이 필수적입니다.
지금 행동할 시간입니다. “생성적 AI 사이트 방문과 활성 사용자가 증가하고 있지만, 보안 및 IT 팀은 여전히 도전에 직면하고 있습니다,”라고 하딩은 경고했습니다.
안전을 보호하기 위해, 기업은 생성적 AI의 빠른 채택에 맞춰 보안 전략을 신속하게 발전시켜야 합니다. 보안과 혁신 간의 균형을 유지하는 것이 중요하며, 그렇지 않으면 생성적 AI와 관련된 위험이 통제 불능으로 악화될 수 있습니다.