멘로 벤처스의 비전: AI 보안의 미래를 설계하다

구름 플랫폼이 기업 컴퓨팅 인프라를 제공하기 위해 빠르게 발전한 것처럼, Menlo Ventures는 현대 AI 스택도 유사한 성장 경로를 따라 막대한 가치 창출 가능성을 가지고 있다고 강조합니다. 이 벤처 캐피탈 회사는 현재 사용 중인 기초 AI 모델이 공공 클라우드 서비스 초기와 유사하다고 지적했습니다. AI와 보안 사이의 적절한 균형을 이루는 것이 해당 시장의 잠재력을 실현하는 데 필수적입니다.

Menlo Ventures의 최신 블로그 게시물인 “Part 1: AI를 위한 보안: AI 스택을 보호하기 위해 경쟁하는 스타트업의 새로운 물결”에서는 AI와 보안의 융합이 새로운 시장 성장을 어떻게 이끌 수 있는지를 자세히 설명합니다. Menlo Ventures의 사이버 보안, AI 및 클라우드 인프라를 담당하는 파트너 라마 세카르는 “이 기초 모델은 현재 우리가 아는 AWS와 Azure와 같은 공공 클라우드와 매우 유사합니다. 그러나 12~15년 전 인프라 서비스 계층이 시작되었을 때 우리는 새로운 기반이 수립되면서 막대한 가치 창출을 목격했습니다.”라고 밝혔습니다.

세카르는 “우리는 유사한 일이 곧 일어날 것이라고 믿습니다; 기초 모델 제공자들이 인프라 스택의 기초를 이루고 있습니다.”라고 덧붙였습니다.

생성형 AI 성장을 가속화하기 위한 보안 문제 해결

인터뷰에서 세카르와 사이버 보안, SaaS, 공급망 및 자동화를 전문으로 하는 Menlo Ventures의 책임자 페이자 하스카라만은 AI 모델이 새로운 현대 AI 스택의 핵심이라고 강조했습니다. 이 스택은 자가 학습을 위해 지속적으로 민감한 기업 데이터를 필요로 합니다. 그들은 AI의 발전이 위협 표면을 기하급수적으로 증가시켜 대형 언어 모델(LLM)이 주요 타겟이 되고 있다고 지적했습니다.

현재 도구를 사용하여 LLM을 보호하는 것은 어려워, 기업 내에서 신뢰 격차를 초래하고 생성형 AI의 채택을 저해하고 있습니다. 이 격차는 생성형 AI에 대한 과대광고와 실제 구현 사이의 단절에서 비롯됩니다. 한편, 공격자들은 AI 기반 기술을 점점 더 많이 사용하고 있어 기업은 AI 경쟁에서 뒤처질까 우려하고 있습니다.

세카르와 하스카라만은 생성형 AI의 진정한 시장 잠재력을 열기 위해 보안 문제를 해결하는 것이 필수적이라고 믿습니다. Menlo Ventures의 조사에서는 생성형 AI 도입에 대한 세 가지 주요 장벽을 확인했습니다: 검증되지 않은 ROI, 데이터 프라이버시 문제, 그리고 기업 데이터가 AI와 함께 활용하기 어렵다는 오해입니다.

AI 보안을 개선하면 데이터 프라이버시 문제를 완화하고 나머지 두 가지 장벽도 해결할 수 있습니다. 그들은 OpenAI의 모델이 최근 사이버 공격, 특히 API와 ChatGPT 서비스에 영향을 미친 지난해 11월의 서비스 거부(DoS) 공격에 노출되었다고 강조했습니다.

거버넌스, 관측 가능성 및 보안: 필수 기초 요소

Menlo Ventures는 거버넌스, 관측 가능성 및 보안이 AI 보안을 확장하는 데 필수적인 요소라고 주장합니다. 이러한 구성 요소는 그들의 시장 지도의 기본이 됩니다.

거버넌스 도구는 빠른 성장을 경험하고 있으며, AI 기반 거버넌스 및 규정 준수 스타트업이 증가하고 있습니다. 특히 시장 출시 시간 및 글로벌 확장성의 이점을 제공하는 클라우드 기반 솔루션이 두드러집니다. Credo와 Cranium과 같은 도구는 기업이 AI 서비스를 추적하고 안전 및 보안 위험을 평가하며 조직 내 AI 사용에 대한 종합적인 인식을 보장하는 데 도움을 줍니다. 이는 LLM을 보호하고 모니터링하는 데 중요한 요소입니다.

관측 가능성 도구는 모델을 모니터링하고 접근, 입력 및 출력 로그를 집계하여 오용을 감지하고 완전한 감사 가능성을 지원하는 데 필수적입니다. Menlo Ventures는 이러한 요구를 해결하는 주요 스타트업으로 Helicone과 CalypsoAI를 지목했습니다.

보안 솔루션은 신뢰 경계를 설정하는 데 중점을 둡니다. 세카르와 하스카라ман은 모델 사용에 대한 엄격한 통제가 필요하다고 주장합니다. Menlo Ventures는 Robust Intelligence 및 Prompt Security와 같은 AI 방화벽 제공자에 특히 관심이 있으며, 이들은 입력 및 출력을 검증하고 프롬프트 주입으로부터 보호하며 개인 식별 정보를 감지합니다. Private AI와 Nightfall은 민감한 데이터를 식별하고 수정하는 데 전문화되어 있으며, Lakera와 Adversa는 보안 조치를 테스트하기 위한 레드 팀 활동을 자동화하는 것을 목표로 하고 있습니다. Hiddenlayer 및 Lasso Security와 같은 위협 감지 솔루션도 LLM의 의심스러운 행동을 모니터링하는 데 중요합니다. 또한, DynamoFL 및 FedML은 연합 학습을 위한 솔루션, Tonic과 Gretel은 합성 데이터 생성 솔루션, Private AI 또는 Kobalt Labs는 민감한 정보를 식별하기 위한 필수 요소입니다.

DevOps에서 AI 보안 우선시

기업 애플리케이션의 상당 부분이 오픈 소스 솔루션을 활용하고 있는 가운데, 소프트웨어 공급망 보호는 Menlo Ventures가 신뢰 격차를 줄이기 위해 목표로 하고 있는 또 다른 분야입니다.

세카르와 하스카라만은 AI 보안이 DevOps 프로세스에 본질적으로 통합되어야 하며, 기업 애플리케이션 아키텍처의 기초가 되어야 한다고 주장했습니다. 그들은 AI 보안을 위한 보호 가치가 현재의 신뢰 격차를 해소하여 생성형 AI의 보다 넓은 채택을 용이하게 하는 방향으로 심층적으로 통합되어야 한다고 강조했습니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles