OpenAI의 ChatGPT는 우리의 업무 방식을 혁신할 준비가 되어 있지만, 기업에 통합될 경우 딜레마가 발생합니다. 기업들은 생성 AI를 경쟁 우위로 인식하는 반면, 민감한 정보 노출의 위험이 여전히 높습니다.
비통제 사용의 도전
많은 직원들이 고용주 모르게 ChatGPT를 사용하고 있어 민감한 데이터를 의도치 않게 공유하고 있습니다. 기업들은 해결책이 필요하고, Metomic이 그 공백을 메우고자 합니다. 이 데이터 보안 소프트웨어 기업은 OpenAI의 대형 언어 모델에서 사용자 활동을 추적하기 위해 설계된 브라우저 플러그인, Metomic for ChatGPT를 출시했습니다.
“이 앱들에는 경계가 없어서 데이터 공유 활동이 난무하고 있습니다,”라고 Metomic의 CEO 리치 바이버트가 말했습니다. “아무도 전혀 가시성을 가지지 못합니다.”
데이터 유출의 범위
연구에 따르면 15%의 직원이 정기적으로 ChatGPT에 회사 데이터를 입력하고 있으며, 주로 소스 코드(31%), 내부 비즈니스 정보(43%), 개인정보(PII)(12%)가 포함됩니다. 이 활동에 참여하는 주요 부서는 R&D, 재무, 마케팅 및 영업입니다.
“이것은 완전히 새로운 문제입니다,”라고 바이버트는 설명하며, 직원들이 이러한 도구를 사용하는 것에 대한 기업의 “막대한 두려움”을 강조했습니다. “장애물이 없습니다; 단지 브라우저만 있으면 됩니다.”
Metomic의 조사 결과, 직원들이 재무 데이터, 즉 재무 제표 및 코드 조각을 유출하고 있음이 드러났습니다. 특히 고객 채팅 기록의 노출은 이름, 이메일 주소, 신용카드 번호와 같은 방대한 민감한 정보를 포함할 수 있어 우려됩니다.
“완전한 고객 프로필이 이러한 도구에 입력되고 있습니다,”라고 바이버트는 언급하며, 경쟁자와 해커가 접근할 수 있는 위험이 존재한다는 점에서 계약 위반의 위험을 초래한다고 강조했습니다.
악의적인 내부자 위협의 위험
우발적인 유출 외에도, 퇴사하는 직원들이 생성 AI 도구를 사용해 독점 데이터를 가져갈 위험이 존재합니다. 또한 악의적인 내부자가 의도적으로 민감한 정보를 유출할 가능성도 있어 추가적인 위협을 제기합니다.
일부 기업들은 ChatGPT와 유사한 플랫폼을 금지하는 방법을 선택하고 있지만, 바이버트는 이것이 지속 가능한 전략이 아니라고 경고합니다.
“이 도구들은 사라지지 않을 것입니다,” 라고 그는 강조하며 ChatGPT가 생산성과 효율성을 향상시키는 가치에 대해 언급했습니다.
직원 참여를 중심으로 한 데이터 보안
Metomic ChatGPT 통합은 브라우저 내에서 작동하며, 직원이 플랫폼에 로그인할 때 이를 인식하고 업로드된 데이터를 실시간으로 스캔합니다. 개인 정보(PII)나 보안 자격 증명과 같은 민감한 데이터가 감지되면, 사용자는 해당 데이터를 적절히 수정하거나 분류하라는 알림을 받습니다.
보안 팀은 잠재적인 데이터 유출에 대한 경고를 받아 사전 예방 조치를 시행할 수 있습니다.
“이는 직원의 관점에서 본 데이터 보안입니다,”라고 바이버트는 설명하며 완전한 제한보다 가시성과 통제를 강조했습니다.
“이는 IT 부서가 직면하고 있는 경고 피로를 완화하면서 보안 및 분석 팀을 위한 실행 가능한 통찰로 전환합니다,”라고 덧붙였습니다.
SaaS 환경 탐색
현재 기업들은 약 991개의 다양한 SaaS 애플리케이션을 활용하고 있으며, 이들 중 단 25%만이 상호 연결되어 있습니다.
바이버트는 SaaS 도구 사용이 전례 없는 속도로 증가하고 있음을 강조하며, Metomic이 다양한 애플리케이션과 연결되고 있으며 산업 규제와 같은 맥락적 요인에 기반하여 중요한 데이터 위험을 인식하는 150개의 데이터 분류기를 갖추고 있음을 언급했습니다.
“도구 전반에 걸쳐 데이터가 어디에 배치되어 있는지를 이해하는 것이 필수적입니다,”라고 그는 특정 부서나 직원 내에서 “데이터 핫스팟”을 식별하는 것의 중요성을 강조했습니다.
SaaS 생태계가 확장됨에 따라 ChatGPT와 같은 생성 AI 도구의 사용도 증가할 것입니다.
바이버트의 말처럼, “우리는 긴 여정의 첫날도 맞이하지 않았습니다.”