구글, OpenAI의 GPT-3.5 비밀을 공개하다: 핵심 정보 유출 고발!

최근 구글의 연구가 기술 커뮤니티에서 큰 주목을 받고 있습니다. 연구팀은 간단한 API 호출을 통해 OpenAI의 대형 언어 모델(LLM)에서 주요 매개변수를 성공적으로 추출했다고 주장하며, 비용은 약 150 RMB(약 22달러)라고 전했습니다.

이 연구는 OpenAI의 GPT 시리즈 모델에 집중되었습니다. 구글 팀은 정확한 API 쿼리를 활용하여 모델의 임베딩 프로젝션 레이어에서 중요한 데이터를 수집하는 데 성공했습니다. 이 최종 레이어는 숨겨진 차원을 로짓 벡터에 매핑하며, 이는 모델 출력의 근본적인 요소입니다.

연구자들은 특정 쿼리를 전송하고 모델의 응답을 분석함으로써 숨겨진 차원의 크기를 추론할 수 있었다고 밝혔습니다. 이 기법은 Ada 및 Babbage와 같은 기본 모델뿐만 아니라 GPT-3.5 및 GPT-4와 같은 고급 모델에도 적용 가능합니다.

중요한 점은 구글이 OpenAI의 허가를 받아 이 연구를 수행했으며, 연구 완료 후 모든 관련 데이터를 삭제하였다고 확인했습니다. API 호출을 통해 일부 주요 모델 매개변수를 얻었음에도 불구하고, 이 발견은 업계를 놀라게 했으며, 엄격한 보안 조치에도 불구하고 모델에서 잠재적인 취약성을 강조하고 있습니다.

이에 대응하여 OpenAI는 모델 API 및 숨겨진 차원 조정 등의 방어 전략을 시행했습니다. 그럼에도 불구하고 이번 사건은 대형 언어 모델의 보안 및 개방성에 대한 새로운 논의를 촉발했습니다.

구글의 발견은 LLM의 잠재적 보안 약점을 드러낼 뿐만 아니라 향후 보안 연구의 길을 열어줍니다. AI 기술이 계속 발전함에 따라 모델의 안전성과 개인 정보를 보장하는 것은 업계의 중요한 도전 과제가 남아 있습니다.

이번 사건은 OpenAI가 모델 보안을 우선시하고 더 엄격한 보호 조치를 채택해야 한다는 중요한 교훈을 제공합니다. 산업 파트너와의 협력이 AI 기술의 건강한 발전을 촉진하는 데에도 필수적입니다.

요약하자면, 구글의 연구는 대형 언어 모델 주변의 보안 문제에 대한 새로운 관점을 제시했습니다. 우리는 인공지능 기술의 지속적 발전과 혁신에 기여할 더 많은 연구를 기대합니다.

Most people like

Find AI tools in YBX