구글 딥마인드가 지난 2월 젬마를 발표하면서 20억 및 70억 개 매개변수를 갖춘 두 개의 오픈 소스 모델을 출시했습니다. 이번 구글 I/O 개발자 컨퍼런스에서는 270억 개 매개변수를 자랑하는 경량 모델로 시작하는 젬마 2 시리즈를 공개했으나, 출시일은 6월로 예정되어 있습니다.
구글 랩스의 부사장인 조시 우드워드는 최근 원탁 토론에서 “이 27B 모델은 의도적으로 선택되었습니다. 엔비디아의 차세대 GPU나 Vertex AI의 단일 TPU 호스트에 최적화되어 있어 사용자 친화적입니다. 우리는 이미 뛰어난 품질을 목격하고 있으며, 성능은 두 배 크기의 모델을 초월하고 있습니다.”라고 밝혔습니다.
젬마는 개발자가 AI를 앱과 기기에 통합할 수 있도록 메모리나 처리 능력에 대한 요구 사항이 적은 설계로 되어 있습니다. 이러한 특징은 스마트폰, IoT 기기 및 개인용 컴퓨터와 같은 제한된 리소스 환경에 적합합니다. 초기 출시 이후 구글은 코드 완성을 위한 CodeGemma, 메모리 효율성을 향상시킨 RecurrentGemma, 비전-언어 작업을 위해 최근 출시된 PaliGemma 등 여러 변형 모델을 추가했습니다.
270억 개의 매개변수를 갖춘 젬마 2는 이전 모델에 비해 더 복잡한 작업에 대한 정확도와 성능을 향상시킬 것으로 기대됩니다. 더 큰 훈련 데이터셋에 대한 접근은 AI가 더 높은 품질의 응답을 더 빨리 생성할 수 있도록 합니다.
우드워드는 젬마 2가 단일 TPU에서 실행되도록 설계되었다고 언급했으며, 이는 구글의 최신 세대 칩인 TPUv5e를 가리킵니다. 이는 젬마 2가 특정 AI 칩 하나를 필요로 하여 계산 최적화가 이루어지고, 이미지 인식 및 자연어 처리와 같은 작업에서 지연 시간을 줄이고 효율성을 높인다는 것을 의미합니다. 이러한 효율성은 개발자에게 비용 절감을 가져와 애플리케이션에 자원을 재투자할 수 있게 합니다.
젬마 2의 출시와 함께 OpenAI는 멀티모달 LLM인 GPT-4o를 발표하며, 특히 무료 ChatGPT 사용자들에게 “상당한 업그레이드”로 자리매김하고 있습니다.