Kimi 오픈 플랫폼, AI 개발을 위한 컨텍스트 캐싱 기능 출시
Kimi 오픈 플랫폼이 새로운 컨텍스트 캐싱 기능을 공개 테스트합니다. 이 혁신적인 기술은 개발자의 비용을 최대 90% 절감하면서 AI 모델의 응답 시간을 크게 향상시켜 인공지능 서비스의 효율성과 비용 관리에서 획기적인 이정표가 될 것입니다.
컨텍스트 캐싱은 자주 요청되는 데이터를 미리 저장하여 원본 데이터 소스에서의 반복 계산을 최소화하는 최첨단 데이터 관리 기술입니다. 사용자가 동일한 정보를 다시 요청하면, 시스템은 캐시에서 신속하게 데이터를 검색하여 처리 시간과 비용을 줄입니다. 이 기술은 긴 텍스트 모델에 의존하고 높은 빈도의 쿼리 수요가 있는 애플리케이션에 특히 유리합니다.
Kimi 오픈 플랫폼은 컨텍스트 캐싱이 다음과 같은 다양한 비즈니스 시나리오에 적용될 수 있음을 강조합니다:
- 질문 및 답변 봇(예: Kimi API 어시스턴트)
- 고정 문서 세트에 대한 쿼리 도구(예: 기업 정보 공개 시스템)
- 정적 코드 라이브러리의 주기적 분석
이는 대화 시뮬레이터 및 LLM Riddles와 같은 높은 트래픽의 AI 애플리케이션에 특히 적합합니다. 컨텍스트 캐싱을 활성화하면 초기 토큰 지연 시간을 83%까지 줄일 수 있어 사용자 경험이 크게 향상됩니다.
가격 면에서는 Kimi 오픈 플랫폼이 캐시 생성, 저장 및 사용에 대한 유연하고 투명한 요금 구조를 제공합니다. 캐시 생성 비용은 실제 토큰 수에 따라 100만 토큰당 24위안으로 청구됩니다. 캐시 저장 비용은 100만 토큰당 10위안의 분 단위 요금이 부과되며, 캐시 검색은 별도로 청구되어 증가하는 토큰 요금(표준 모델 요금 적용)과 호출당 0.02위안의 사용 요금을 포함합니다.
공식 테스트 기간은 3개월이며, 사용자 피드백에 따라 가격 조정이 이루어질 수 있습니다. Tier 5 사용자에게 우선 접근 권한이 부여되며, 다른 사용자에 대한 추가 세부 사항은 추후 발표될 예정입니다.
인공지능 기술이 계속 발전함에 따라 서비스 품질을 유지하면서 효과적인 비용 관리는 개발자와 기업의 핵심 관심사가 되었습니다. Kimi 오픈 플랫폼의 컨텍스트 캐싱 기능 도입은 이러한 도전에 대한 강력한 솔루션을 제공하여 AI 서비스의 채택과 적용을 촉진할 것으로 기대됩니다.