기업들이 능동적인 미래를 추구함에 따라 AI 모델의 아키텍처는 큰 도전 과제가 되고 있습니다. AI21의 CEO 오리 고센은 효율적인 AI 에이전트를 만들기 위해 대안적인 모델 아키텍처의 필요성을 강조합니다. 그는 기존의 Transformer 모델이 여러 에이전트 생태계 구축에 방해되는 한계가 있다고 지적합니다.
고센은 최근 인터뷰에서 Transformer 아키텍처의 단점을 강조했습니다. "Transformer는 긴 문맥 처리를 할수록 계산 강도가 증가하여 성능 저하와 비용 증가를 초래합니다. 에이전트는 각 단계에서 긴 문맥을 가진 LLM에 여러 번 호출해야 하므로 Transformer가 병목 현상이 된다"고 밝혔습니다.
AI21은 모델 아키텍처에 대해 보다 유연한 접근 방식을 제안하며, Transformer가 하나의 선택지가 될 수 있지만 기본 옵션이 되어서는 안 된다고 말합니다. 회사의 JAMBA 아키텍처(공동 주의 및 맘바의 약어)는 프린스턴 및 카네기 멜론의 연구진이 개발한 Mamba 프레임워크를 활용하여 추론 속도를 향상시키고 문맥 처리를 확장합니다.
고센은 Mamba 기반 모델이 메모리 성능을 개선하여 다른 모델과 통합되는 에이전트의 기능을 더욱 향상시킨다고 설명합니다. 최근 AI 에이전트의 인기가 상승한 것은 Transformer로 구축된 LLM의 한계에 기인합니다. "에이전트가 여전히 개발 단계에 있으며 광범위한 생산을 보지 못하는 주된 이유는 신뢰성입니다. LLM은 본질적으로 확률적이기 때문에 필요한 신뢰성을 보장하기 위한 추가 조치가 필요합니다,"라고 고센은 말했습니다.
올해 AI 에이전트는 기업 AI의 주요 트렌드로 부상하고 있으며, 여러 회사가 에이전트 개발을 위한 새로운 플랫폼을 출시하고 있습니다. 예를 들어, ServiceNow는 Now Assist AI 플랫폼을 업그레이드하여 AI 에이전트 라이브러리를 포함했으며, Salesforce는 Agentforce를 도입했습니다. 한편, Slack은 사용자가 Salesforce, Cohere, Adobe 등 여러 회사의 에이전트를 통합할 수 있도록 하고 있습니다.
고센은 올바른 모델과 아키텍처의 조합으로 AI 에이전트에 대한 관심이 급증할 것이라고 믿고 있습니다. "현재 사용 사례는 주로 향상된 검색과 유사한 챗봇의 질문-응답 기능입니다. 진정한 지능은 다양한 출처에서 다양한 정보를 연결하고 검색하는 능력에 있습니다,"라고 그는 덧붙였습니다. AI21은 이러한 수요에 맞춰 AI 에이전트 관련 제품을 활발히 개발 중입니다.
Mamba 아키텍처의 인기가 상승함에 따라, 고센은 Transformer의 비용과 복잡성이 실제 응용 가능성을 줄인다고 주장하며 적극적인 지지를 보내고 있습니다. Transformer가 고정된 주의 메커니즘에 의존하는 것과 달리, Mamba는 메모리 사용 최적화와 GPU 처리 능력을 효과적으로 활용하는 데 중점을 둡니다.
Mamba에 대한 수요가 증가하고 있으며, 다른 개발자들도 Mistral의 Codestral Mamba 7B 및 Falcon의 Falcon Mamba 7B와 같은 Mamba 기반 모델을 출시하고 있습니다. 그럼에도 불구하고 Transformer는 여전히 OpenAI의 성공적인 GPT를 포함한 기본 모델의 표준 선택으로 자리 잡고 있습니다.
결국 고센은 기업들이 특정 아키텍처보다 신뢰성을 우선시한다고 언급합니다. 그러나 조직들은 광범위한 솔루션을 약속하는 매혹적인 데모에 주의해야 합니다. "우리는 매력적인 데모가 만연한 단계에 있지만, 여전히 실용적인 제품 단계로 전환 중입니다,"라고 그는 경고했습니다. "기업 AI가 연구에 유용하긴 하지만, 여전히 중요한 비즈니스 결정을 내릴 준비가 되어 있지 않습니다."