RunwayML, AI 기반 비디오 생성의 선두주자인, 최신 모델인 Gen-3 Alpha를 공식 출시했습니다. 이 모델은 사용자들이 텍스트, 이미지 또는 비디오 프롬프트를 통해 초현실적인 비디오를 제작할 수 있도록 해 창작 과정을 향상시킵니다.
몇 주 전 처음 공개된 Gen-3 Alpha는 이제 RunwayML 플랫폼에 등록된 모든 사용자에게 제공됩니다. 이 모델은 다양한 응용 프로그램, 특히 OpenAI의 다가오는 Sora가 관심을 끌고 있는 광고 분야에 적합한 고충실도의 통제 가능한 비디오 출력을 가능하게 합니다.
하지만 Gen-3 Alpha는 이전 모델인 Gen-1 및 Gen-2와 달리 무료가 아닙니다. 사용자는 연간 청구 시 편집기당 월 $12부터 시작되는 RunwayML의 유료 플랜 중 하나에 가입해야 합니다.
Gen-3 Alpha에서 기대할 점은?
지난 해 Gen-1 및 Gen-2의 빠른 롤아웃 이후, RunwayML은 Stability AI 및 OpenAI와 같은 경쟁자들이 제공을 확대하는 동안 플랫폼 개선에 집중했습니다. Gen-3 Alpha는 세부 캡션이 포함된 비디오와 이미지로 훈련된 모델로, 매력적인 전환 효과와 정교한 요소 키프레이밍, 다양한 행동과 감정을 전달하는 표현력 있는 캐릭터를 특징으로 하는 비디오 클립 제작을 지원합니다.
초기 샘플은 이전 모델에 비해 속도, 충실도, 일관성 및 움직임에서 상당한 발전을 보여줍니다. RunwayML은 다양한 연구 과학자, 엔지니어 및 아티스트와 협력했지만 구체적인 훈련 데이터 출처는 공개되지 않았습니다.
Gen-3 Alpha가 널리 사용 가능해짐에 따라, 사용자는 유료 플랜으로 업그레이드하여 다양한 창의적인 프로젝트를 활용할 수 있습니다. RunwayML은 초기에는 사용자들이 자연어 프롬프트를 사용해 아이디어를 매력적인 비디오로 변환할 수 있는 텍스트-비디오 모드를 제공할 예정입니다. 향후 업데이트를 통해 이미지-비디오 및 비디오-비디오 기능과 함께 Motion Brush, Advanced Camera Controls, Director Mode와 같은 고급 도구들이 추가될 것입니다.
Gen-3 Alpha로 생성된 비디오는 최대 10초 길이로 제한되며, 생성 속도는 비디오 길이에 따라 달라집니다. 이는 많은 AI 비디오 모델보다 개선된 사항이지만, 아직 출시되지 않은 OpenAI의 Sora가 약속한 1분 생성 길이에는 미치지 못합니다.
창작 커뮤니티가 Gen-3 Alpha의 기능을 탐색하기 시작하면서 Stability AI의 전 CEO인 Emad Mostaque는 이미 Sora의 결과물과 비교하여 시험해 보았습니다.
이번 출시가 시작에 불과합니다. RunwayML은 사용자들을 위한 무료 버전 출시를 포함해 Gen-3 Alpha에 대한 지속적인 발전을 기대하고 있습니다. 회사는 이 모델을 새로운 인프라를 기반으로 한 일련의 모델 중 첫 번째로 구상하고 있으며, 대규모 다중 모드 훈련을 통해 다양한 실제 시나리오와 상호작용을 시뮬레이션할 수 있는 일반 세계 모델의 창출로 나아갈 계획입니다.