AI 비디오 기술이 빠르게 발전하고 있습니다. 뉴욕에 본사를 둔 Runway는 사용자가 다양한 스타일의 비디오를 생성할 수 있도록 돕는 생성형 AI 스타트업입니다. 오늘, Runway는 새로운 Multi Motion Brush 도구가 탑재된 Gen-2 모델의 업데이트 버전을 출시했습니다. 이 혁신적인 도구는 창작자가 AI 비디오 프로젝트에 여러 방향과 유형의 움직임을 적용할 수 있게 합니다.
Multi Motion Brush는 상업용 AI 비디오 제작에서 혁신적인 발전을 의미합니다. 경쟁사들이 보통 한 영역이나 전체 이미지에만 움직임을 적용하는 것과 달리, Runway의 Multi Motion Brush는 여러 영역에서 독립적인 움직임을 가능하게 합니다.
Multi Motion Brush란 무엇인가요?
Multi Motion Brush는 AI가 생성한 비디오에 대한 제어 능력을 강화하여 사용자가 선택한 지역의 움직임을 지정할 수 있도록 합니다. 예를 들어, 사용자는 얼굴을 애니메이션화하거나 하늘의 구름 움직임을 조정할 수 있습니다. 시작하려면 사용자가 정지 이미지를 업로드하고 디지털 브러시로 움직임을 "페인트"합니다.
이미지가 준비되면, 사용자는 Runway 웹 인터페이스의 슬라이더 컨트롤을 통해 움직임의 강도와 방향을 맞춤 설정할 수 있습니다. 각 페인트된 부분은 수평 및 수직 움직임에 대해 독립적인 설정을 가질 수 있으며, 범위는 -10에서 +10까지입니다. 사용자는 'Clear' 버튼을 클릭하여 조정을 쉽게 초기화할 수 있습니다.
Gen-2 모델의 향상
Multi Motion Brush는 2023년 11월에 시작된 Motion Brush 기능을 기반으로 하여, 초기에는 비디오당 하나의 움직임 유형만 허용했습니다. 2023년 3월에 공개된 Gen-2 모델은 텍스트, 비디오, 이미지 생성을 추가하여 비디오 기능에 큰 발전을 가져왔습니다. 원래 4초의 클립으로 제한되었던 사용자들은 8월의 업데이트 덕분에 18초 길이의 비디오를 제작할 수 있게 되었습니다.
"Director Mode"와 같은 새로운 기능은 사용자가 카메라 움직임의 방향과 속도를 제어할 수 있게 하며, 3D 만화와 시네마틱 등 다양한 비디오 스타일 옵션을 제공합니다. Runway는 최근 Pika 1.0 비디오 생성 플랫폼을 출시한 Pika Labs 및 Stability AI의 Stable Video Diffusion 모델과 경쟁하고 있습니다.
또한, Runway는 Midjourney 및 DALL-E 3와 경쟁하는 텍스트-이미지 도구를 제공합니다. 이러한 도구들이 발전하였지만, 생성되는 이미지와 비디오가 때때로 흐릿하거나 불완전하게 나오는 등의 일관성 없는 결과를 보일 수 있다는 점은 주의해야 합니다.
결론적으로, Runway의 Multi Motion Brush는 AI 비디오 제작의 중요한 도약을 나타내며, 창작자들에게 보다 동적이고 매력적인 비디오 스토리텔링을 위한 향상된 도구를 제공합니다.