Stable Diffusion全新视频生成功能震撼发布

Stability AI是著名的Stable Diffusion文本到图像系统的开发者,最近推出了其首个创新视频生成模型——Stable Video Diffusion。这一先进的生成式人工智能模型能够将文本提示转化为动态视频。用户只需输入像“沙漠中火箭发射”或“海浪拍打海岸”的短语,即可观看Stable Video Diffusion将这些描述生动呈现。

除了文本提示,该模型还可根据静态图像生成视频。Stable Video Diffusion的研究团队专门为高分辨率图像到视频合成而设计,具备多视角合成的核心功能,允许动画师从单一对象生成多种视角的镜头。这一特性对为虚拟现实(VR)和增强现实(AR)应用构建沉浸式3D环境的开发者尤为重要。

如何访问Stable Video Diffusion

目前,Stable Video Diffusion仅供研究用途。开发者表示,该模型“目前并不适用于现实世界或商业应用”,而是专注于收集反馈,以提升安全性和性能,为未来的使用做好准备。

有意探讨Stable Video Diffusion的研究人员可以在GitHub上找到源代码,所需的本地模型执行权重则托管在Hugging Face平台上。该模型具备两种不同的图像到视频选项,可以生成14帧或25帧的视频,帧速率可自定义,范围为每秒3帧到30帧。

初步研究表明,Stable Video Diffusion在用户偏好方面的评价优于Pika Labs和Runway的竞争模型,突显了其在视频生成领域的潜力。

令人振奋的是,用户可以注册等待名单,以获取即将推出的网络界面的访问权限,该界面展示Stable Video Diffusion在教育、营销和娱乐等多个领域的实际应用。用户只需在联系表的下拉菜单中选择“Stable Video – 等待名单”来表达对这一创新体验的兴趣。

Stability AI不断推动生成技术的边界,为视频生成和创意内容创作开辟新可能。随着模型的不断发展,它在丰富视觉叙事应用领域拥有广阔的前景。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles