随着AI生成内容的日益普及,相关初创企业也在不断提升其服务。最近,RunwayML推出了更具真实感的视频生成模型。现在,总部位于伦敦的Haiper,由前谷歌DeepMind研究员苗易书和王姿毓创立,推出了其视觉基础模型:Haiper 1.5。
Haiper 1.5可在Haiper的网页和移动平台上使用,是一次渐进式升级。用户可以通过文本、图像和视频提示生成8秒的短视频,输出时长是原始模型的两倍。此外,Haiper还引入了提升功能,以增强内容质量,并计划增加图像生成能力。
在短短四个月内,Haiper便吸引了超过150万用户,尽管其融资远低于竞争对手。凭借这一新模型,Haiper旨在扩展用户基础,并与Runway等老牌企业竞争。
苗易书表示:“视频生成AI的竞争不仅在于模型的强大,还在于这些模型能再现的复杂性。我们的分布式数据处理和规模化训练不断提升了基础模型。这次更新体现了我们对创造美丽且真实影像的承诺。”
Haiper AI为用户带来什么?
于三月份上线的Haiper与Runway和Pika齐名,提供了一个简化的视频生成平台。用户只需输入文本提示,模型便会生成相应内容,允许用户对角色、物体、背景和艺术风格进行调整。
Haiper以前生成的短视频时长为2-4秒,而新模型则将这个时长延长至8秒,以回应用户的反馈。用户还可以将现有的2秒和4秒短视频扩展至8秒,类似于其他AI工具如Luma的Dream Machine的功能。
苗易书对此表示:“我们模型受到热烈反馈,这激励我们将视频生成延长至八秒,推动技术的边界。”
新功能与增强
最新的更新还允许用户生成任何长度的标准或高清短视频。集成的提升器可在单击一次后将视频质量增强至1080p,适用于新生成和现有内容。
此外,Haiper还将推出新的图像模型,允许用户从文本提示生成图像,并将其整合入视频生成过程中,以实现无缝效果。这将使内容测试和细化变得更加顺畅。
苗易书强调:“在Haiper,我们优先考虑用户反馈和创新。启动提升器和即将推出的文本到图像工具展示了我们对社区的承诺。”
向AGI迈进
尽管Haiper的更新前景看好,但仍需更广泛的社区测试。目前,8秒视频和提升器等特性仅对Pro计划用户开放,Pro计划费用为每月24美元(按年计费)。苗易书表示,未来将扩大这些功能的访问,包括针对更长视频生成的积分系统,以及即将免费发布的图像模型。
初步反馈显示,2秒视频稳定性较强,而较长的视频在一致性上存在不足。然而,随着持续更新,Haiper旨在显著提升输出质量,目标是改善模型对世界的理解,向能够生成逼真内容的通用人工智能(AGI)迈进,准确描绘光影、运动、纹理和物体互动。
苗易书最后指出:“每一帧都承载着复杂的视觉信息。要创造真正反映现实的内容,AI必须理解物理世界的复杂性。这些进展不仅可能革新内容创作,还将影响到机器人和交通等领域。”
随着Haiper的不断发展,观察其如何在快速发展的AI视频生成领域与Runway、Pika和OpenAI等老牌竞争对手竞争将是非常令人期待的。