AI视频创业公司Haiper在退出隐身模式后发布具有全面感知能力的雄心勃勃的AGI愿景

随着OpenAI在即将推出的AI视频平台Sora上不断突破病毒传播的界限,竞争对手们也争相提升自己的产品。最近,Pika Labs推出了一项对口型同步功能,而新的AI视频初创公司Haiper也从静默状态中浮现,获得了来自Octopus Ventures的1380万美元种子资金。

Haiper由前谷歌DeepMind研究人员姚屿(首席执行官)和王子瑜创立,位于伦敦。该平台允许用户根据文本提示创建高质量视频或为已有图像添加动画。Haiper结合了自身的视觉基础模型,与Runway和Pika Labs等成熟工具竞争,尽管初步测试显示其仍落后于OpenAI的Sora。

Haiper计划利用这笔资金增强其基础设施和产品能力,朝着实现能够真正理解人类思维的通用人工智能(AGI)目标迈进。

Haiper的功能

与Runway和Pika Labs相似,Haiper提供了一个用户友好的网络平台,用户可以轻松输入文本提示来创建AI视频。平台目前支持生成SD和HD质量的视频,但HD内容仅限于两秒,SD视频可达四秒。低质量选项允许进行动作控制。

我们的测试显示,HD视频输出更为一致,可能是由于时长较短。相反,低质量视频在高运动水平下往往模糊不清,形状、大小和颜色存在明显失真。与Runway不同,Haiper目前没有延长视频时长的选项,尽管他们计划在不久的将来推出此功能。

此外,Haiper还允许用户为现有图像添加动画,并使用文本提示调整视频样式、背景和元素。

Haiper声称其平台和专有视觉基础模型可以满足从社交媒体内容创作到企业工作室内容生成的多种应用。然而,该公司并未公布任何商业化计划,仍在免费提供其技术。

AGI愿景

随着新一轮资金的注入,Haiper计划扩大其基础设施和产品供应,最终致力于开发具备全面感知能力的AGI。这笔投资使公司的总资金达到了1920万美元。

在未来几个月中,Haiper计划依据用户反馈优化产品,推出一系列经过深度训练的模型,以改善视频质量,并在竞争中缩小差距。

在Haiper开发模型过程中,目标是提高对物理世界的理解,包括光线、运动、纹理和物体之间的互动。这将使得生成超真实的内容成为可能。

“我们的最终目标是构建具备完整感知能力的AGI,释放创作的巨大潜力。我们的视觉基础模型代表了AI理解现实动态的重要进展,可以提升人类的讲故事能力。”姚屿表示。

凭借下一代感知能力,Haiper预期其技术不仅会影响内容创作,还将改变机器人和交通等领域。在充满活力的AI领域中,Haiper凭借其创新的AI视频方法,成为一个值得关注的公司。

Most people like

Find AI tools in YBX