隨著 OpenAI 推進其即將推出的 AI 影片平台 Sora,並將病毒傳播的邊界拓展,競爭對手正急於提升他們的產品。最近,Pika Labs 推出了同步口型功能,而現在,一個新興的 AI 影片初創公司 Haiper 也從隱藏模式中浮現,成功獲得 1380 萬美元的種子資金,來自 Octopus Ventures。
Haiper 的首席執行官是前 Google DeepMind 研究員苗以煊(Yishu Miao)和王紫玉(Ziyu Wang),該公司位於倫敦,允許用戶從文本提示創建高品質影片,或為現有圖像添加動畫。該平台結合了自有的視覺基礎模型,與已有的工具如 Runway 和 Pika Labs 競爭,儘管初步測試顯示其仍落後於 OpenAI 的 Sora。
Haiper 計畫利用這筆資金加強基礎設施和產品能力,為開發能夠真正理解並反映人類理解能力的人工通用智能(AGI)奠定基礎。
Haiper 的產品特色
與 Runway 和 Pika Labs 相似,Haiper 提供一個使用者友好的網頁平台,通過簡單的文本提示即可創建 AI 影片。目前,該平台能夠生成 SD 和 HD 兩種品質的影片,但 HD 內容限於兩秒,而 SD 影片則可延長至四秒。更低品質的選項允許使用運動控制。
在我們的測試中,HD 影片輸出更為穩定,可能是因為持續時間較短。相對而言,低品質的影片在高運動水平下常常出現模糊,形狀、大小和顏色的失真。與 Runway 不同,Haiper 目前尚無法延長影片長度,但他們計劃在不久的將來推出此功能。
此外,Haiper 還允許用戶為現有圖像添加動畫,並通過文本提示調整影片樣式、背景和元素。Haiper 聲稱其平台和專有視覺基礎模型可以滿足從社交媒體內容創建到商業用途如工作室內容生成等多種應用需求。然而,該公司尚未透露任何商業化計劃,仍免費提供其技術。
AGI 的願景
憑藉最近的資金籌集,Haiper 計畫擴展其基礎設施和產品,最終朝著具有全面感知能力的 AGI 目標邁進。這輪投資將公司總資金提升至 1920 萬美元。
在未來幾個月內,Haiper 計畫根據用戶反饋完善產品,推出一系列經過廣泛訓練的模型,提高影片質量,並可能縮小與競爭對手之間的差距。
隨著 Haiper 開發其模型,它旨在增強對物理世界的理解,包括光、運動、紋理和物體互動。這將促使創造出超現實內容。
苗以煊表示:“我們的最終目標是建立具有全面感知能力的 AGI,解鎖創造力的巨大潛力。我們的視覺基礎模型在 AI 理解現實動態方面代表了重大進展,這能夠提升人類的敘事能力。”
憑藉下一代感知能力,Haiper 預計其技術將影響內容創建以外的領域,包括機器人技術和交通運輸。這種創新的 AI 影片方法使 Haiper 成為 AI 生態系統中值得關注的一家公司。