رانوي تطلق جيلها الثالث ألفا: نموذج فيديو مذهل بتقنية الذكاء الاصطناعي يقدم مقاطع فائقة الواقعية مدتها 10 ثوانٍ.

تقع شركة Runway ML، المعروفة باسم Runway، في مدينة نيويورك وهي رائدة في إنشاء مقاطع الفيديو عالية الجودة باستخدام الذكاء الصناعي التوليدي. بعد إطلاقها نموذج Gen-1 في فبراير 2023 وGen-2 في يونيو 2023، واجهت الشركة زيادة في المنافسة من مولدات الفيديو الذكي الأخرى مثل نموذج Sora المقبل من OpenAI وDream Machine الجديد من Luma AI.

استجابةً لذلك، تعلن Runway عن عودتها القوية إلى مشهد فيديو الذكاء الصناعي التوليدي من خلال الكشف عن Gen-3 Alpha. هذا النموذج، الذي تم وصفه في منشور مدونة بأنه "الأول في سلسلة تم تدريبها على بنية تحتية جديدة للتدريب متعدد النماذج على نطاق واسع"، يهدف إلى تطوير نماذج عالمية عامة قادرة على محاكاة مجموعة واسعة من المواقف والتفاعلات الواقعية. مقاطع الفيديو التوضيحية لقدرات Gen-3 Alpha متاحة في جميع أنحاء هذا المقال.

يمكن لمستخدمي Gen-3 Alpha إنشاء مقاطع فيديو عالية الجودة ودقيقة تعبر عن المشاعر وتستخدم حركات كاميرا متنوعة، وذلك لمدة 10 ثوانٍ. وفقًا لمتحدث باسم Runway، سيوفر هذا الإطلاق الأول إمكانية إنتاج مقاطع مدتها 5 و10 ثوانٍ، مما يسرع من أوقات الإنتاج—حيث يمكن إنتاج 5 ثوانٍ في 45 ثانية و10 ثوانٍ في 90 ثانية.

رغم عدم الإعلان عن تاريخ محدد للإصدار، يتم عرض مقاطع تجريبية على موقع Runway وحسابها على منصة X. تظل إمكانية الوصول للمستخدمين غير واضحة، مع توقعات أنها قد تكون متاحة من خلال المستوى المجاني أو تتطلب اشتراكًا مدفوعًا يبدأ من 15 دولارًا شهريًا أو 144 دولارًا سنويًا.

في مقابلة حديثة، أكد أنستاسيس جيرمانيديس، المؤسس المشارك ومدير التكنولوجيا في Runway، أن Gen-3 Alpha سيكون متاحًا للمشتركين المدفوعين في الأيام القليلة المقبلة، مع خطط لإطلاقه للفئة المجانية لاحقًا. وأوضح ممثل من Runway أن النموذج سيكون متاحًا للمستخدمين في القطاع التجاري وأولئك في برنامج الشركاء المبدعين.

قال جيرمانيديس على منصة X إن Gen-3 Alpha سيعزز الوظائف الحالية مثل تحويل النص إلى فيديو وتحويل الصورة إلى فيديو، مع تقديم قدرات جديدة أيضًا. ومنذ إطلاق Gen-2، وجدت Runway أن نماذج انتشار الفيديو لم تبلغ بعد ذروتها، مما يتيح لهم تطوير تمثيلات قوية للمحتوى المرئي.

يشير مصطلح "انتشار" إلى كيف يتعلم نموذج الذكاء الاصطناعي إعادة بناء المفاهيم البصرية من "الضوضاء" المتناثرة، باستخدام مجموعات مشروحة من الصور/الفيديو ونصوصها. تدعي Runway أن Gen-3 Alpha "مدرب بشكل مشترك على الفيديو والصور"، تحت إشراف فريق من العلماء والمهندسين والفنانين، لكنها لم تكشف عن مجموعات البيانات المحددة المستخدمة، وفقًا لاتجاه شائع بين شركات الوسائط الذكية.

طالب النقاد بتعويض مؤلفي البيانات الأصلية من خلال الترخيص، مع متابعة البعض منهم قضايا انتهاك حقوق النشر. ومع ذلك، تدعي شركات الذكاء الاصطناعي أنه يمكنهم قانونيًا استخدام أي بيانات متاحة للجمهور.

عند سؤالها عن بيانات تدريب Gen-3 Alpha، ذكرت متحدثة من Runway أنهم يعتمدون على مجموعات بيانات داخلية مرتبة يديرها فريق أبحاثهم الداخلي.

ومن الجدير بالذكر أن Runway تتعاون مع منظمات رائدة في مجال الإعلام والترفيه لتطوير نسخ مخصصة من Gen-3، تهدف إلى تحقيق تناسق أسلوبي وتلبية أهداف فنية وسردية محددة. وبينما تبقى تفاصيل هذه التعاونات غير معلنة، فقد استخدم صناع الأفلام من مشاريع فائزة مثل Everything Everywhere All at Once وThe People’s Joker تقنيات Runway سابقًا.

كما قدمت Runway نموذجًا للمنظمات المهتمة بنسخ مخصصة من Gen-3، على الرغم من أن تفاصيل الأسعار لتدريب النماذج المخصصة لم تُعلن بعد. من الواضح أن Runway ملتزمة بشدة بالحفاظ على مكانتها كقائدة في قطاع إنشاء الفيديوهات التوليدية الذي يتطور بسرعة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles