تعلن OpenAI عن إطلاق أداة إدارة الوسائط في عام 2025، مما يمكّن المبدعين من حظر تدريب الذكاء الاصطناعي.

أعلنت OpenAI اليوم عن عدة تحديثات هامة، أبرزها "مدير الوسائط" الذي من المقرر إطلاقه في عام 2025. ستتيح هذه الأداة المبتكرة للمبدعين إدارة محتواهم، مما يمكنهم من تحديد الأعمال التي يمكن استخدامها في تدريب الذكاء الاصطناعي وتلك التي يجب أن تبقى مستبعدة.

كما ورد في منشور مدونة على موقع OpenAI، تم تصميم مدير الوسائط لـ:

"تمكين المبدعين ومالكي المحتوى من تحديد ما يمتلكونه وتحديد كيفية استخدام أعمالهم في أبحاث التعلم الآلي. نحن نهدف إلى دمج ميزات إضافية بمرور الوقت."

ستستخدم هذه الأداة الرائدة أبحاث التعلم الآلي المتقدمة لتحديد النصوص والصور والمقاطع الصوتية ومقاطع الفيديو المحمية بحقوق الطبع والنشر عبر منصات متعددة، لضمان احترام تفضيلات المبدعين. وتجري OpenAI تعاونًا وثيقًا مع المبدعين ومالكي المحتوى والهيئات التنظيمية خلال مراحل تطويرها، بهدف وضع معايير صناعية بحلول عام 2025.

رغم عدم توفر تفاصيل الأسعار بعد، يُتوقع أن تكون الأداة مجانية، حيث تسعى OpenAI لأن تكون رائدة أخلاقياً في تطوير الذكاء الاصطناعي.

لماذا يعد مدير الوسائط ضروريًا؟

يهدف مدير الوسائط إلى تعزيز الحماية للمبدعين ضد سحب بيانات الذكاء الاصطناعي غير المصرح به، متجاوزًا الطريقة السابقة المتمثلة في تكوين ملف robots.txt (“User-agent: GPTBot Disallow: /”) والتي اعتمدتها OpenAI في أغسطس 2023. يشارك العديد من المبدعين أعمالهم على منصات لا يسيطرون عليها، مثل DeviantArt وPatreon، مما يحد من قدرتهم على تعديل إعدادات الوصول. علاوة على ذلك، قد يرغب البعض في استبعاد أعمال معينة فقط من سحب البيانات، وسيوفر مدير الوسائط التحكم الدقيق المطلوب.

تعترف OpenAI بأن الحلول الحالية غير كافية، حيث يفتقر العديد من المبدعين إلى السيطرة على مكان ظهور محتواهم وكيفية استخدامه عبر الإنترنت. "نحن ندرك أن هذه الحلول غير كاملة"، كما جاء في المدونة، مما يسلط الضوء على الحاجة إلى طريقة أكثر كفاءة لمالكي المحتوى للتواصل حول تفضيلاتهم بشأن استخدام الذكاء الاصطناعي.

معالجة الانتقادات بشأن سحب بيانات الذكاء الاصطناعي

تستجيب هذه المبادرة للقلق المستمر من الفنانين المرئيين ومبدعي المحتوى حول قيام شركات الذكاء الاصطناعي، بما في ذلك OpenAI، بسحب البيانات دون إذن أو تعويض. وقد بدأ العديد من المبدعين رفع دعاوى جماعية تتهم هذه الشركات بالانتهاك لحقوق الطبع والنشر.

تدعي OpenAI أن الزحف وسحب البيانات كانا ممارسات مقبولة تاريخيًا عبر الإنترنت، مشيرة إلى الانتشار الواسع لمعيار robots.txt لتوجيه الزواحف حول ما يمكن الوصول إليه.

ومع ذلك، يعارض العديد من الفنانين الآن تدريب الذكاء الاصطناعي التوليدي على أعمالهم، حيث يتنافس ذلك مباشرةً مع سبل عيشهم. كما قدمت OpenAI تعويضات لمشتركَيها المدفوعين الذين يواجهون دعاوى انتهاك حقوق الطبع والنشر، في محاولة لتبديد مخاوف عملائها في القطاع.

السياق القانوني والتداعيات المستقبلية

لا يزال الإطار القانوني المحيط بسحب بيانات الذكاء الاصطناعي للمحتويات المحمية بحقوق الطبع والنشر في تطور. ومع ذلك، بغض النظر عن نتائج الأمور القانونية، يبدو أن OpenAI تركز على تصوير نفسها ككيان أخلاقي فيما يتعلق بمبدعي المحتوى.

قد يرى العديد من المبدعين أن هذه الجهود غير كافية، بالنظر إلى أن أعمالهم قد استخدمت بالفعل لتدريب نماذج الذكاء الاصطناعي دون إذن. وتزعم OpenAI أنها لا تحتفظ بنسخ شاملة من البيانات المسحوبة؛ بل تعلن أنها تنتج نماذج تعتمد على العلاقات والعمليات المتعلقة ببيانات الإدخال.

كما تؤكد OpenAI: "نماذج الذكاء الاصطناعي لدينا هي آلات تعلم، وليس قواعد بيانات. تم تصميمها لإنشاء محتوى وأفكار جديدة، وليس لتكرار المحتوى القائم. عندما تتكرر المحتويات التعبيرية أحيانًا، فهذا ناتج عن قيود عملية التعلم الآلي."

يمتلك مدير الوسائط القدرة على أن يكون حلاً أكثر سهولة للتحكم في تدريب الذكاء الاصطناعي مقارنة بالطرق الحالية مثل Glaze وNightshade. ومع ذلك، يبقى أن نرى مدى الثقة في هذه الأداة، خصوصًا مع وجود OpenAI، ومدى فعاليتها ضد النماذج المنافسة.

Most people like

Find AI tools in YBX