Fairly Trained تطلق شهادة للذكاء الاصطناعي الأخلاقي: ضمان استخدام الأدوات التوليدية للبيانات المرخصة

غالبًا ما يُشار إلى ذلك على أنه "الخطيئة الأصلية" في الذكاء الاصطناعي التوليدي: حيث تم تدريب العديد من النماذج الرائدة من شركات مثل OpenAI وMeta على بيانات تم جمعها من الإنترنت دون موافقة أو علم مسبق من المبدعين الأصليين. تُدافع شركات الذكاء الاصطناعي عن هذه الممارسة بحجة أنها قانونية. تشير OpenAI في منشور مدونة حديث إلى أن "تدريب نماذج الذكاء الاصطناعي باستخدام المواد المتاحة علنًا عبر الإنترنت هو استخدام عادل، مدعوم بسوابق قانونية طويلة الأمد. نحن نعتقد أن هذا المبدأ عادل للمبدعين وضروري للمبتكرين وحيوي للمنافسة الأمريكية."

تاريخ جمع البيانات هذا يسبق ظهور الذكاء الاصطناعي التوليدي، حيث تم استخدامه في العديد من قواعد البيانات البحثية والمنتجات التجارية، بما في ذلك محركات البحث الشهيرة مثل Google، التي يعتمد عليها المبدعون لجذب الحركة إلى مشاريعهم. ومع ذلك، تزداد المعارضة ضد هذه الممارسة، حيث قام عدد من المؤلفين والفنانين برفع دعاوى ضد العديد من شركات الذكاء الاصطناعي بزعم انتهاك حقوق الطبع والنشر من خلال التدريب على أعمالهم دون موافقة صريحة. ومن بين الشركات التي تواجه تدقيقًا، تبرز Midjourney وOpenAI.

ظهرت منظمة غير ربحية جديدة تُدعى "Fairly Trained" للدفاع عن حقوق مبدعي البيانات، مُصممةً على ضرورة الحصول على موافقة صريحة قبل استخدام أعمالهم في تدريب الذكاء الاصطناعي. تأسست المنظمة بالتعاون مع إيد نيوتن-ريكس، الموظف السابق في Stability AI، وتهدف إلى ضمان احترام شركات الذكاء الاصطناعي لحقوق المبدعين.

تقول المنظمة على موقعها الإلكتروني: "نعتقد أن العديد من المستهلكين والشركات يفضلون التعاون مع شركات الذكاء الاصطناعي التوليدي التي تعتمد على بيانات مقدمة بموافقة مبدعيها." ويشدد نيوتن-ريكس على ضرورة وجود مسار مستقبلي للذكاء الاصطناعي التوليدي يكرم المبدعين ويدعو إلى نموذج ترخيص لبيانات التدريب. وأضاف على وسائل التواصل الاجتماعي: "إذا كنت تعمل في أو تعرف شركة ذكاء اصطناعي توليدي تركز على هذا النهج، أرجو منك التفكير في الحصول على الشهادة."

عند سؤاله عن الحجة الشائعة من مؤيدي الذكاء الاصطناعي بأن التدريب على البيانات المتاحة علنًا مشابه لكيفية تعلم البشر من ملاحظة الأعمال الإبداعية، رد نيوتن-ريكس: "هذه الحجة flawed لسببين. أولاً، الذكاء الاصطناعي يتوسع. يمكن لذكاء اصطناعي واحد إنتاج كميات هائلة من المحتوى قد تعوض الطلب عن الكثير من المحتوى الأصلي—وهو شيء لا يمكن لأي إنسان القيام به. ثانيًا، يعتمد التعلم البشري على عقد اجتماعي مُعترف به؛ حيث تعلم المبدعون دائمًا أن أعمالهم يمكن أن تلهم الآخرين. لم يتوقعوا أن تستفيد أنظمة الذكاء الاصطناعي من إبداعاتهم لتوليد محتوى متنافس على نطاق واسع."

يوجه نيوتن-ريكس شركات الذكاء الاصطناعي التي قامت بالفعل بالتدريب على بيانات متاحة علنًا نحو الانتقال إلى نموذج ترخيص، والحصول على إذن من المبدعين. "نحن في بداية تطور الذكاء الاصطناعي التوليدي، ولا يزال هناك وقت لإنشاء نظام بيئي مفيد بشكل متبادل للمبدعين البشر وشركات الذكاء الاصطناعي"، أضاف.

قدمت "Fairly Trained" شهادة "نموذج مرخص (L) لموفرين الذكاء الاصطناعي" لتمييز الشركات التي تحصل على موافقة لبيانات التدريب عن تلك التي لا تفعل ذلك. تتضمن عملية الشهادة تقديمًا عبر الإنترنت يعقبه مراجعة أكثر شمولاً، مع رسوم تتراوح بين 150 إلى 6000 دولار حسب الإيرادات السنوية. وشرح نيوتن-ريكس، "نفرض رسومًا لتغطية تكاليفنا، وهي منخفضة بما يكفي لعدم عائقها أمام شركات الذكاء الاصطناعي التوليدي." حصلت عدة شركات، بما في ذلك Beatoven.AI وSoundful، على هذه الشهادة، رغم أن نيوتن-ريكس لم يكشف عن مبالغ الرسوم المحددة.

عند استفساره عن شركات مثل Adobe وShutterstock التي تدرب نماذج الذكاء الاصطناعي باستخدام أعمال المبدعين وفقًا لشروط الخدمة الخاصة بها، قال: "نفضل عدم التعليق على نماذج محددة لم نمنحها الشهادة. إذا كانوا يعتقدون أن نماذجهم تلبي معايير شهادتنا، فإنهم مُشجعون على التقديم."

من بين المستشارين لـ Fairly Trained، توم غروبر، كبير التقنيين السابق في Siri، وماريا بالانتي، رئيسة ومديرة جمعية الناشرين الأمريكيين. تشمل الداعمين منظمات بارزة مثل جمعية ناشري الموسيقى المستقلة وUniversal Music Group، وكلاهما معني بقضايا قانونية ضد شركة الذكاء الاصطناعي Anthropic بسبب كلمات أغاني محمية بحقوق الطبع والنشر.

عند سؤاله عما إذا كانت Fairly Trained تشارك في أي دعاوى قضائية جارية، أوضح نيوتن-ريكس: "لا، أنا لست معنيًا بأي من الدعاوى." كما أكد أنه لا توجد حاليًا أي مصادر تمويل خارجية لـ Fairly Trained باستثناء رسوم الشهادة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles