فتح نماذج اللغة الكبيرة: إتقان الفوضى في التجارب الإلكترونية

في تحول ثوري عن الممارسات التقليدية، تقوم شركات الذكاء الاصطناعي التوليدي بنشر نماذج اللغة الكبيرة (LLMs) مباشرة في بيئة الإنترنت غير المتوقعة لضمان الجودة. لماذا نخصص الوقت للاختبار الدقيق عندما يمكن للمجتمع عبر الإنترنت التعرف بشكل جماعي على الأخطاء؟ هذه التجربة الجريئة تدعو المستخدمين للمشاركة في اختبار تجريبي واسع وغير مخطط له. كل استفسار يكشف النقاط الفريدة لنماذج اللغة الكبيرة، بينما يعمل الإنترنت الواسع كمرجع شامل للأخطاء بشرط موافقة المستخدمين على الشروط والأحكام.

الأخلاقيات والدقة: اختيار أم ضرورة؟

يشبه الاندفاع لإطلاق نماذج الذكاء الاصطناعي التوليدي توزيع الألعاب النارية — مثير ولكنه قد يكون خطيرًا. على سبيل المثال، قدمت Mistral مؤخرًا نموذجها 7B بموجب تراخيص Apache 2.0. ومع ذلك، فإن غياب القيود الصريحة على الاستخدام يشير إلى مخاوف مثيرة بشأن إمكانية إساءة الاستخدام. يمكن أن تؤدي التعديلات الطفيفة في المعلمات الأساسية إلى نتائج مختلفة تمامًا. علاوة على ذلك، فإن التحيزات المتجدرة في الخوارزميات وبيانات التدريب تعمق الفوارق الاجتماعية. تعمل CommonCrawl، التي تزود الجزء الأكبر من بيانات تدريب نماذج اللغة الكبيرة (60% لـ GPT-3 و67% لـ LLaMA)، بدون رقابة صارمة على الجودة، مما يضع عبء اختيار البيانات على المطورين. من الضروري الاعتراف بهذه التحيزات ومعالجتها لضمان نشر ذكاء اصطناعي أخلاقي.

يجب أن يكون تطوير البرمجيات الأخلاقية أمرًا إلزاميًا، وليس اختياريًا. ومع ذلك، إذا اختار المطورون تجاهل الإرشادات الأخلاقية، فإن هناك حمايات محدودة. لذلك، من الضروري للسياسيين والمنظمات أن يضمنوا تطبيقًا مسؤولًا وغير منحاز للذكاء الاصطناعي التوليدي.

من يتحمل المسؤولية؟

تظل البيئة القانونية المحيطة بنماذج اللغة الكبيرة غامضة، مما يؤدي غالبًا إلى تساؤلات حاسمة حول المساءلة. لا تضمن شروط الخدمة للذكاء الاصطناعي التوليدي الدقة أو تقبل المسؤولية، بل تعتمد على تقدير المستخدم. يستخدم العديد من الأشخاص هذه الأدوات للتعلم أو العمل، لكن قد يفتقرون إلى المهارات اللازمة لتمييز المعلومات الموثوقة عن المحتوى الوهمي. يمكن أن تمتد تأثيرات عدم الدقة إلى العالم الواقعي؛ على سبيل المثال، انخفض سعر أسهم Alphabet بعد أن ذكر روبوت الدردشة Bard الخاص بشركة جوجل بشكل خاطئ أن تلسكوب جيمس ويب الفضائي قد التقط الصور الأولى لكوكب خارج نظامنا الشمسي.

مع دمج نماذج اللغة الكبيرة في تطبيقات اتخاذ القرارات الهامة، تثار تساؤلات حول من يجب أن يتحمل المسؤولية في حال حدوث أخطاء — هل يجب أن تكون على عاتق مزود نموذج اللغة الكبيرة، أم مزود الخدمة الذي يستخدم هذه النماذج، أم المستخدم الذي لم يتحقق من المعلومات؟

اعتبر سيناريوهين: السيناريو (أ) ينطوي على مركبة معطلة تؤدي إلى حادث، بينما السيناريو (ب) يعرض قيادة متهورة تؤدي إلى نفس النتيجة. العواقب مؤسفة، لكن المساءلة تختلف. مع نماذج اللغة الكبيرة، قد تنشأ الأخطاء من مزيج من فشل المزود وإهمال المستخدم، مما يعقد المساءلة.

الحاجة إلى "عدم فهرسة LLM"

تسمح قاعدة "عدم الفهرسة" الحالية لمنشئي المحتوى بالامتناع عن الفهرسة من قبل محركات البحث. يمكن أن تمكّن خيار مشابه، وهو "عدم فهرسة LLM"، المنشئين من منع معالجة محتواهم بواسطة نماذج اللغة الكبيرة. لا تمتثل النماذج الحالية لقانون خصوصية المستهلك في كاليفورنيا (CCPA) أو حق الإزالة بموجب اللائحة العامة لحماية البيانات (GDPR)، مما يعقد طلبات حذف البيانات. على عكس قواعد البيانات التقليدية حيث تكون البيانات قابلة للتحديد والحذف بسهولة، تنتج نماذج اللغة الكبيرة مخرجات بناءً على الأنماط المتعلمة، مما يجعل من المستحيل تقريبًا استهداف بيانات معينة للحذف.

التنقل في البيئة القانونية

في عام 2015، اعتبرت محكمة استئناف أمريكية أن مسح جوجل للكتب من أجل Google Books هو "استخدام عادل"، مشيرة إلى طبيعته التحويلية. ومع ذلك، يتجاوز الذكاء الاصطناعي التوليدي هذه الحدود، مما يثير تحديات قانونية بشأن تعويض منشئي المحتوى الذين تغذي أعمالهم نماذج اللغة الكبيرة. تواجه الشركات الكبرى مثل OpenAI وMicrosoft وGitHub وMeta دعاوى قضائية تتعلق بإعادة إنتاج الشيفرات البرمجية من البرمجيات مفتوحة المصدر. يجب أن يكون لمبدعي المحتوى على منصات التواصل الاجتماعي القدرة على اختيار عدم استثمار أو السماح لعملهم بالإدخال في نماذج اللغة الكبيرة.

نظرة مستقبلية

تختلف معايير الجودة بشكل كبير بين القطاعات؛ على سبيل المثال، يتعطل تطبيق Amazon Prime Music يوميًا، بينما يمكن أن يكون لمعدل تعطل قدره 2% في الرعاية الصحية أو الخدمات العامة عواقب مدمرة. في الوقت نفسه، تبقى توقعات أداء نماذج اللغة الكبيرة غير مستقرة. على عكس فشل التطبيقات التي يسهل التعرف عليها، فإن تحديد متى تعطل الذكاء الاصطناعي أو ينتج عن hallucinations أمر معقد. مع تقدم الذكاء الاصطناعي التوليدي، يبقى التوازن بين الابتكار والحقوق الأساسية أمرًا حاسمًا للسياسيين والتقنيين والمجتمع. تدعو المقترحات الأخيرة من اللجنة الفنية الوطنية لمعايير أمن المعلومات في الصين وأمر تنفيذي من الرئيس بايدن إلى وضع أطر لإدارة مسائل الذكاء الاصطناعي التوليدي.

ليست التحديات جديدة؛ توضح تجارب الماضي أنه، على الرغم من المشاكل المستمرة مثل الأخبار الزائفة، غالبًا ما تستجيب المنصات بشكل ضئيل. تتطلب نماذج اللغة الكبيرة مجموعات بيانات واسعة غالبًا ما يتم الحصول عليها مجانًا من الإنترنت. على الرغم من إمكانية تنسيق هذه المجموعات من حيث الجودة، إلا أن تعريف "الجودة" يبقى ذا طابع ذاتي. السؤال الرئيسي هو: هل سيتصدى مزودو نماذج اللغة الكبيرة فعلاً لهذه القضايا أم سيستمرون في دفع المسؤولية بعيدًا؟

استعد، فإنه ستكون رحلة مثيرة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles