يجب أن يتولى "نحن الشعب" زمام الأمور في مجال الذكاء الاصطناعي، وليس شركات التكنولوجيا أو النخب السياسية. تسلط الحوادث الأخيرة التي واجهتها شركة Google مع نظام Gemini للذكاء الاصطناعي الضوء على هذا الأمر الضروري.
يفشل Gemini في تصنيف الشخصيات التاريخية بدقة، حيث يزعم أن هتلر ليس أسوأ من تغريدات إيلون ماسك. كما يتجنب صياغة وثائق سياسات تدعو لاستخدام الوقود الأحفوري. بالإضافة إلى ذلك، يتسبب في إنشاء صور تصور مؤسسي أمريكا الأوائل بأعراق وأجناس مختلفة عن هويتهم الحقيقية.
قد تبدو هذه الأمثلة سخيفة، لكنها تشير إلى دكتاتورية محتملة حيث يتحكم البيروقراطيون غير المسؤولين في شركات الذكاء الاصطناعي في الأفكار والقيم التي يمكن التعبير عنها. ويجب أن يكون ذلك غير مقبول للجميع، بغض النظر عن الأيديولوجية.
السعي للتدخل الحكومي لتنظيم خطاب الذكاء الاصطناعي ينطوي على مخاطر. فعلى الرغم من أن التنظيم ضروري لسلامة ومواءمة الذكاء الاصطناعي، يجب على المجتمع الحر مقاومة السماح للحكومات بتحديد الأفكار التي يمكن أن تُطرح أو تُقمع.
من الواضح أنه لا ينبغي لأي من الشركات أو الكيانات الحكومية التحكم في هذه القرارات. ومع ذلك، ومع تحول المستخدمين إلى أدوات الذكاء الاصطناعي للمعلومات وتوليد المحتوى، سيكون لهم توقعات متنوعة حول القيم التي ينبغي أن تعكسها هذه الأدوات.
توجد حلقة فعالة: منح السلطة للمستخدمين في إدارة الذكاء الاصطناعي.
استراتيجيات تمكين المستخدمين في الذكاء الاصطناعي
على مدى السنوات الخمس الماضية، تعاونت مع صناعة التكنولوجيا كعالم سياسي أكاديمي لاستكشاف طرق تمكين المستخدمين في إدارة المنصات الإلكترونية. إليك ما تعلمته حول كيفية وضع المستخدمين في موقع السيطرة على الذكاء الاصطناعي:
1. أطر حماية تحددها المستخدمون: ينبغي علينا إنشاء سوق لنماذج الذكاء الاصطناعي المتنوعة والمخصصة. يجب أن يتمكن أصحاب المصلحة المختلفون - مثل الصحفيين والمجموعات الدينية والمنظمات والأفراد - من تخصيص واختيار نسخ من النماذج مفتوحة المصدر تتوافق مع قيمهم. وهذا سيسرع من تخفيف الضغط على الشركات للعمل كـ"الحُكام للحقائق".
2. أطر حماية مركزية: على الرغم من أن نهج السوق يقلل من بعض الضغوطات، إلا أن هناك حاجة لأطر حماية أساسية. بعض المحتويات - وخاصة المواد غير القانونية أو الحالات الغامضة من السخرية أو الشتائم أو الصور الحساسة سياسياً - تتطلب معايير موحدة عبر جميع النماذج. يجب أن يكون للمستخدمين صوت في إنشاء هذه الأطر الحماية المركزية الدنيا.
بعض شركات التكنولوجيا بدأت بالفعل في تجربة الديمقراطية. على سبيل المثال، أطلقت Meta منتدى مجتمعياً في 2022 لجمع آراء الجمهور حول أداة LlaMA للذكاء الاصطناعي، بينما سعت OpenAI إلى "مدخلات ديمقراطية للذكاء الاصطناعي"، وأصدرت Anthropic دستوراً للذكاء الاصطناعي من تأليف المستخدمين.
3. قوة ديمقراطية حقيقية: لإنشاء هيكل ديمقراطي قوي، يجب على المستخدمين اقتراح مناقشة والتصويت على القضايا المهمة، مع كون قراراتهم ملزمة للمنصة. بينما ينبغي تحديد الاقتراحات لتجنب انتهاك القوانين، يجب أن تُعطي القوة للمستخدمين على الأطر الحماية المركزية.
على الرغم من عدم تنفيذ أي منصة حتى الآن لآلية تصويت كهذه، إلا أن التجارب في الويب 3 تعطي رؤى قيمة. إليك أربع دروس رئيسية يمكن أن تعتمدها منصات الذكاء الاصطناعي:
- أهمية التصويت الملموس: ربط القوة التصويتية برموز رقمية ذات فائدة على المنصة، مثل شراء وقت معالجة الذكاء الاصطناعي.
- التصويت المفوض: يجب على المستخدمين تفويض أصواتهم لخبراء موثوقين يشرحون قراراتهم علنًا.
- مكافآت المشاركة: تشجيع المشاركة النشطة في الإدارة من خلال مكافأة المستخدمين برموز إضافية مقابل انخراطهم الفعال.
- دستور واضح: وضع إطار دستوري يوضح نطاق الاقتراحات، توزيع قوة التصويت، والتزام الشركة بالتخلي عن السيطرة على الأطر الحماية المركزية.
بناء الثقة في أنظمة الذكاء الاصطناعي
يمكن لمنصات الذكاء الاصطناعي تطبيق هذا النموذج الديمقراطي على نطاق صغير، وتوسيع تأثيره تدريجياً. لكي ينجح هذا، يجب على شركات الذكاء الاصطناعي الالتزام بالتخلي عن السيطرة على الأطر الحماية المركزية. فقط حينها يمكن للمجتمع أن يثق في أن المعلومات والإجابات التي تقدمها هذه الأدوات ليست متلاعباً بها من قِبل جهات غير مسؤولة لا تتوافق مع قيم المستخدمين الذين تخدمهم.