هذا الأسبوع، وافقت لجنة التجارة الفيدرالية (FTC) على قرار شامل يعزز سلطاتها التحقيقية على منتجات وخدمات الذكاء الاصطناعي (AI). مع تزايد تأثير الذكاء الاصطناعي في مختلف الصناعات، يركز المنظمون بشكل متزايد على تداعياته. يعني هذا القرار أن ممارسات الذكاء الاصطناعي ستواجه تدقيقًا أكبر، حيث يمكن للجنة جمع المعلومات من خلال المطالبات التحقيقية المدنية (CIDs)، كما ورد في بيان يوم الإثنين.
من الجدير بالذكر أن اللجنة استخدمت سابقًا الـCIDs لمواجهة المكالمات الآلية غير القانونية في قطاع التكنولوجيا. في عام 2022، حصلت على أوامر من محكمة اتحادية ضد مزودي VoIP مثل XCast Labs وDeltracon لعدم امتثالهم للـCIDs القائمة.
أكد صموئيل ليفين، مدير حماية المستهلك في اللجنة، أن الـCIDs تتمتع بقوة القانون، وأن عدم الامتثال يمكن أن يؤدي إلى اتهامات بالاحتقار. وهذا يبرز أهمية الاستجابة السريعة والشاملة لطلبات البيانات.
نظرًا لأن هذا القرار الموسع الخاص بالذكاء الاصطناعي يعكس سلطة اللجنة في قطاعات أخرى، يتعين على شركات التكنولوجيا الاستعداد من خلال تنظيم السجلات الداخلية المتعلقة بمزاعم الذكاء الاصطناعي، وتطوير المنتجات، والرقابة من طرف ثالث. سيسهل الاستباق الاستجابة السريعة في حال حدوث تحقيقات.
تأكيد المزاعم بالأدلة
يهدف قرار اللجنة إلى تسريع جمع الحقائق المتعلقة بتأثير الذكاء الاصطناعي على حماية المستهلك والمنافسة العادلة. يجب أن تكون الادعاءات التسويقية حول حلول الذكاء الاصطناعي مدعومة بأدلة ملموسة، بما في ذلك بيانات تدريب النماذج، ودراسات التحقق، ودراسات حالة تظهر الفعالية في العالم الحقيقي، وتقارير المراقبة المستمرة. ستعزز توثيقات المراجعات من الأقران، ورقابة البيانات من طرف ثالث، وجهود تخفيف المخاطر من المصداقية.
من دون توثيق قوي، قد تؤدي الادعاءات الغامضة أو غير المدعومة المتعلقة بقدرات نظام الذكاء الاصطناعي إلى عمليات تدقيق تنظيمية أو إجراءات إنفاذ.
معالجة العدالة والتحيز والامتثال من البداية
ستظل العدالة الخوارزمية وتخفيف التحيز مهمين مع تزايد تأثير الذكاء الاصطناعي على عمليات اتخاذ القرارات المهمة. تتوقع اللجنة من الشركات معالجة هذه القضايا بشكل استباقي طوال دورة حياة تطوير المنتجات. يمكن أن يُظهر التوثيق الفعال لعمليات التصميم، وتقييم الأثر، وبروتوكولات إدارة المخاطر، واستراتيجيات الاستجابة، العناية الواجبة.
بالنسبة للمنظمات التي تستخدم الذكاء الاصطناعي بالفعل، يجب أن تظهر برامج الامتثال مراقبة مستمرة والتزامًا بحل القضايا الناشئة. حتى في حال ظهور مشاكل تقنية، يمكن أن تعزز التدابير التصحيحية الشفافة حسن النية مع المنظمين، بينما يُنصح بالتوجه الاستباقي مع ازدياد التدقيق.
إدارة علاقات الطرف الثالث
التعاون ضروري لتحقيق التقدم، ومع ذلك، يمتد قرار اللجنة الجديد إلى ما هو أبعد من الفرق الداخلية. يجب على المنظمات التي تعتمد على أطراف ثالثة للحصول على البيانات أو تدريب النماذج أو جوانب أخرى من حلول الذكاء الاصطناعي ضمان الوصول إلى المعلومات ذات الصلة.
تعد الحماية التعاقدية القوية التي تدعم الشفافية، والتحقق من المطالبات، والعناية الواجبة، أساسية. تحمي عمليات التدقيق الروتينية على عمليات الطرف الثالث المنظمة و مستخدميها. يُعترف بهذا النطاق التنظيمي الموسع مع ازدياد شراكات التكنولوجيا؛ لا يمكن أن تلغي عمليات الاستعانة بمصادر خارجية المسؤوليات المتعلقة بالامتثال.
دور اللجنة النشط في تنظيمات الذكاء الاصطناعي
بالإضافة إلى توسيع سلطاتها التحقيقية، تخطط اللجنة لإطلاق تحدي استنساخ الصوت في نوفمبر. تهدف هذه المبادرة إلى تطوير حلول تقنية وسياسات لحماية المستخدمين من الاحتيال المالي وانتهاكات الخصوصية المرتبطة بالأصوات الاصطناعية.
تدرك اللجنة أنه مع ظهور تقنيات جديدة، يجب أن تُنفذ تدابير حماية مصاحبة لمنع إساءة الاستخدام، مثل انتحال أصوات الآخرين للاحتيال. يشجع التحدي على التعاون بين المعنيين لمعالجة هذه التحديات.
علاوة على ذلك، خلال تحقيق مكتب حقوق النشر الأمريكي في الذكاء الاصطناعي التوليدي، أبرزت اللجنة سلطتها في القضايا المتعلقة بحماية المستهلك والمنافسة. في حين أن قضايا حقوق النشر تقع عادة تحت إشراف مختلف، جادلت اللجنة بأن بعض استخدامات المحتوى الذي أنشأه الذكاء الاصطناعي يمكن أن تؤدي إلى الخداع أو ممارسات غير عادلة، مما قد ينتهك لوائحها. وقد أثار هذا الرأي انتقادات من أولئك الذين يشعرون بأنه يتجاوز المبادئ القانونية القائمة مثل الاستخدام العادل.
ومع ذلك، مع استمرار تحدي التكنولوجيات الجديدة للأطر التنظيمية التقليدية، من المحتمل أن تزداد مطالبات اللجنة لسلطتها. في نهاية المطاف، تهدف الوكالة إلى تحقيق التوازن بين الابتكار والرقابة المسؤولة من خلال مزيج من المبادرات الاستشارية واستراتيجيات الإنفاذ التقليدية.