تشير دراسة حديثة إلى أن قادة الأعمال في الولايات المتحدة يدعون بشكل متزايد إلى وضع تنظيم شامل للذكاء الاصطناعي، مدعومين بمخاوف متزايدة حول خصوصية البيانات ومخاطر الأمان والتطبيق الأخلاقي لتقنيات الذكاء الاصطناعي. أجرت شركة Harris Poll استطلاعًا بالتعاون مع Collibra، وهي شركة مختصة في ذكاء البيانات، مقدمة رؤى قيمة حول كيفية إدارة المنظمات لتحديات تبني الذكاء الاصطناعي والتنظيم.
أظهر الاستطلاع، الذي شمل إجابات من 307 بالغين أمريكيين في مناصب مديرين أو أعلى، أن 84% من صانعي القرار في مجالات البيانات والخصوصية والذكاء الاصطناعي يؤيدون تحديث قوانين حقوق الطبع والنشر في الولايات المتحدة لحماية حقوق المبدعين من إساءة استخدام الذكاء الاصطناعي، مما يعكس الفجوة المتزايدة بين التقدم التكنولوجي السريع والأطر القانونية الحالية.
قال فيليكس فان دي مائيل، الشريك المؤسس والرئيس التنفيذي لشركة Collibra: "لقد غيّر الذكاء الاصطناعي بشكل جذري العلاقة بين بائعي التكنولوجيا والمبدعين. إن النشر السريع للأدوات التي تعتمد على الذكاء الاصطناعي generative يتطلب إعادة تقييم مفهوم 'الاستخدام العادل' وتطبيق قوانين حقوق الطبع والنشر الأمريكية القديمة على التقنيات الحديثة."
وأشار فان دي مائيل إلى أهمية العدالة في هذا المشهد المتغير، موضحًا: "يستحق المبدعون مزيدًا من الشفافية والحماية والتعويض. تعتبر البيانات العمود الفقري للذكاء الاصطناعي، مما يتطلب مصادر موثوقة وعالية الجودة، مثل المواد المحمية بحقوق الطبع والنشر، لإنتاج نتائج موثوقة. من العدل فقط أن يحصل المبدعون على التعويض والحماية التي يستحقونها."
يتزامن الدفع لتحديث قوانين حقوق الطبع والنشر مع زيادة في الدعاوى القضائية البارزة ضد شركات الذكاء الاصطناعي بسبب مزاعم انتهاك حقوق الطبع والنشر، مما يلقي الضوء على القضايا المعقدة المحيطة باستخدام الذكاء الاصطناعي للمواد المحمية في غرض التدريب.
علاوة على ذلك، أظهر الاستطلاع دعمًا كبيرًا لتعويض الأفراد الذين تُستخدم بياناتهم في تدريب نماذج الذكاء الاصطناعي، حيث وافق 81% من المشاركين على فكرة تقديم شركات التكنولوجيا الكبرى لمثل هذا التعويض، مما يشير إلى تحول في قيمة البيانات الشخصية في عصر الذكاء الاصطناعي.
قال فان دي مائيل: "يجب تعويض وحماية جميع المبدعين، بغض النظر عن حجمهم، عندما تُستخدم بياناتهم." وأشار إلى أنه مع الانتقال إلى تقدير مواهب البيانات بشكل أكبر، ستتلاشى الفروق بين المبدعين و"المواطنين البيانات" - الأفراد المسؤولين عن استخدام البيانات في أدوارهم.
كما أظهر الاستطلاع تفضيلًا للتنظيم الفيدرالي ومستوى الدولة للذكاء الاصطناعي بدلاً من الرقابة الدولية، مما يعكس المشهد التنظيمي الحالي في الولايات المتحدة، حيث بدأت ولايات مثل كولورادو في صياغة لوائح خاصة بها في ظل نقص الإرشادات الفيدرالية الشاملة.
وأشار فان دي مائيل إلى أن "ولايات مثل كولورادو وضعت سابقة لقوانين شاملة بشأن الذكاء الاصطناعي، على الرغم من أن البعض قد يعتبر ذلك سابقًا لأوانه. ومع ذلك، فإنه يوضح ما يجب القيام به لحماية الشركات والمواطنين."
أظهر الاستطلاع أيضًا اختلافًا ملحوظًا بين الشركات الكبيرة والصغيرة في دعمها لتنظيم الحكومة للذكاء الاصطناعي، حيث أبدت الشركات الكبيرة (1000 موظف أو أكثر) ميلًا أكبر لدعم هذه اللوائح مقارنة بالشركات الأصغر (1-99 موظفًا).
يمكن أن يُعزى هذا الاختلاف إلى الموارد والمخاطر مقارنة بالعائد على الاستثمار، وفقًا لفان دي مائيل. "غالبًا ما تتعامل الشركات الصغيرة مع التقنيات الجديدة بشيء من الشك والحذر. هناك تصور شائع بأن الذكاء الاصطناعي مصمم بشكل خاص للتكنولوجيا الكبرى، مما يتطلب استثمارات كبيرة وقد يعمل على تعطيل نماذج التشغيل القائمة."
عبر المشاركون عن ثقتهم الكبيرة في مبادرات الذكاء الاصطناعي التي تنفذها شركاتهم، لكن فجوة ثقة ظهرت بخصوص الحكومة والتكنولوجيا الكبرى، مما يساهم في صياغة تحديات للسياسيين وقادة الصناعة في تشكيل مستقبل تنظيم الذكاء الاصطناعي.
تصدرت مخاوف الخصوصية والأمان قائمة التهديدات المعتبرة لتنظيم فعّال للذكاء الاصطناعي في الولايات المتحدة، حيث أشار 64% من المشاركين إلى أنها قضايا رئيسية. وقد استجابت شركات مثل Collibra بتطوير حلول لتعزيز حوكمة الذكاء الاصطناعي.
أوضح فان دي مائيل: "بدون حوكمة مناسبة للذكاء الاصطناعي، تزداد احتمالية حدوث مشكلات الخصوصية ومخاطر الأمان." وقد قدمت Collibra نظام حوكمة الذكاء الاصطناعي، وهو حل مصمم لتعزيز التعاون بين الفرق، وضمان توافق مشاريع الذكاء الاصطناعي مع المعايير القانونية والخصوصية، وتقليل مخاطر البيانات، وتحسين الأداء والعائد على الاستثمار.
مع تسارع وتيرة تقنيات الذكاء الاصطناعي، أظهر الاستطلاع أن 75% من المشاركين يعتقدون أن شركاتهم تعطي الأولوية للتدريب وزيادة المهارات في مجال الذكاء الاصطناعي، مما يدل على تحول جذري في سوق العمل.
وفي الوقت الذي يتجاوز فيه آثار الذكاء الاصطناعي، سلط فان دي مائيل الضوء على الأولويات الأساسية لحوكمة الذكاء الاصطناعي في الولايات المتحدة: الاستفادة من البيانات كأصل حيوي، إنشاء إطار موثوق، الاستعداد لظهور مواهب البيانات، والتأكيد على الوصول المسؤول قبل الذكاء الاصطناعي المسؤول.
وأكد على أنه "يجب أن تتجاوز الحوكمة تكنولوجيا المعلومات؛ يجب أن تركز حوكمة البيانات على جودة البيانات وكمّها."
تسلط النتائج الضوء على الحاجة الملحة لاستراتيجيات حوكمة شاملة حيث يواصل الذكاء الاصطناعي إعادة تشكيل الصناعات وتحدي الأطر التنظيمية القائمة. بينما تسعى الشركات لتبني تقنيات الذكاء الاصطناعي، تدرك تمامًا المخاطر المرتبطة وتسعى إلى إرشادات واضحة من صانعي السياسات لتطوير ونشر مسؤول.
من المحتمل أن تشهد السنوات القادمة مناقشات مكثفة بين الحكومة والصناعة والمجتمع المدني بينما يسعون لإنشاء بيئة تنظيمية تعزز الابتكار مع حماية الحقوق الفردية وتعزيز الممارسات الأخلاقية في الذكاء الاصطناعي. ستحتاج الشركات بجميع أحجامها إلى البقاء مطلعة وقابلة للتكيف، مع التركيز على حوكمة البيانات المتينة وأخلاقيات الذكاء الاصطناعي لتجاوز التحديات والفرص المستقبلية.