تقوم Google Cloud بخطوة هامة لتعزيز ثقة عملائها من خلال الالتزام بتغطية المطالبات القانونية الناتجة عن انتهاكات حقوق النشر المتعلقة بأدوات الذكاء الاصطناعي التي تقدمها. هذه الالتزامات تكتسب أهمية خاصة بالنسبة للشركات التي تستخدم نماذج الذكاء الاصطناعي المدربة على محتوى محمي بحقوق الطبع والنشر. تحت هذا الحماية، يُغطي الالتزام حالتين رئيسيتين: عندما تتعرض شركة معينة لدعوى قضائية بسبب استخدامها لنماذج ذكاء اصطناعي تم تطويرها باستخدام بيانات محمية، وعندما ينتج تطبيق العميل لأدوات Google AI عملاً ينتهك حقوق الطبع والنشر دون قصد.
كما أشار نائب رئيس الشؤون القانونية في Google Cloud، نيل سوجز، ورئيس الأمن المعلوماتي، فيل فينابلز، في تدوينة حديثة، فإن هذه الحماية ليست جديدة تمامًا؛ حيث كانت Google تقدم تاريخيًا تدابير للحماية فيما يتعلق ببيانات التدريب. ومع ذلك، أعرب العملاء عن رغبتهم في الحصول على ضمانات أوضح وأكثر تحديدًا بشأن سلامتهم القانونية عند استخدام هذه الأدوات القوية.
تغطي هذه الحماية مجموعة من الخدمات. تتضمن أدوات Duet AI، التي صممت لمساعدتك في مهام مثل كتابة الرسائل الإلكترونية وتحسين العروض التقديمية من خلال إضافة الصور، أدوات Google Workspace مثل Google Docs وGmail وSlides وMeet. بالإضافة إلى ذلك، تشمل التغطية أيضًا Vertex AI، وهي منصة متقدمة تدعم استراتيجيات MLOps لإدارة مشاريع التعلم الآلي. تشمل ميزات Vertex AI التي تتمتع بالتغطية قدرات البحث، تحسينات المحادثة، واجهات برمجة التطبيقات لتضمين النصوص للتكاملات متعددة الوسائط، وعرض الوسوم البصرية عبر Visual Q&A، وواجهات برمجة التطبيقات Codey المخصصة لتوليد الأكواد.
من المهم الإشارة إلى أن هذه الحماية تكون لاغية إذا شارك العملاء في انتهاكات حقوق الطبع والنشر عمدًا. يتماشى هذا النهج مع الإعلانات الأخيرة من عمالقة الصناعة مثل Microsoft وAdobe. في الشهر الماضي، التزمت Microsoft بتحمل المسؤولية في الحالات التي تواجه فيها شركاتها العميلة الدعاوى بسبب استخدام منتجات AI Copilot. وبالمثل، قامت Adobe، مع أداتها الجديدة للذكاء الاصطناعي التوليدي Firefly، بتوسيع حماية الصور المخزنة لتشمل الصور الناتجة أيضًا.
على الرغم من أهمية هذه الضمانات القانونية، تواجه الشركات التي تدمج الذكاء الاصطناعي التوليدي تحديات إضافية تتجاوز قضايا حقوق الطبع والنشر. تبقى قضايا مثل الهلوسات التي يحدثها الذكاء الاصطناعي، حيث تنتج النماذج معلومات وهمية أو تقدم الأكاذيب على أنها دقيقة، إلى جانب التحيزات، واغتنام البيانات في الأمن السيبراني، وتكاليف التشغيل العالية، وتعقيد بنى النماذج، ونقص في الكوادر المؤهلة في الذكاء الاصطناعي، ما تمثل عوائق مستمرة في مشهد الذكاء الاصطناعي التوليدي. تتطلب هذه العوامل استراتيجية شاملة للمنظمات التي تتطلع للاستفادة من تقنيات الذكاء الاصطناعي بشكل فعّال ومسؤول.