تصريح البيت الأبيض حول مكافحة الاعتداءات المتعلقة بالصور الناتجة عن الذكاء الاصطناعي
أعلن البيت الأبيض اليوم عن التزامات من شركات الذكاء الاصطناعي الرئيسية تهدف إلى تقليل إنشاء وتوزيع الاعتداءات الجنسية المعتمدة على الصور. الشركات المشاركة، بما في ذلك Adobe وAnthropic وCohere وCommon Crawl وMicrosoft وOpenAI، قدمت استراتيجياتها لمنع منصاتها من إنتاج صور حميمة غير consensual للبالغين ومكافحة المواد الجنسية المتعلقة بالأطفال (CSAM).
تعهّدت هذه الشركات بـ:
- "المصادر المسؤولة لمجموعات بياناتها وحمايتها من الاعتداءات الجنسية المعتمدة على الصور."
بالإضافة إلى ذلك، باستثناء Common Crawl، ستقوم الشركات الأخرى بـ:
- "دمج حلقات التغذية المرتدة واختبارات الضغط التكرارية في عمليات تطويرها لمنع نماذج الذكاء الاصطناعي من إنتاج اعتداءات جنسية معتمدة على الصور."
- "إزالة الصور العارية من مجموعات بيانات تدريب الذكاء الاصطناعي" حيثما كان ذلك مناسبًا.
ورغم أن هذا الالتزام طوعي ولا يفرض متطلبات أو عقوبات جديدة على عدم الامتثال، إلا أنه يمثل خطوة إيجابية تجاه معالجة قضية هامة.
ومن الملاحظ أن بيان البيت الأبيض لم يتضمن شركات التكنولوجيا الكبرى مثل Apple وAmazon وGoogle وMeta. ومع ذلك، تعمل العديد من شركات التكنولوجيا والذكاء الاصطناعي بشكل مستقل على تعزيز الدعم لضحايا الصور الحميمة غير consensual، بهدف كبح جماح انتشار الصور ومقاطع الفيديو العميقة. تعمل مبادرات مثل StopNCII بالتعاون مع عدة شركات لمقاربة موحدة لإزالة هذا المحتوى الضار، بينما تقوم العديد من الشركات بتطوير أدوات خاصة للإبلاغ عن الاعتداءات الجنسية المعتمدة على الصور التي يتم إنتاجها بواسطة الذكاء الاصطناعي على منصاتها.
إذا كنت تشك أنك ضحية لمشاركة صور حميمة غير consensual، يمكنك تقديم بلاغ إلى StopNCII [هنا]. إذا كنت تحت 18 عامًا، يمكنك الإبلاغ إلى NCMEC [هنا].