تعاونت Microsoft مع StopNCII لمكافحة انتشار الصور الحميمة غير التوافقية، بما في ذلك الصور المعدلة باستخدام تقنية "ديب فيك"، على محرك بحث Bing. يمكن للضحايا فتح "حالة" مع StopNCII، التي تقوم بإنشاء بصمة رقمية أو "هاش" للصورة أو الفيديو الحميم المخزن على جهاز الضحية دون الحاجة لتحميل الملف. يتم مشاركة هذه البصمة مع الشركات المشاركة في الصناعة، التي تستخدمها لتحديد وإزالة المحتوى المتطابق الذي ينتهك سياساتها. تمتد هذه العملية لتشمل الصور المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأشخاص حقيقيين.
انضمت عدة شركات تكنولوجيا إلى StopNCII للتخلص من الصور الحميمة التي تم مشاركتها دون إذن. تستخدم Meta، الشركة التي أنشأت الأداة، هذه التقنية عبر منصاتها، بما في ذلك Facebook وInstagram وThreads. تشمل الشركات المتعاونة الأخرى TikTok وBumble وReddit وSnap وNiantic وOnlyFans وPornHub وPlayhouse وRedgifs. ومن الجدير بالذكر أن Google غير موجودة في هذه القائمة. في حين توفر Google أدواتها الخاصة للإبلاغ عن الصور غير التوافقية، بما في ذلك الصور المزيفة، إلا أن استبعادها من هذه المبادرة المركزية يضع عبئًا إضافيًا على الضحايا، مما يُجبرهم على التنقل عبر خيارات متعددة لاستعادة خصوصيتهم.
بالإضافة إلى جهود القطاع الخاص، اتخذت الحكومة الأميركية هذا العام خطوات لمعالجة القضايا المتعلقة بالصور غير التوافقية، خاصة الصور المزيفة. دعت وكالة حقوق النشر الأميركية إلى تشريع جديد، بينما قدم مجموعة من السيناتورات مشروع قانون NO FAKES في يوليو لحماية الضحايا.
إذا كنت تعتقد أنك ضحية لمشاركة الصور الحميمة غير التوافقية، يمكنك فتح حالة مع StopNCII وGoogle. إذا كنت أقل من 18 عامًا، يمكنك تقديم بلاغ إلى NCMEC.