마이크로소프트는 비공식적 친밀한 이미지, 특히 딥페이크의 확산을 방지하기 위해 Bing 검색 엔진에서 StopNCII와 협력하고 있습니다. 피해자는 StopNCII와 "사례"를 열면, 피해자의 장치에 저장된 친밀한 이미지나 비디오의 디지털 지문인 "해시"가 생성됩니다. 파일을 업로드할 필요 없이 이 해시는 참여하는 산업 파트너들과 공유되어, 그들의 정책을 위반하는 매칭 콘텐츠를 식별하고 삭제하는 데 사용됩니다. 이 과정은 실제 인물의 AI 생성 딥페이크에도 적용됩니다.
여러 기술 회사들이 StopNCII와 협력하여 비동의로 공유된 친밀한 이미지를 제거하고 있습니다. 도구 개발자인 메타는 이 시스템을 Facebook, Instagram, Threads 등 자사의 플랫폼에서 활용하고 있습니다. 협력 기업으로는 TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse, Redgifs가 있습니다. 주목할 만한 점은 구글이 이 리스트에 없음입니다. 구글은 딥페이크를 포함한 비동의 이미지 신고 도구를 제공하지만, 이 중앙화된 이니셔티브에서 제외되면서 피해자가 다양한 옵션을 통해 개인 정보를 회복할 책임이 늘어나고 있습니다.
민간 부문 노력 외에도, 미국 정부는 올해 비동의 이미지, 특히 딥페이크 문제에 대응하기 위한 조치를 취했습니다. 미국 저작권청은 새로운 법안을 촉구했으며, 상원의원 그룹은 피해자를 보호하기 위해 7월에 NO FAKES 법안을 발의했습니다.
비동의 친밀한 이미지 공유의 피해자로 생각되면 StopNCII와 구글에 사례를 열 수 있습니다. 18세 미만이라면 NCMEC에 신고할 수 있습니다.