백악관, AI 관련 이미지 기반 피해 방지를 위한 성명 발표
오늘 백악관은 이미지 기반 성적 학대의 생성 및 유통을 줄이기 위한 주요 AI 기업들의 약속을 발표했습니다. Adobe, Anthropic, Cohere, Common Crawl, Microsoft, OpenAI를 포함한 참여 기업들은 비동의 성적 이미지(NCII) 생성과 아동 성적 학대 자료(CSAM) 대응 전략을 설명했습니다.
이들 기업은 다음과 같은 약속을 했습니다:
- "데이터셋을 책임감 있게 수집하고 이미지 기반 성적 학으로부터 보호할 것."
또한 Common Crawl을 제외한 다른 기업들은:
- "AI 모델이 이미지 기반 성적 학대를 생성하지 않도록 개발 과정에 피드백 루프와 반복적 스트레스 테스트를 포함할 것."
- "적절한 경우 AI 훈련 데이터셋에서 누드 이미지를 제거할 것."
이번 약속은 자발적인 것으로, 새로운 요구 사항이나 비준수 시 처벌을 부과하지 않지만, 중요한 문제를 해결하기 위한 긍정적인 단계로 평가됩니다.
백악관 발표에 주요 기술 기업인 Apple, Amazon, Google, Meta가 포함되지 않은 점은 주목할 만합니다. 그러나 여러 기술 및 AI 기업들은 NCII 피해자를 지원하는 데 독립적으로 노력을 기울이고 있으며, 딥페이크 이미지와 비디오의 확산을 막기 위해 노력하고 있습니다. StopNCII와 같은 이니셔티브는 harmful content 제거를 위한 통합 접근 방식을 위해 여러 기업과 협력하고 있으며, 많은 기업들이 플랫폼에서 AI 생성 이미지 기반 성적 학대를 신고할 수 있는 독자적인 도구를 개발하고 있습니다.
비동의 성적 이미지 공유의 피해자라고 의심되면 [여기]에서 StopNCII에 신고할 수 있습니다. 18세 미만이라면 [여기]에서 NCMEC에 신고할 수 있습니다.