Заявление Белого дома о борьбе с изображениями, связанными с насилием на основе ИИ
Сегодня Белый дом объявил о принятии обязательств от ключевых компаний в области ИИ, направленных на снижение создания и распространения изображений сексуального насилия. Участвующие компании, включая Adobe, Anthropic, Cohere, Common Crawl, Microsoft и OpenAI, изложили свои стратегии по предотвращению появления неконсентуальных интимных изображений (NCII) взрослых и борьбе с материалами сексуального насилия в отношении детей (CSAM).
Эти компании обязались:
- «Ответственно формировать свои датасеты и защищать их от сексуального насилия на основе изображений.»
Кроме того, кроме Common Crawl, другие компании будут:
- «Внедрять механизмы обратной связи и итерационное стресс-тестирование в своих процессах разработки, чтобы предотвратить создание ИИ-моделями изображений сексуального насилия.»
- «Удалять обнаженные изображения из датасетов для обучения ИИ», когда это уместно.
Хотя это обязательство является добровольным и не накладывает новых требований или штрафов за невыполнение, оно представляет собой позитивный шаг в решении значимой проблемы.
Замечательно, что в объявлении Белого дома отсутствуют крупные технологические игроки, такие как Apple, Amazon, Google и Meta. Тем не менее, многие компании в области технологий и ИИ самостоятельно усиливают поддержку жертв NCII, стремясь ограничить распространение дипфейков. Инициативы, такие как StopNCII, работают с несколькими компаниями для разработки единого подхода к устранению такого вредоносного контента, в то время как многие бизнесы разрабатывают собственные инструменты для сообщений о сексуальном насилии на основе изображений, созданных ИИ на своих платформах.
Если вы подозреваете, что стали жертвой неконсентуального распространения интимных изображений, вы можете подать заявление в StopNCII [здесь]. Если вам меньше 18 лет, вы можете сообщить об этом в NCMEC [здесь].