Meta будет помечать контент, созданный с помощью ИИ, на Facebook, Instagram и Threads.

Сегодня Meta объявила о планах по идентификации и маркировке контента, созданного с помощью ИИ, на Facebook, Instagram и Threads, отметив, что «пока не существует возможности идентифицировать весь ИИ-контент». Этот шаг последовал за недавним вирусным распространением порнографических глубоких фейков с участием певицы Тейлор Свифт в Twitter, что вызвало негативную реакцию среди поклонников, законодателей и мировых медиа. Объявление пришло в критический момент, когда Meta подвергается растущей критике за управление изображениями и видеозаписями, созданными с помощью ИИ, в преддверии выборов в США в 2024 году.

Ник Клэгг, президент по глобальным вопросам в Meta, заявил, что «это только начало распространения контента, созданного с помощью ИИ». Он отметил, что по мере роста использования ИИ «общество будет вовлечено в обсуждения о том, как идентифицировать как синтетический, так и несинтетический контент». Клэгг подчеркнул, что Meta продолжит следить за развитием ситуации, сотрудничать с коллегами по отрасли и вести диалоги с правительствами и гражданским обществом.

Инициативы Meta соответствуют лучшим отраслевым практикам, что подтверждается партнерством с Партнерством по ИИ (PAI) для установления стандартов идентификации контента, созданного с помощью ИИ. Платформа планирует маркировать загружаемые пользователями изображения, когда будет обнаружены стандартные индикаторы их генерации с помощью ИИ. С момента запуска службы ИИ-изображений, фотореалистичные изображения, созданные с помощью Meta AI, маркируются как «Представлено с помощью ИИ».

Клэгг подчеркнул, что текущие методы Meta демонстрируют передовые технические возможности. «Мы упорно работаем над классификаторами для автоматического обнаружения контента, созданного с помощью ИИ, даже в отсутствие невидимых маркеров», — добавил он, также стараясь обеспечить защиту невидимых водяных знаков от удаления или изменения.

Этот анонс является частью более широких усилий Meta по эффективной идентификации и маркировке контента, созданного с помощью ИИ, с использованием таких технологий, как невидимые водяные знаки. В июле 2023 года семь технологических компаний взяли на себя обязательства по конкретным шагам для повышения безопасности ИИ, включая водяное маркирование, в то время как Google DeepMind представила бета-версию SynthID, которая встраивает неуловимые цифровые водяные знаки непосредственно в изображения.

Тем не менее, эксперты предостерегают, что цифровое водяное маркирование, будь то видимое или скрытое, не является надежным решением. Профессор информатики Университета Мэриленда отметил: «У нас нет надежного водяного маркирования на данный момент — мы сломали все.» Фейзи и его команда продемонстрировали, как легко злоумышленники могут удалить водяные знаки или неправомерно добавить их к созданным человеком изображениям, что приводит к неверной маркировке контента.

Маргарет Митчелл, главный научный сотрудник по этике в Hugging Face, подчеркнула, что хотя невидимые водяные знаки не являются окончательным решением для идентификации контента, созданного с помощью ИИ, они служат ценными инструментами для законных создателей, стремящихся к форме «питательной этикетки» для контента ИИ. Она выделила важность понимания происхождения контента: «Знание, откуда пришел контент и как он развивался, крайне важно для отслеживания кредитов согласия и компенсации».

Митчелл выразила энтузиазм по поводу потенциала технологий водяного маркирования, отметив, что хотя в ИИ существуют недостатки, в целом технология выглядит многообещающе. «Важно видеть общую картину на фоне недавних обсуждений о возможностях ИИ», — заключила она.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles