Тейлор Свифт становится очередной жертвой ИИ: Понимание проблемы дипфейков

Когда сексуально откровенные дипфейки с изображением Тейлор Свифт стали вирусными в X (бывший Twitter), миллионы её поклонников объединились под хэштегом #ProtectTaylorSwift. Несмотря на то что их усилия помогли заглушить оскорбительный контент, инцидент привлек широкое внимание СМИ и вызвал значительные обсуждения об опасностях технологии дипфейков. Пресс-секретарь Белого дома Карин Жан-Пьер призвала к законодательным мерам, защищающим людей от вредоносного контента, созданного с помощью ИИ.

Хотя инцидент со Свифт был шокирующим, он далеко не единственный. В последние годы всё больше знаменитостей и влиятельных личностей становятся жертвами дипфейков, и по мере развития технологий ИИ потенциальный риск ущерба репутации, вероятно, будет только расти.

Агенты ИИ и рост дипфейков

«С помощью короткого видео с вашим изображением вы можете создать новый клип с диалогом, основанным на сценарии. Хотя это может быть развлекательно, это также означает, что любой может создать вводящий в заблуждение контент, что угрожает репутации», — объяснил Никос Векьяридис, гендиректор Attestiv, компании, специализирующейся на инструментах валидации фото и видео.

С ростом доступности и совершенствования инструментов ИИ для создания дипфейков, интернет заполняется обманчивыми изображениями и видео. Это ставит важный вопрос: как людям отличить реальность от манипуляции?

Понимание последствий дипфейков

Дипфейки — это реалистичные искусственные изображения, видео или аудио, созданные с использованием технологий глубокого обучения. Хотя эти манипуляции существуют уже несколько лет, они обрели известность в конце 2017 года, когда пользователь Reddit с ником «deepfake» начал делиться ИИ-сгенерированным порнографическим контентом. Если изначально для замены лиц требовалась сложная техника, то недавние достижения сделали эту возможность доступной почти для каждого, позволяя создавать убедительные манипуляции с публичными персонажами с помощью таких платформ, как DALL-E, Midjourney, Adobe Firefly и Stable Diffusion.

Рост генеративного ИИ позволил недобросовестным лицам использовать даже незначительные уязвимости в технологиях; например, независимое технологическое издание 404 Media обнаружило, что дипфейки с Тейлор Свифт были созданы путём обхода защитных механизмов в инструментах ИИ Microsoft. Подобные технологии использовались для создания вводящих в заблуждение изображений Папы Римского и аудио, имитирующего политических деятелей, таких как Президент Байден.

Опасности легкого доступа

Доступность технологии дипфейков представляет серьёзные риски, потенциально подрывая репутацию публичных фигур, вводя избирателей в заблуждение и способствуя финансовым мошенничествам. Стив Гробман, технический директор McAfee, отмечает тревожную тенденцию, когда мошенники комбинируют подлинные видеозаписи с поддельным аудио, используя клонированные образы знаменитостей, таких как Свифт, для обмана аудитории.

Согласно отчету Sumsub о мошенничестве с удостоверениями, количество обнаруженных дипфейков в мире увеличилось в десять раз в 2023 году, при этом крипто-сектор понёс наибольшие потери — 88%, за ним следует финтех с 8%.

Общественное беспокойство растёт

Общественная настороженность по поводу дипфейков ощутима. Опрос McAfee 2023 года показал, что 84% американцев беспокоятся о неправомерном использовании технологии дипфейков в 2024 году, и более одной трети респондентов сообщают о личном опыте, связанном с мошенничествами с дипфейками.

По мере дальнейшего развития технологий ИИ всё труднее становится отличить реальный контент от манипулированных медиа. Павел Голдман-Калайдин, руководитель ИИ и ML в Sumsub, предостерегает, что технологические достижения, изначально воспринимаемые как полезные, теперь представляют угрозу для целостности информации и личной безопасности.

Обнаружение дипфейков

С учетом того, что правительства и организации стараются противостоять распространению дипфейков, способность различать подлинный контент от поддельного становится необходимостью. Эксперты предлагают два основных метода для обнаружения дипфейков: анализ контента на наличие тонких несоответствий и проверка подлинности источника.

В настоящее время изображения, созданные ИИ, могут быть поразительно реалистичными, а видео, создаваемые ИИ, быстро улучшаются. Однако несоответствия часто выдают их искусственную природу, такие как неестественные движения рук, искажённые фоны, плохое освещение и цифровые артефакты. Векьяридис подчеркивает важность внимательного изучения деталей, таких как отсутствующие тени или чрезмерно симметричные черты лица, которые могут указывать на манипуляцию.

Эти методы обнаружения могут стать более сложными по мере развития технологий, что требует внимательного подхода к сомнительным медиа. Руиф советует пользователям оценивать намерения содержания и учитывать потенциальные предвзятости источника.

Чтобы помочь в усилиях по верификации, технологические компании разрабатывают продвинутые решения для обнаружения. Google, ElevenLabs и McAfee ищут методы для идентификации контента, созданного ИИ, при этом McAfee сообщает о 90% точности в обнаружении вредоносного аудио.

В условиях, когда медиа всё больше заполняется обманчивым контентом, понимание последствий и рисков дипфейков имеет критическое значение. Быть информированным и настороженным может помочь обществу ориентироваться в этой сложной цифровой среде.

Most people like

Find AI tools in YBX