OpenAI присоединился к Коалиции за проходимость и подлинность контента
OpenAI объявила о своем вступлении в руководящий комитет Коалиции за проходимость и подлинность контента (C2PA), образованной в феврале 2021 года при участии Microsoft и Adobe, а также таких известных членов, как Arm, BBC, Intel и Truepic.
Цель вступления в C2PA
OpenAI стремится помочь пользователям верифицировать инструменты, использованные для создания или редактирования цифрового контента, и разработать технологии для идентификации материалов, сгенерированных ее инструментами. Это сотрудничество с другими игроками индустрии, включая конкурентов, нацелено на создание ресурсов для маркировки AI-сгенерированных изображений, видео и другой медиа-продукции. Это позволит зрителям отслеживать источник контента и отличать его от подлинных материалов и фотографий.
Что делает C2PA?
Работающая под эгидой некоммерческого Фонда совместной разработки, C2PA сосредоточена на разработке "технических спецификаций для проходимости и подлинности контента". С момента своего создания организация приняла в свой комитет и других технологических гигантов, включая Google. C2PA разработала несколько открытых стандартов, позволяющих разработчикам и компаниям уточнять происхождение AI-сгенерированного контента.
Ключевые стандарты включают архитектуру C2PA, которая облегчает хранение и доступ к криптографически проверяемой информации, позволяя пользователям оценивать надежность контента на основе определенной модели доверия.
Внедрение учетных данных контента
Члены C2PA использовали свою архитектуру для создания "Учетных данных контента" — небольшого водяного знака "CR", который помогает пользователям идентифицировать создателя и средства, использованные для изображения. Эта функция позволяет выполнять взаимодействия по наведению или касанию для получения более подробной информации.
Архитектура C2PA также может быть интегрирована в метаданные цифровых медиафайлов, обеспечивая доступность даже в оффлайн-режиме. OpenAI начала применять этот стандарт к изображениям, созданным ее моделью DALL-E 3, с февраля 2023 года. Meta также начала маркировать AI-сгенерированные изображения по стандартам C2PA.
Заявления о сотрудничестве в индустрии
Анна Макаджу, вице-президент OpenAI по глобальным делам, подчеркнула в пресс-релизе C2PA роль организации в содействии общим стандартам цифровой проходимости. Она отметила, что участие в этих усилиях крайне важно для формирования доверия к цифровому контенту, с которым потребители сталкиваются в Интернете.
Будущие разработки с Sora
Хотя пока недоступная для широкой публики, продвинутая модель AI для генерации видео от OpenAI, Sora, будет использовать метаданные C2PA для маркировки своих выходных данных как AI-сгенерированных, когда будет выпущена для доверенных партнеров, а позже и для широкой аудитории.
Программа классификации DALL-E
OpenAI также запустила Программу доступа к исследовательскому классификатору DALL-E, которая включает бинарный классификатор для прогнозирования, сгенерировано ли изображение с помощью модели DALL-E 3. OpenAI приглашает исследовательские лаборатории и некоммерческие журналистские организации подавать заявки на участие до 31 июля.
Запуск фонда устойчивости общества
Вместе с Microsoft OpenAI создает фонд устойчивости общества на сумму 2 миллиона долларов для повышения уровня образования в области AI среди пожилых людей и тех, кто не знаком с этой технологией. Эта инициатива сотрудничает с такими организациями, как AARP, International IDEA и Partnership on AI.
Эти объявления совпадают с растущими опасениями по поводу введения пользователей в заблуждение AI-сгенерированными изображениями на таких платформах, как Facebook. Двойной подход OpenAI направлен на решение вопросов как генерации контента, так и образования.
Однако с учетом распространенности открытых AI-инструментов и возможности изменения изображений надежная маркировка AI-сгенерированного контента остается актуальной проблемой. Тем не менее, проактивные меры OpenAI подчеркивают ее обязательства в качестве социально ответственной компании в меняющемся мире цифрового контента.