На прошлой неделе OpenAI запустила GPT Store, позволяя сторонним создателям демонстрировать и монетизировать кастомные чат-боты (GPT). Однако на этом инновации компании не останавливаются по мере наступления января 2024 года.
В понедельник OpenAI опубликовала блог, в котором outlined новые меры безопасности для своих ИИ-инструментов, особенно сосредоточившись на модели генерации изображений DALL-E и практиках цитирования в ChatGPT. Эта инициатива направлена на борьбу с дезинформацией перед многочисленными выборами, запланированными по всему миру в конце этого года.
«Защита целостности выборов требует сотрудничества на всех уровнях демократического процесса, и мы хотим гарантировать, что наша технология не будет использована тем образом, который может подорвать этот процесс», - отмечается в блоге.
Среди действующих мер безопасности имеется функция «сообщить», позволяющая пользователям отмечать потенциальные нарушения, связанные с кастомными GPT, включая случаи подделки реальных личностей или учреждений, что противоречит политике использования OpenAI.
Ожидаемые Новшества
В блоге OpenAI сообщается, что вскоре пользователи смогут получать мировые новости в реальном времени с указанием источников и ссылками, что повысит достоверность информации, доступной через ChatGPT. Это улучшение совпадает с партнерствами OpenAI с уважаемыми изданиями, такими как Associated Press и Axel Springer, владельцами Politico и Business Insider.
Заметно, что OpenAI внедрит учетные данные изображений от Коалиции за происхождение и подлинность контента (C2PA). Эта инициатива направлена на применение криптографической цифровой водяной марки к контенту, созданному с помощью ИИ, что обеспечит его обнаружимость в будущем. OpenAI планирует интегрировать учетные данные C2PA в изображения DALL-E 3 в начале этого года, хотя точная дата пока не названа.
Кроме того, OpenAI представила «классификатор происхождения», инструмент, предназначенный для определения изображений, созданных DALL-E. Первоначально упомянутый во время запуска DALL-E 3 осенью 2023 года, этот инструмент позволит пользователям загружать изображения для определения их ИИ-источников.
«Наши внутренние тесты показали обнадеживающие результаты, даже при обработке изображений с типичными изменениями», - говорится в блоге. «Мы планируем предоставить его первой группе тестировщиков, включая журналистов, платформы и исследователей, для получения отзывов в скором времени».
Роль ИИ в Политических Кампаниях
Поскольку политические организации, такие как Республиканский национальный комитет (RNC) в США, все активнее используют ИИ для формирования сообщений, включая подмену противников, эффективность мер безопасности OpenAI в борьбе с ожидаемыми волнами цифровой дезинформации остается неопределенной. Тем не менее, OpenAI явно позиционирует себя как сторонник правды и точности на фоне опасений по поводу неправильного использования своих инструментов.