OpenAI стремится выполнить своё обещание "открытости" в сфере искусственного интеллекта. Хотя компания не сделала новые модели открытыми, она активно решает проблемы воздействия ИИ на общество, включая такие вызовы, как дезинформация и дипфейки. На этой неделе OpenAI представила документ "Model Spec", который служит в качестве руководства по поведению ИИ-моделей, доступных через её интерфейс программирования приложений (API) и ChatGPT. OpenAI приглашает общественность оставить отзывы по этому документу через веб-форму, доступную до 22 мая.
Как отметил соучредитель и генеральный директор OpenAI Сэм Альтман в X, "Мы будем слушать, обсуждать и адаптировать это со временем, но думаю, будет очень полезно прояснить, когда что-то является ошибкой, а когда – решением."
Зачем выпускать Model Spec? Представление Model Spec соответствует миссии OpenAI обеспечить безопасное и полезное использование технологий ИИ. Однако достижение этой цели является сложной задачей и часто пересекается с давними философскими дебатами о технологиях и обществе. В блоге OpenAI было отмечено: "Даже если модель предназначена для широкой пользы, практические применения могут конфликтовать. Например, компания по безопасности может использовать синтетические данные для разработки инструментов против фишинга, но те же возможности могут быть использованы мошенниками."
Делая этот первоначальный проект доступным, OpenAI приглашает общественность участвовать в обсуждениях об этических и практических аспектах разработки ИИ. Пользователи имеют две недели, чтобы предоставить свои идеи через форму обратной связи OpenAI. После этого периода компания планирует опубликовать обновления о модификациях Model Spec, ответах на отзывы пользователей и ходе формирования поведения модели в наступающем году.
Хотя OpenAI ещё не уточнила, как именно Model Spec повлияет на поведение ИИ и будут ли его принципы интегрированы в "системный промпт" для выравнивания модели, ожидается, что это окажет значительное влияние. В некотором смысле Model Spec напоминает "конституционный" подход, использованный конкурентом Anthropic AI — концепция, которая изначально отличала Anthropic, но с недавних пор была менее акцентирована.
Структура поведения ИИ
Model Spec состоит из трёх основных компонентов: целей, правил и стандартного поведения, которые руководят взаимодействиями ИИ, обеспечивая эффективность и соблюдение этических стандартов.
- Цели: В документе изложены широкие принципы, направленные на помощь разработчикам и пользователям. К ним относятся эффективное достижение целей пользователей, учет интересов различных заинтересованных сторон и улучшение благосостояния сообщества.
- Правила: Установлены четкие правила для навигации в взаимодействиях ИИ, обеспечивая соблюдение законодательства, уважение к интеллектуальной собственности, защиту конфиденциальности и запрет на небезопасный контент.
- Стандартное Поведение: Инструкции подчеркивают важность предположения о добрых намерениях, поиска разъяснений при необходимости и максимизации полезности без чрезмерного вмешательства. Этот подход нацелен на балансировку разнообразных потребностей пользователей.
Некоторые, включая влияющего на ИИ профессора Уортонской школы Итана Моллика, сравнили эти принципы с "Тремя законами робототехники" Исаака Азимова, предложенными в 1942 году. Тем не менее, существуют критические замечания по поводу реализации Model Spec, особенно касающиеся того, как он влияет на ответы ИИ. Технический писатель Эндрю Карран отметил пример, в котором "ИИ Ассистент" не оспаривает неправильное утверждение пользователя о том, что Земля плоская.
Непрерывное взаимодействие и развитие
OpenAI признает, что Model Spec является живым документом, отражающим как текущие практики, так и приверженность адаптации на основе продолжающихся исследований и общественного мнения. Организация стремится собрать различные мнения, особенно от глобальных заинтересованных сторон, таких как политики и эксперты в области.
Отзывы значительно повлияют на доработку Model Spec и будущее развитие ИИ. OpenAI намерена информировать общественность об изменениях и новых выводах, полученных из этого обратного взаимодействия, подтверждая свою приверженность ответственной разработке ИИ.
Куда двигаться дальше? Ясно формулируя желаемое поведение ИИ через Model Spec и запрашивая мнения международного сообщества, OpenAI стремится создать положительное общественное воздействие ИИ, даже учитывая правовые проверки и критику касательно согласия артистов на использование данных для обучения.