OpenAI объявила о начале тренировок для своей последней "пограничной модели" и создании нового Комитета по безопасности и охране. Этот комитет возглавляет член правления Брет Тейлор, а также включает таких видных участников, как Адам Д’Анджело, Николь Сeligman и Сам Альтман, текущий генеральный директор OpenAI.
В недавнем блоге OpenAI отметил: "Мы недавно начали обучение нашей следующей пограничной модели с целью улучшения наших возможностей на пути к Искусственному Общему Интеллекту (AGI). Мы гордимся тем, что представляем отраслевые модели, ориентированные как на производительность, так и на безопасность, и призываем к открытым обсуждениям на этом важном этапе."
Запуск 90-дневного таймера
OpenAI обозначила непосредственные обязанности комитета: "Первой задачей Комитета по безопасности и охране будет оценка и уточнение процессов и мер безопасности OpenAI в течение следующих 90 дней. По окончании этого срока комитет представит свои рекомендации полному Совету. Впоследствии OpenAI публично сообщит о принятых рекомендациях в соответствии с протоколами безопасности и охраны."
Это означает, что новая пограничная модель — возможно, получившая имя GPT-5 — не будет запущена как минимум в течение 90 дней, что даст комитету достаточно времени для оценки существующих процессов и охранных мер. Таким образом, Совет должен получить эти рекомендации до 26 августа 2024 года.
Почему именно 90 дней?
Хотя OpenAI не уточнила причины выбора такого срока, 90 дней — это стандартная практика для оценки и обратной связи, обеспечивающая сбалансированное время, которое не является слишком коротким или чрезмерно продолжительным.
Опасения по поводу независимости комитета
Создание нового комитета вызвало критику, поскольку его члены в основном являются руководителями OpenAI, что вызывает сомнения в независимости оценок безопасности.
Состав правления OpenAI исторически вызывал споры. 17 ноября 2023 года предыдущий Совет директоров некоммерческой холдинговой компании уволил Альтмана, заявив, что он "не всегда был откровенен". Это привело к значительному недовольству сотрудников и критике со стороны крупных инвесторов, включая Microsoft, которая восстановила Альтмана через четыре дня. Прежний Совет подвергся критике за полностью мужское составление и был впоследствии реформирован.
8 марта этого года к правлению были добавлены новые члены, включая Сью Десмонд-Хеллман и Фиджи Симон, в рамках усилий по диверсификации руководства.
Проблемы и возможности для OpenAI
OpenAI недавно запустила свою последнюю модель ИИ, GPT-4o, но столкнулась с критикой после этого релиза. Актриса Скарлетт Йоханссон публично осудила компанию за использование голоса, якобы похожего на ее, связанного с ее ролью в фильме "Она". OpenAI уточнила, что этот голос был заказан независимо и не предназначался для имитации Йоханссон.
Кроме того, отставка главного ученого Ильи Сутскевер и сопредседателя команды суперсогласования вызвала тревогу, при этом последний подчеркнул обеспокоенность по поводу тенденции к приоритизации "блестящих продуктов" над безопасностью. В конечном итоге команда суперсогласования была распущена.
Несмотря на эти вызовы, OpenAI успешно наладила новые партнерства в основных средствах массовой информации для своих тренировочных данных и вызвала интерес к своей модели генерации видео Sora, привлекая внимание развлекательной индустрии, стремящейся использовать искусственный интеллект для повышения эффективности производства.
В условиях этих бурных изменений эффективность нового Комитета по безопасности и охране будет критически важна для решения проблем заинтересованных сторон, особенно среди регуляторов и потенциальных деловых партнеров, перед предстоящим запуском модели.