Сэм Альтман: Новый модель OpenAI пройдет проверку безопасности у правительства США в первую очередь

На фоне растущих опасений по поводу безопасности современных систем искусственного интеллекта генеральный директор OpenAI Сэм Альтман объявил, что следующий крупный генеративный ИИ-модель компании пройдет проверку безопасности с правительством США перед её выпуском.

В своем посте в X Альтман сообщил, что OpenAI сотрудничает с Институтом безопасности ИИ США — федеральным агентством — для заключения соглашения, которое обеспечит ранний доступ к новой базовой модели. Это партнерство направлено на развитие науки оценки ИИ и обеспечение надежных мер безопасности.

Обязанность OpenAI по обеспечению безопасности

Альтман подчеркнул, что OpenAI пересмотрела свои политики ненарушения репутации, что позволяет действующим и бывшим сотрудникам свободно выражать свои опасения относительно практик компании. Более того, компания обязуется выделять не менее 20% своих вычислительных ресурсов на исследование безопасности.

Опасения сенаторов США

Поскольку OpenAI стала лидером в индустрии ИИ с такими продуктами, как ChatGPT и недавно запущенным SearchGPT, её стратегия быстрого развития вызвала неоднозначные мнения. Критики, включая бывших специалистов по безопасности, обвинили компанию в пренебрежении вопросами безопасности ради быстрого прогресса.

В ответ на эти опасения пятеро сенаторов США недавно написали Альтману, ставя под сомнение приверженность OpenAI к безопасности и поднимая вопросы о возможной репрессии против бывших сотрудников, которые выражали свои опасения через соглашение о ненарушении репутации. Сенаторы отметили, что продолжающиеся проблемы безопасности, похоже, противоречат заявленной позиции OpenAI о ответственном развитии ИИ.

Ответ руководства OpenAI

По данным Bloomberg, главный стратегический директор OpenAI Джейсон Квон ответил, подтвердив миссию компании по развитию ИИ в интересах человечества. Он подчеркнул обязательство OpenAI к внедрению строгих мер безопасности на всех этапах и поддержанию прозрачности с сотрудниками.

Квон вновь подтвердил планы выделить 20% вычислительной мощности на исследования безопасности, отменить положения о ненарушении репутации для содействия открытому диалогу и работать с Институтом безопасности ИИ по безопасным выпускам моделей. Альтман также подтвердил эту приверженность в X, хотя не раскрыл конкретные детали сотрудничества с Институтом безопасности ИИ.

Сотрудничество ради более безопасного ИИ

Институт безопасности ИИ, входящий в состав Национального института стандартов и технологий (NIST), был создан во время Саммита по безопасности ИИ в Великобритании для решения потенциальных рисков, связанных с современным ИИ, включая вопросы национальной безопасности и общественной безопасности. Он сотрудничает с более чем 100 технологическими компаниями, включая Meta, Apple, Amazon, Google и OpenAI, для продвижения безопасности в разработке ИИ.

Важно отметить, что OpenAI сотрудничает не только с правительством США. Компания также установила аналогичное соглашение о проверке безопасности с правительством Великобритании.

Усложнение вопросов безопасности

Опасения по поводу безопасности усилились в мае, когда Илья Сутскевер и Ян Лейке, соратники Альтмана, сосредоточившиеся на разработке систем безопасности для суперинтеллектуального ИИ, внезапно подали в отставку. Лейке открыто раскритиковал компанию за приоритетность эффектных продуктов над важными мерами безопасности.

После их ухода появились сообщения о роспуске команды по супералангированию. Несмотря на эти трудности, OpenAI продолжила выпуск продуктов, усилив свои обязательства по безопасности через внутренние исследования и создание нового комитета по безопасности и защите. В этот комитет, председателем которого является Брэт Тейлор (председатель правления OpenAI), входят известные личности, такие как Адам Д’Анджело (глава Quora), Николь Селигман (бывший генеральный юрисконсульт Sony) и Сэм Альтман.

С помощью этих усилий OpenAI стремится решить критические проблемы безопасности, связанные с современными технологиями ИИ, сохраняя баланс между инновациями и ответственным развитием.

Most people like

Find AI tools in YBX