Совет OpenAI получил право вето на выпуск моделей ИИ: введены новые меры контроля

В свете недавних волнений в руководстве, OpenAI объявляет о создании специальной команды по готовности, направленной на усиление контроля через тщательное тестирование безопасности своих моделей ИИ. Эта стратегическая инициатива последовала за спорным решением уволить генерального директора Сэма Альтмана, вызванным опасениями главного научного сотрудника Ильи Сутскевера по поводу быстрой коммерциализации технологий без достаточных мер предосторожности. Альтман был восстановлен на посту через пять дней после массовых протестов сотрудников, что подчеркивает важность поддержки персонала в корпоративных решениях.

Для усиления протоколов безопасности новая команда OpenAI по готовности будет проводить всесторонние оценки и стресс-тесты своих базовых моделей. Отчеты этой команды будут передаваться руководству OpenAI и вновь созданному совету директоров. Руководство определит, стоит ли продолжать работу с моделями, основываясь на результатах тестирования, в то время как совет теперь имеет полномочия отменять эти решения, что подчеркивает изменение в подходе к принятию решений.

В недавнем блоге OpenAI отметила: "Эта техническая работа критически важна для информирования о принятии решений OpenAI по безопасной разработке и развертыванию моделей." Реструктуризация совета последовала за значительными изменениями во время кризиса руководства, с планами увеличить число его участников с трех до девяти, включая роль ненаблюдающего участника для Microsoft. В текущем совете находятся уважаемые фигуры, такие как бывший министр финансов США Ларри Саммерс, Брет Тейлор, бывший со-генеральный директор Salesforce, и Адам Д’Анжело, соучредитель Quora, который остался единственным членом предыдущего совета.

Миссия OpenAI ясна: ее основная фидуциарная ответственность направлена на человечество, и она глубоко привержена обеспечению безопасности Искусственного Общего Интеллекта (AGI). Новая структура готовности организации стремится извлечь ценные уроки из развертывания своих моделей, что позволит эффективно снижать возникающие риски. OpenAI утверждает, что по мере ускорения инноваций необходимо также увеличивать темпы работ по безопасности, что требует постоянного обучения через итеративные развертывания.

В рамках этой структуры готовности новая команда будет регулярно проводить учения по безопасности, чтобы обеспечить оперативное реагирование на возникающие проблемы. OpenAI также планирует привлекать квалифицированные независимые третьи стороны для проведения всесторонних аудитов, что повысит подотчетность и прозрачность.

Теперь все модели OpenAI будут регулярно обновляться и оцениваться каждый раз, когда вычислительная мощность удваивается во время обучающих запусков. Процесс тестирования будет охватывать ряд критических областей, включая уязвимости кибербезопасности, потенциальные возможности злоупотребления и способность к автономному принятию решений, особенно в отношении опасных исходов, связанных с биологическими, химическими или ядерными угрозами.

Модели будут классифицированы по одной из четырех категорий рисков безопасности, отражая систему классификации Закона ЕС об ИИ. Эти категории варьируются от низкого и среднего до высокого и критического уровней рисков. Модели, признанные средне- или низкорисковыми, будут считаться подходящими для развертывания, в то время как модели с высоким или критическим рисками потребуют дальнейшей разработки и предосторожностей.

В настоящее время структура готовности OpenAI находится на этапе бета-тестирования, с планами на дальнейшие корректировки по мере появления новых данных. Этот проактивный подход отражает приверженность компании не только к развитию технологий ИИ, но и к безопасности и этическим аспектам, сопутствующим таким инновациям.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles