OpenAI и Anthropic достигли соглашения: Правительство США проведет ранние оценки безопасности новых моделей ИИ.

OpenAI и Anthropic подписали соглашение о сотрудничестве в области безопасности ИИ

Недавно известные компании в области ИИ, OpenAI и Anthropic, объявили о значительном соглашении о сотрудничестве с Институтом безопасности ИИ США. В рамках этого меморандума компании обязуются предоставлять правительству США ранний доступ к новым ИИ-моделям для оценки безопасности до их публичного релиза. Это сотрудничество представляет собой ключевой шаг в безопасном развитии технологий ИИ.

Согласно соглашению, OpenAI и Anthropic предоставят правительству США доступ к своим ИИ-моделям как до, так и после их публичного запуска. Эта инициатива направлена на выявление и снижение потенциальных рисков безопасности. Правительство США отметило, что это партнерство улучшит понимание и регулирование технологий ИИ, обеспечивая их безопасное и контролируемое развитие.

Директор по стратегии OpenAI, Джейсон Квон, выразил свою поддержку инициативе, подчеркивая важность сотрудничества с Институтом безопасности ИИ для установления лучших практик и стандартов безопасности для моделей ИИ. Квон считает, что это сотрудничество укрепит лидерство США в ответственном развитии ИИ.

Джек Кларк, соучредитель и руководитель по политике в Anthropic, также проявил оптимизм касательно партнерства, акцентируя внимание на важности обеспечения безопасности и надежности технологий ИИ для положительного влияния. В рамках этого сотрудничества обе организации стремятся лучше выявлять и снижать риски, связанные с ИИ, содействуя ответственному его развитию.

Это объявление происходит на фоне активных мировых дискуссий о политиках регулирования ИИ. В то время как законодательные органы различных уровней исследуют, как сбалансировать инновации с необходимыми мерами безопасности, партнерство OpenAI и Anthropic устанавливает стандарт для отрасли. На днях в Калифорнии был принят законопроект «Закон о безопасности и инновациях в области продвинутых моделей ИИ» (SB 1047), который требует внедрения конкретных мер безопасности для ИИ-компаний перед обучением продвинутых моделей. Несмотря на то что законопроект ожидает подписи губернатора, он уже вызвал широкий интерес и обсуждение.

Белый дом активно стремится получить добровольные обязательства от ведущих компаний в области ИИ по вопросам мер безопасности. Несколько крупных компаний выразили свои неформальные обязательства, инвестируя в исследования кибербезопасности и справедливости, а также обязуясь к маркировке контента, созданного ИИ, для повышения безопасности.

Элизабет Келли, директор Института безопасности ИИ США, отметила, что хотя эти новые соглашения — это только начало, они представляют собой важный этап в управлении ответственным будущим развитием ИИ. Она нацелена на содействие безопасному продвижению технологий ИИ для обеспечения их пользы для общества.

Сотрудничество между OpenAI, Anthropic и правительством США придаёт новый импульс безопасному развитию технологий ИИ. По мере дальнейшего прогресса в области ИИ и расширения его применения, безопасность и надежность ИИ станут центральными темами глобальной обеспокоенности. Укрепление сотрудничества и регулирования ожидается, что приведет к все более положительной роли технологий ИИ в продвижении социального прогресса и развития.

Most people like

Find AI tools in YBX