Саммит по безопасности ИИ: 28 стран и ЕС поддержали «Блетчлискую декларацию» для усиления глобального сотрудничества.

Великобритания провела саммит по безопасности искусственного интеллекта, собрав руководителей государств, пионеров ИИ и экспертов со всего мира на историческом загородном поместье. Цель саммита — создать международные рамки для разработки безопасного искусственного интеллекта. Всего спустя несколько часов после открытия мероприятия правительство Великобритании объявило о принятии Декларации Блетчли о безопасности ИИ, названной в честь Блетчли-Парка, колыбели современных вычислений и места groundbreaking усилий Алана Тьюринга в области кодирования во время Второй мировой войны.

Декларация Блетчли включает ряд обязательств по обеспечению безопасного проектирования, разработки, развертывания и использования ИИ, подчеркивая принципы, ориентированные на человека, доверие и ответственность. Подписанты, среди которых 28 стран, включая США и Китай, а также Европейский Союз, обязались сотрудничать в существующих международных форумах для решения рисков ИИ. Декларация признает, что государства могут классифицировать эти риски в соответствии со своими уникальными правовыми системами и социальными контекстами.

Кроме того, в соглашении содержится обязательство организовать больше саммитов по безопасности ИИ, что подчеркивает необходимость включительного глобального диалога по вопросам безопасности ИИ. Премьер-министр Риши Сунак отметил важность этого консенсуса, заявив: «Это историческое достижение, которое свидетельствует о согласии крупнейших держав ИИ о срочности понимания рисков, связанных с ИИ, что поможет обеспечить долгосрочное будущее наших детей и внуков».

Государственный секретарь по технологиям Мишель Донелан добавила, что саммит стал началом долгого пути к обеспечению того, чтобы все могли пользоваться преимуществами технологий ИИ. Несмотря на эти многообещающие декларации, эксперты, такие как Роберт Ф. Трейгер, директор Oxford Martin AI Governance Initiative, подчеркивают, что соглашение не содержит конкретных деталей о том, как страны будут эффективно сотрудничать. «Саммит, похоже, достиг декларации принципов, не установив четкой дорожной карты для международного сотрудничества», — отметил он.

Госсекретарь США по коммерции Джина Раймондо объявила о планах создания Института безопасности ИИ в рамках Национального института стандартов и технологии (NIST). Новый орган сосредоточится на разработке рекомендаций, инструментов и лучших практик для оценки рисков ИИ, а также на оказании технической помощи регуляторам по ключевым вопросам, таким как прозрачность и водяные знаки для контента, созданного ИИ. Раймондо также призвала промышленность и академическую среду активно участвовать в этой инициативе, подчеркивая необходимость партнерства в этом критически важном начинании.

В заранее записанном обращении король Чарльз III подчеркнул значение международного сотрудничества в обеспечении безопасности ИИ, призвав к быстрому и объединенному действию для защиты конфиденциальности и защиты средств к существованию. Его Величество выразил благодарность участникам за создание основы для долговременного консенсуса по вопросам безопасности ИИ, укрепляя мнение о том, что ИИ должен служить позитивной силой для общества.

В значительном шаге к усилению экспертизы в области ИИ правительство Великобритании недавно объявило о выделении 118 миллионов фунтов стерлингов (143 миллиона долларов) на финансирование развития навыков в сфере ИИ. Эти средства включают создание 12 новых Центров докторантуры в области ИИ, что обеспечит подготовку высококлассных специалистов для максимизации трансформационных преимуществ ИИ. Фонд также включает 1 миллион фунтов стерлингов в виде «Грантов на будущее ИИ», призванных привлечь исследователей ИИ в Великобританию.

Двухдневный саммит по безопасности ИИ исследует риски, связанные с передовыми моделями ИИ, и вырабатывает возможные стратегии минимизации этих рисков. Участники будут участвовать в различных дискуссиях, направленных на выработку общего понимания рисков ИИ, затрагивая ключевые темы, такие как эффективная оценка безопасности и механизмы управления. Значительное внимание будет уделено "передовым моделям", которые, как ожидается, представляют собой значительные риски для общества.

В списке гостей значатся крупные игроки в сфере ИИ, включая представителей Организации Объединенных Наций, ЮНЕСКО и авторитетных учебных заведений, таких как Оксфорд и Стэнфорд. Примечательные компании в области ИИ, такие как OpenAI, Nvidia, Google DeepMind, IBM и Meta, также будут представлены, наряду с пионерскими стартапами в этой сфере.

Несмотря на разнообразное присутствие экспертов на саммите, возникли опасения по поводу ограниченного представительства малых компаний и стартапов в области ИИ. Виктор Ботев, технический директор Iris.ai, отметил, что саммит мог бы лучше воспользоваться включением более широкого круга мнений, особенно тех, кто представляет инновационные небольшие предприятия, которые часто играют ключевую роль в продвижении разработок в области ИИ.

По мере проведения саммита он станет ключевой возможностью для мировых лидеров обсудить актуальные вопросы безопасности ИИ, создавая условия для выработки совместных решений, направленных на использование преимуществ ИИ и минимизацию его врожденных рисков.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles