Премьер-министр Великобритании Риши Сунак подчеркнул важность сбалансированного подхода к искусственному интеллекту (ИИ), готовясь к предстоящему Саммиту по безопасности ИИ, который пройдет 1-2 ноября. Выступая в Кор الملكском обществе, главном научном учреждении страны, он отметил серьезные риски, связанные с ИИ, в частности, потенциальное злоупотребление им со стороны злоумышленников. Однако он призвал не впадать в чрезмерныйAlarmизм.
«На данный момент организации, разрабатывающие ИИ, также отвечают за проверку его безопасности, и даже они часто не имеют полного понимания будущих возможностей своих моделей», — заметил Сунак. «Существуют значительные стимулы для конкуренции в создании самых передовых моделей, что ставит под сомнение, можем ли мы доверять им в оценке своих же результатов».
Сунак выступил против поспешных мер регулирования, которые могут задушить инновации: «Как мы можем создать эффективные законы вокруг чего-то, что мы не понимаем в полной мере? Вместо этого мы развиваем ведущие в мире возможности внутри правительства для понимания и оценки безопасности моделей ИИ». Подход правительства Великобритании к законодательству в области ИИ заметно менее строгий по сравнению с Европейским Союзом, который излагает свои требования в белой книге и делегирует создание правил специалистам в конкретных областях.
В июне на конференции AI Summit London министр ИИ страны указал, что предстоящие регулирования будут дополнять технические стандарты и методы обеспечения, что сигнализирует о возможных улучшениях в надзоре.
Сотрудничество в области безопасности ИИ
Сунак выразил намерение работать совместно с другими странами по вопросам безопасности ИИ, а не занимать противоборствующую позицию. Этот дух сотрудничества подчеркивается приглашением для Китая на саммит, несмотря на существующие трения с США. Он заявил о важности вовлечения различных точек зрения, утверждая: «Серьезная стратегия по ИИ должна включать диалоги со всеми ведущими державами в этой области».
Китай внедрил строгие регуляции для своих ИИ-компаний, требуя от них обязательной проверки безопасности национальным органом по надзору за данными перед выпуском новых генеративных моделей ИИ для широкой аудитории. Тем не менее китайское правительство выразило готовность участвовать в международных обсуждениях по надзору за ИИ, хотя президент Си Цзиньпин сделал акцент на национальной безопасности.
Заместитель премьер-министра Оливер Дауден подтвердил, что Китай принял приглашение на саммит, хотя отметил необходимость дождаться подтверждения от всех потенциальных участников.
Сунак намерен, чтобы саммит способствовал созданию общего понимания рисков, связанных с ИИ, и искал консенсуса по первому международному заявлению по данным проблемам. Он видит создание «поистине глобальной экспертной группы» по ИИ, состоящей из представителей стран и организаций, которые будут издавать исчерпывающий отчет «Состояние науки о ИИ».
«Наш успех зависит от сотрудничества с компаниями в сфере ИИ. По мере развития технологий мы должны обеспечивать адаптацию нашего коллективного понимания рисков», — отметил он. Эта инициатива совпадает с призывами известных личностей, включая Генерального секретаря ООН Антониу Гутерриша, создать глобальный регулирующий орган для мониторинга безопасности ИИ, подобный Международному агентству по атомной энергии (МАГАТЭ).
Перспективы и опасения индустрии
Пока Сунак продвигает видение Великобритании как ведущей супердержавы в области ИИ, правительство выделило 120 миллионов долларов группе, которая будет консультировать по вопросам ИИ, среди которой — лауреат премии Тьюринга Ёшуа Бенгио. На саммите соберутся видные лидеры отрасли, включая генерального директора OpenAI Сэма Олтмана и генерального директора Google DeepMind Дэмиса Хасабиса, наряду с высокопрофильными политиками, такими как вице-президент США Камала Харрис.
Майя Диллон, руководитель ИИ в Cambridge Consultants, подчеркнула необходимость сотрудничества в условиях революции ИИ, заявив: «Задача заключается не только в том, чтобы принять ИИ, но и в том, чтобы управлять его курсом с умом. Эта революция должна переплетать бизнес-успех с общественным благополучием, требуя искреннего сотрудничества».
Пол Хеннингер, руководитель подключенных технологий в KPMG Великобритания, отметил, что хотя саммит может послужить импульсом для разработки совместных стратегий оценки рисков, организации также ожидают регулярных обновлений по мере развития технологий.
Несмотря на амбициозные цели, поставленные перед саммитом, Крис Ройлс, технический директор Cloudera в регионе EMEA, считает поиск комплексного регулирования высокими устремлениями. Он предложил бизнесу сосредоточиться на обучении своих ИИ-моделей с использованием надежных источников данных. Аналогичным образом Фабиен Рех, генеральный менеджер Trellix, призвал к приоритету мер безопасности в разработке ИИ для повышения уверенности и защиты от киберугроз.
Освещение рисков ИИ
Перед выступлением Сунака правительство Великобритании выпустило документ, описывающий потенциальные риски ИИ, к которым относятся:
- Социальные вреды: Генерация дезинформации и дипфейков, disruption в работе из-за автоматизации и алгоритмические предвзятости, которые могут привести к несправедливым исходам.
- Риски злоупотребления: Потенциал ИИ-технологий к созданию оружия или повышению эффективности кибератак и дезинформации.
- Риски потери контроля: Печения о том, как люди могут уступить полномочия в принятии решений неправильно ориентированным системам ИИ и продвинутым агентам, стремящимся увеличить свое влияние.
Доклад также охватывает преобладающие проблемы, которые могут повысить эти риски, такие как сложности в проектировании безопасных систем ИИ, оценка их безопасности и обеспечение ответственности за их развертывание.
В ответ на отчет Сууль ван дер Лью, генеральный директор Deployteq, похвалил серьезный подход правительства Великобритании к безопасности ИИ, признавая значительные возможности, которые ИИ предлагает различным отраслям, при условии эффективного регулирования и руководства со стороны политиков.