Эксперты в области ИИ предупреждают о риске 'исчезновения человечества' без усиленного надзора

Открытое письмо, подписанное более чем дюжиной текущих и бывших сотрудников OpenAI, Google DeepMind и Anthropic, опубликованное во вторник, подчеркивает "серьезные риски", связанные с быстрой разработкой технологий искусственного интеллекта (ИИ) без эффективной системы надзора. Ученые предупреждают, что неконтролируемый ИИ может усугубить существующие неравенства, манипулировать информацией, распространять дезинформацию и привести к потере контроля над автономными системами ИИ, что может иметь негативные последствия для человечества.

Подписавшиеся утверждают, что эти риски можно "адекватно минимизировать" через сотрудничество научного сообщества, законодателей и общественности. Однако они выражают обеспокоенность тем, что "компании ИИ имеют сильные финансовые стимулы избегать эффективного надзора" и не могут быть доверены в вопросах ответственной разработки мощных технологий.

С момента запуска ChatGPT в ноябре 2022 года генеративный ИИ быстро изменил технологический ландшафт, при этом такие облачные провайдеры, как Google Cloud, Amazon AWS, Oracle и Microsoft Azure, возглавляют этот процесс, который, как ожидается, станет рынком стоимостью в триллион долларов к 2032 году. Недавнее исследование McKinsey показало, что на март 2024 года почти 75% опрошенных организаций интегрировали ИИ в свои операции. Кроме того, ежегодное исследование Work Index от Microsoft выявило, что три четверти офисных работников уже используют инструменты ИИ в своей работе.

Тем не менее, как отметил Даниэль Кокотайло, бывший сотрудник OpenAI, некоторые компании придерживаются ментальности "двигаться быстро и ломать вещи", что неуместно для технологий, которые являются мощными и плохо понятыми. Стартапы в области ИИ, такие как OpenAI и Stable Diffusion, столкнулись с проблемами в рамках законодательства США о авторском праве, в то время как различные общедоступные чат-боты были манипулированы для генерации ненавистнической риторики, теорий заговора и дезинформации.

Опасlivые сотрудники ИИ утверждают, что эти компании обладают "значительной непубличной информацией" о возможностях и ограничениях своих продуктов, включая потенциальные риски и эффективность принимаемых мер безопасности. Они подчеркивают, что лишь малая часть этой информации доступна государственным органам через "слабые обязательства по раскрытию", оставляя общественность в неведении.

"При недостаточном государственном контроле над этими корпорациями текущие и бывшие сотрудники представляют собой один из немногих способов привлечь их к ответственности перед обществом", — заявила группа. Они раскритиковали зависимость технологической индустрии от соглашений о конфиденциальности и недостаточное соблюдение существующих норм защиты информаторов. Письмо призывает компании ИИ отменить соглашения о недискредитации, установить анонимный процесс подачи жалоб для разрешения проблем сотрудников руководством и регуляторами, а также гарантировать, что публичные информаторы не будут подвергаться преследованию в случае неудачи внутренних каналов.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles