Десятки протестующих собрались перед штаб-квартирой OpenAI в Сан-Франциско в понедельник вечером, выражая свои опасения по поводу разработки компанией искусственного интеллекта (ИИ) в тот момент, когда сотрудники покидали офис.
Демонстрация, организованная группами Pause AI и No AGI, призывала инженеров OpenAI прекратить работу над продвинутыми ИИ-системами, включая чат-бот ChatGPT. Основное послание было ясным: прекратить стремление к созданию искусственного общего интеллекта (AGI), который может превзойти человеческие способности, и избегать связей с военными.
Протест был частично вызван недавним решением OpenAI убрать из своей политики использования пункты, запрещающие военное применение своих ИИ-технологий. Вскоре после изменения политики появились сообщения о том, что OpenAI стал клиентом Пентагона.
«Мы требуем, чтобы OpenAI разорвал отношения с Пентагоном и отказался от всех военных клиентов», — заявили организаторы мероприятия. «Если этические границы могут быть изменены ради удобства, им нельзя доверять».
СМИ общались с организаторами протестов, чтобы узнать об их целях и критериях успеха.
«Миссия No AGI — повысить осведомленность о рисках разработки AGI», — сказал Сэм Кирченер, глава No AGI. «Мы должны сосредоточиться на инициативах, таких как эмуляция человеческого мозга, которые ставят человеческое мышление в центр интеллекта».
Холли Эльмор, ведущий организатор Pause AI, выразила желание своей группы добиться «глобальной и неопределенной паузы в разработке AGI до тех пор, пока это не станет безопасным». Она подчеркнула: «Прекращение военных связей — это ключевая граница».
Протест проходит на фоне растущей общественной озабоченности этическими последствиями ИИ. Связь OpenAI с Пентагоном разожгла дискуссию о милитаризации ИИ и его потенциальных последствиях.
Опасения протестующих сосредоточены на AGI — способности машин выполнять интеллектуальные задачи человека с беспрецедентной скоростью и масштабом. Их беспокойства выходят за рамки утраты рабочих мест и автономии в войне; они отражают тревогу по поводу изменения властных динамик и процесса принятия решений в обществе.
«Если нам удастся создать AGI, мы рискуем утратить основное значение в нашей жизни из-за так называемой психологической угрозы, когда AGI будет управлять всем», — предостерег Кирченер. «Люди больше не будут находить смысл в работе, что критически важно для нашего современного общества».
Эльмор добавила: «Саморегуляции недостаточно; необходимо внешнее надзор. OpenAI часто изменял свои обязательства — Сэм Альтман утверждал в июне, что совет управляющих может его уволить, а к ноябрю он не мог быть уволен. Похожие несоответствия возникают с их политикой использования и военными контрактами — эти правила кажутся неэффективными, если они допускают неограниченные действия».
Хотя как Pause AI, так и No AGI преследуют цель остановить разработку AGI, их подходы различаются. Pause AI открыт к идее безопасной разработки AGI, тогда как No AGI категорически против, ссылаясь на потенциальные психологические угрозы и утрату индивидуального смысла.
Обе группы заявляют, что этот протест не будет последним, и другие, обеспокоенные рисками ИИ, могут участвовать через их веб-сайты и социальные сети. На данный момент Кремниевая долина продолжает свой стремительный путь к неопределенному будущему ИИ.