Протестующие собрали митинг у офиса OpenAI против военного использования ИИ и разработки общего искусственного интеллекта (AGI).

Десятки протестующих собрались перед штаб-квартирой OpenAI в Сан-Франциско в понедельник вечером, выражая свои опасения по поводу разработки компанией искусственного интеллекта (ИИ) в тот момент, когда сотрудники покидали офис.

Демонстрация, организованная группами Pause AI и No AGI, призывала инженеров OpenAI прекратить работу над продвинутыми ИИ-системами, включая чат-бот ChatGPT. Основное послание было ясным: прекратить стремление к созданию искусственного общего интеллекта (AGI), который может превзойти человеческие способности, и избегать связей с военными.

Протест был частично вызван недавним решением OpenAI убрать из своей политики использования пункты, запрещающие военное применение своих ИИ-технологий. Вскоре после изменения политики появились сообщения о том, что OpenAI стал клиентом Пентагона.

«Мы требуем, чтобы OpenAI разорвал отношения с Пентагоном и отказался от всех военных клиентов», — заявили организаторы мероприятия. «Если этические границы могут быть изменены ради удобства, им нельзя доверять».

СМИ общались с организаторами протестов, чтобы узнать об их целях и критериях успеха.

«Миссия No AGI — повысить осведомленность о рисках разработки AGI», — сказал Сэм Кирченер, глава No AGI. «Мы должны сосредоточиться на инициативах, таких как эмуляция человеческого мозга, которые ставят человеческое мышление в центр интеллекта».

Холли Эльмор, ведущий организатор Pause AI, выразила желание своей группы добиться «глобальной и неопределенной паузы в разработке AGI до тех пор, пока это не станет безопасным». Она подчеркнула: «Прекращение военных связей — это ключевая граница».

Протест проходит на фоне растущей общественной озабоченности этическими последствиями ИИ. Связь OpenAI с Пентагоном разожгла дискуссию о милитаризации ИИ и его потенциальных последствиях.

Опасения протестующих сосредоточены на AGI — способности машин выполнять интеллектуальные задачи человека с беспрецедентной скоростью и масштабом. Их беспокойства выходят за рамки утраты рабочих мест и автономии в войне; они отражают тревогу по поводу изменения властных динамик и процесса принятия решений в обществе.

«Если нам удастся создать AGI, мы рискуем утратить основное значение в нашей жизни из-за так называемой психологической угрозы, когда AGI будет управлять всем», — предостерег Кирченер. «Люди больше не будут находить смысл в работе, что критически важно для нашего современного общества».

Эльмор добавила: «Саморегуляции недостаточно; необходимо внешнее надзор. OpenAI часто изменял свои обязательства — Сэм Альтман утверждал в июне, что совет управляющих может его уволить, а к ноябрю он не мог быть уволен. Похожие несоответствия возникают с их политикой использования и военными контрактами — эти правила кажутся неэффективными, если они допускают неограниченные действия».

Хотя как Pause AI, так и No AGI преследуют цель остановить разработку AGI, их подходы различаются. Pause AI открыт к идее безопасной разработки AGI, тогда как No AGI категорически против, ссылаясь на потенциальные психологические угрозы и утрату индивидуального смысла.

Обе группы заявляют, что этот протест не будет последним, и другие, обеспокоенные рисками ИИ, могут участвовать через их веб-сайты и социальные сети. На данный момент Кремниевая долина продолжает свой стремительный путь к неопределенному будущему ИИ.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles