Три дня после неожиданного увольнения Сэма Альтмана с поста генерального директора OpenAI сообщество ИИ осталось в состоянии смятиения и неопределенности. На фоне этих событий технологический магнат Илон Маск задал важный вопрос главному научному сотруднику OpenAI Илье Сутскеверу в X (ранее Twitter): «Почему вы предприняли такие радикальные действия? Если OpenAI делает что-то потенциально опасное для человечества, мир должен знать об этом».
Сутскевер, который сыграл значительную роль в отставке Альтмана, выразил опасения по поводу быстрой коммерциализации технологий OpenAI. Всего несколько месяцев назад организация достигла серьезного прорыва в разработке более мощных моделей ИИ, как сообщалось в The Information. Этот прорыв вызвал тревогу у Сутскевера и совета некоммерческой родительской организации, которые опасались, что существующие меры безопасности недостаточны для защиты от последствий этих продвинутых моделей. Они считали единственным выходом устранение Альтмана, которого воспринимали как движущую силу этой ускоренной коммерциализации.
Этот прорыв, названный Q* (или Q-звезда), стал ключевым техническим этапом в развитии ИИ. Он позволил моделям решать фундаментальные математические задачи, с которыми они никогда ранее не сталкивались. В то время как современные генеративные ИИ-системы дают переменные результаты в зависимости от входных запросов, математика оперирует единственно правильными ответами. Этот прогресс предполагает, что ИИ может приближаться к уровню рассуждений, сопоставимому с человеческим интеллектом, как отмечает Reuters.
Последствия подобных достижений приближают ИИ к достижению искусственного общего интеллекта (AGI) — состояния, при котором машины могут рассуждать аналогично человеку. Однако в сфере ИИ возникло разделение. Одна из ярких групп, возглавляемая так называемым крестным отцом ИИ, предупреждает, что AGI представляет экзистенциальные риски для человечества, если не будет сопровождаться строгим регулированием.
В резком противовесе этому, главный научный сотрудник Meta по ИИ Янн ЛеКун решительно отвергает эту мысль. Он публично назвал опасения относительно Q* «абсолютной ерундой» и утверждал, что многие ведущие лаборатории ИИ — такие как FAIR, DeepMind и OpenAI — исследуют аналогичные пути и уже поделились своими находками.
ЛеКун является убедительным представителем мнения, которое отрицает, что AGI может привести к гибели человечества. Он утверждает, что обладание суперразумом не подразумевает необходимость доминирования над теми, кто имеет меньший интеллект. Проведя аналогию с корпоративными структурами, он предполагает, что руководители часто управляют командами, более интеллектуально приспособленными, чем они сами, что опровергает предположение о том, что высший интеллект стремится к завоеванию.
Он также подчеркивает, что машины лишены социальных инстинктов и не стремятся подчинить человечество. «Интеллект не имеет ничего общего с желанием доминировать», — утверждал ЛеКун в недавнем онлайн-дискурсе. Вместо этого он видит суперинтеллектуальный ИИ как полезных партнеров, которые улучшают человеческие способности.
Подводя итог своей точке зрения на AGI, ЛеКун предложил следующие положения:
- Суперчеловеческий ИИ неизбежно появится в будущем.
- Эти ИИ-системы будут находиться под контролем человека.
- Они не будут представлять угрозу для человечества и не будут стремиться причинить нам вред.
- Они упростят наши взаимодействия с цифровой средой.
- Следовательно, они должны работать как открытые платформы, позволяющие вклад со стороны различных создателей для обучения и доработки.
Пока обсуждения о последствиях достижений ИИ продолжаются, дебаты о возможных рисках и оптимистичных возможностях остаются актуальными. Будущее пересечения технологий и человеческого интеллекта в конечном итоге определит траекторию роли ИИ в обществе.