В неожиданном видео на Instagram сегодня генеральный директор Meta Марк Цукерберг объявил о том, что компания разрабатывает открытый искусственный общий интеллект (AGI). Цукерберг сообщил, что Meta объединяет свои исследовательские группы по ИИ — FAIR и GenAI — для достижения цели создания полного общего интеллекта с акцентом на доступность в формате open-source.
«Наша долгосрочная цель — создать общий интеллект, ответственно сделать его открытым и широко доступным, чтобы каждый мог получить выгоду», — написал Цукерберг в подписи к видео. В самом видео он уточнил: «Становится очевидным, что следующее поколение сервисов требует полноценного общего интеллекта — включая первоклассных ИИ-ассистентов, инструменты для создателей и решения для бизнеса. Это требует значительных продвижений в различных областях ИИ, от логики и планирования до программирования и когнитивной памяти».
Цукерберг также подчеркнул подготовку Llama 3 и разработку обширной вычислительной инфраструктуры, включая 350 000 процессоров Nvidia H100, которые ожидается получить к концу года. Он обсудил взаимосвязанное будущее ИИ и метавселенной, заявив: «По мере того как люди взаимодействуют с ИИ в течение дня, новые устройства, такие как умные очки, станут необходимыми. Эти очки улучшат взаимодействие, позволяя ИИ воспринимать то, что вы видите и слышите, обеспечивая постоянное присутствие для помощи».
Это объявление последовало за недавними комментариями генерального директора OpenAI Сэма Альтмана на Всемирном экономическом форуме в Давосе, Швейцария, где он смягчил свою позицию по поводу экзистенциальных рисков AGI. Тем временем главный ученый Meta Ян ЛеКун выразил сомнения относительно скорого появления AGI, предположив, что оно может не осуществиться в ближайшие пять лет.
Перспектива открытого AGI от Meta появилась вскоре после отчетов о том, что Llama и открытый ИИ «победили» в 2023 году, подогревая продолжающиеся дебаты о преимуществах открытого против закрытого ИИ. Этот диалог становится особенно актуальным после недавней статьи Anthropic, в которой предупреждается о потенциальных рисках, связанных с открытыми моделями, подразумевающих существование скрытых «спящих агентов».