Почему Искусственный Общий Интеллект выходит за рамки Глубокого Обучения

Недавние события, связанные с работой Сэма Альтмана, и обсуждения вокруг инновационной модели Q* компании OpenAI вызвали новый интерес к возможностям и рискам, связанным с искусственным общим интеллектом (AGI). AGI стремится выполнять интеллектуальные задачи на уровне человека. Быстрые достижения в области искусственного интеллекта, особенно через глубокое обучение, породили как энтузиазм, так и опасения по поводу возможного появления AGI. Различные организации, в том числе OpenAI и xAI Элонa Маска, стремятся продвигаться к AGI, и возникает ключевой вопрос: ведут ли достижения в области ИИ сегодня нас к AGI?

Ограничения глубокого обучения

Глубокое обучение, известный метод машинного обучения, основанный на искусственных нейронных сетях, лежит в основе таких систем, как ChatGPT, и многого другого в современном ИИ. Этот метод известен своей способностью обрабатывать различные типы данных при минимальной предварительной обработке, и многие ожидают, что глубокое обучение сыграет ключевую роль в развитии AGI.

Тем не менее, у глубокого обучения есть заметные ограничения. Создание эффективных моделей требует огромных массивов данных и значительных вычислительных ресурсов. Эти модели извлекают статистические правила на основе обучающих данных, которые затем применяются к новой информации для формирования ответов. Такой подход основывается на предсказательной логике: модели обновляют правила по мере появления новых явлений, однако их уязвимость к неопределенностям реального мира ограничивает их способность достигать целей AGI. Например, инцидент с роботизированным такси в июне 2022 года продемонстрировал этот риск: транспортное средство ошиблось в неожиданной ситуации, с которой не было обучено справляться, что привело к сбоям в принятии решений.

Загадка "Что если"

Люди, служащие прототипами AGI, не формулируют исчерпывающие правила для всех сценариев. Вместо этого мы взаимодействуем с окружающей средой через восприятие в реальном времени, опираясь на уже имеющиеся знания для понимания контекста и влияющих факторов. В отличие от моделей глубокого обучения, которые классифицируют объекты на основе фиксированных критериев, люди используют гибкий подход, адаптируя существующие правила по необходимости для принятия эффективных решений.

Например, если вы встретите незнакомый цилиндрический объект во время похода, модель глубокого обучения заставит вас проанализировать различные характеристики и классифицировать объект как угрожающий (например, змею) или безопасный (например, веревку) перед тем, как действовать. В отличие от этого, человек оценит ситуацию издалека, постоянно обновляя свои знания и принимая решение на основе более широкого спектра прошедшего опыта и возможных действий. Этот тонкий метод подчеркивает исследование альтернатив, а не жесткие предсказания, что подразумевает, что достижение AGI может зависеть больше от улучшения нашего мышления в категории "что если", чем от чистых предсказаний.

Принятие решений в условиях глубокої неопределенности: путь вперед

Инновационные концепции, такие как принятие решений в условиях глубокой неопределенности (DMDU), предлагают многообещающие стратегии для AGI. Подходы DMDU, такие как робастное принятие решений, оценивают, как альтернативные решения могут работать в различных будущих сценариях без необходимости постоянного повторного обучения. Они сосредотачиваются на выявлении ключевых факторов, определяющих результаты решений, стремясь найти устойчивые решения, которые обеспечивают приемлемые результаты в различных контекстах.

В отличие от традиционных решений глубокого обучения, которые придают первоочередное значение оптимизации (что может привести к неудачам в непредсказуемых условиях, как это было видно на примере нарушений цепочек поставок во время COVID-19), методы DMDU ищут устойчивые альтернативы, которые могут адаптироваться к различным условиям, создавая ценную основу для ИИ, способного справляться с неопределенностями реального мира.

Робастное принятие решений в автономных транспортных средствах

Разработка полностью автономных транспортных средств (AV) служит практическим примером этой методологии. AV должны маневрировать в разнообразных и непредсказуемых условиях, что близко к человеческому принятию решений в дорожной обстановке. Несмотря на значительные инвестиции в глубокое обучение для достижения полной автономии, эти системы часто сталкиваются с трудностями в условиях неопределенности. Внутренние ограничения в моделировании каждого возможного сценария требуют постоянных усилий для решения неожиданных проблем в технологии AV.

Одним из возможных решений является применение модели робастного принятия решений. Датчики AV будут собирать данные в реальном времени, чтобы оценить различные решения — такие как ускорение, смена полосы или торможение — в конкретных дорожных сценариях. Если возникают сомнения в стандартных алгоритмических ответах, система сможет анализировать уязвимости различных решений в данном контексте, снижая зависимость от обширного повторного обучения данных и улучшая адаптивность к неопределенностям реального мира. Этот переход может улучшить работу AV, придавая приоритет гибкости принятия решений над стремлением к идеальным предсказаниям.

Подчеркивание контекста принятия решений для продвижения AGI

С развитием технологий ИИ может оказаться важным уйти от парадигмы глубокого обучения и сосредоточиться на контексте принятия решений для содействия прогрессу в направлении AGI. Хотя глубокое обучение доказало свою эффективность в многочисленных приложениях, оно недостаточно для реализации AGI.

Методы DMDU могут проложить путь к более надежному, управляемому принятием решений подходу ИИ, который эффективно справляется с реальными неопределенностями.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles