Как обучить вашу команду мыслить как профессионалы в области ИИ

Если вы испытываете необъяснимое желание улыбнуться этому камню, вы не одиноки.

Как люди, мы часто приписываем неживым объектам человеческие черты, феномен, известный как антропоморфизм, который становится все более актуальным в нашем взаимодействии с ИИ.

Антропоморфизм проявляется, когда мы говорим «пожалуйста» и «спасибо» чат-ботам или выражаем восхищение результатами генеративного ИИ, которые соответствуют нашим ожиданиям. Однако настоящая сложность возникает, когда мы ожидаем, что ИИ сможет воспроизвести свой уровень производительности в простых задачах — например, в резюме статьи — на более сложных темах, таких как антология научных статей. Аналогично, когда ИИ дает ответ о доходах Microsoft, а мы ожидаем, что он проведет исследование рынка на основе отчетов о доходах нескольких компаний, мы подводим себя к разочарованию. Эти задачи, хоть и кажутся схожими, по своей сути различаются для ИИ-моделей. Как объясняет Касси Козырькова, «ИИ столь же креативен, как кисть.» Основное препятствие для продуктивности с ИИ заключается в нашей способности эффективно использовать его как инструмент.

Согласно anecdotal evidence, некоторые клиенты, внедрившие лицензии Microsoft Copilot, впоследствии сократили количество мест, потому что пользователи не нашли их полезными. Этот диссонанс возникает из-за нереалистичных ожиданий относительно возможностей ИИ и реальности его производительности. Мы все испытывали этот момент осознания: «О, ИИ не подходит для этого.» Вместо того чтобы отвергать генеративный ИИ, мы можем развивать интуицию, чтобы лучше понимать ИИ и машинное обучение, избегая ловушек антропоморфизма.

Определение интеллекта и мышления в машинном обучении

Наше определение интеллекта всегда было неоднозначным. Когда собака просит угощение, является ли это проявлением интеллекта? Когда обезьяна использует инструмент, демонстрирует ли это ум? Так же, когда компьютеры выполняют эти задачи, можем ли мы считать их интеллектуальными?

До недавнего времени я считал, что большие языковые модели (LLMs) не могут по-настоящему «логически мыслить». Однако недавняя дискуссия с доверенными основателями ИИ привела нас к предложению потенциального решения: создание рубрики для оценки уровней мышления в ИИ.

Так же, как у нас есть рубрики для понимания прочитанного и количественного мышления, введение специфической рубрики для ИИ может помочь донести ожидаемые способности аналитического мышления решений на базе LLM, а также примеры того, что является нереальным.

Нереалистичные ожидания ИИ

Люди, как правило, более снисходительны к ошибкам, совершенным людьми. Несмотря на то что безлюдные автомобили статистически безопаснее, чем водители, аварии вызывают сильные реакции. Эта реакция усиливает разочарование, когда ИИ не справляется с задачами, которые, как мы ожидаем, хорошо выполняют люди.

Многие описывают ИИ как огромную армию «стажеров», однако машины могут ошибаться так, как не ошибаются люди, даже если в ряде областей они превосходят их.

В результате менее 10% организаций успешно разрабатывают и внедряют проекты с генеративным ИИ. Несоответствие бизнес-целям и неожиданные расходы, связанные с курированием данных, еще больше усложняют эти начинания.

Чтобы преодолеть эти трудности и добиться успеха проектов, важно оснастить пользователей ИИ интуицией, необходимой для того, чтобы знать, когда и как эффективно использовать ИИ.

Обучение для формирования интуиции с ИИ

Обучение критично для адаптации к быстро меняющемуся миру ИИ и переосмысления нашего понимания интеллекта машинного обучения. Хотя термин «обучение ИИ» может казаться неопределенным, его можно разделить на три ключевые области:

1. Безопасность: умение ответственно использовать ИИ и избегать новых схем фишинга с применением ИИ.

2. Грамотность: понимание того, что может сделать ИИ, чего от него ожидать и какие подводные камни могут возникнуть.

3. Готовность: овладение навыками умелого и эффективного использования инструментов на базе ИИ для повышения качества работы.

Обучение безопасности ИИ защищает вашу команду, как наколенники и налокотники для нового велосипедиста; оно может предотвратить некоторые травмы, но не подготовит их ко более сложным ситуациям. Напротив, обучение готовности к ИИ наделяет вашу команду возможностью максимально использовать потенциал ИИ и машинного обучения.

Чем больше возможностей вы предоставите своей команде для безопасного взаимодействия с генеративными ИИ-инструментами, тем более ловкими они станут в распознавании того, что работает, а что нет.

Хотя мы можем лишь предполагать о возможностях, которые появятся в следующем году, связав их с определенной рубрикой уровней мышления, вы лучше подготовите свою команду к успеху.

Знайте, когда сказать «я не знаю», когда обратиться за помощью и, что наиболее важно, когда проблема выходит за рамки возможностей конкретного инструмента ИИ.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles