Конкурент OpenAI, компания Anthropic, недавно установила новый стандарт прозрачности в индустрии генеративного ИИ, публично опубликовав системные подсказки для своей семьи моделей ИИ Claude. Наблюдатели подчеркивают, что это значительный шаг к раскрытию внутренних механизмов ИИ-систем.
Системные подсказки служат операционными инструкциями для больших языковых моделей (LLMs), описывающими общие рекомендации, которые эти модели должны следовать при взаимодействии с пользователями. Они также указывают дату ограничения знаний для информации, используемой в обучении модели.
Хотя многие LLM используют системные подсказки, не все компании делятся этой информацией публично, что приводит к растущей тенденции среди «взломщиков» ИИ, стремящихся их раскрыть. Anthropic опередила эти усилия, разместив операционные инструкции для моделей Claude 3.5 Sonnet, Claude 3 Haiku и Claude 3 Opus на своем сайте в разделе записей о релизе.
Кроме того, Алекс Альберт, руководитель по взаимодействию с разработчиками Anthropic, обязался на платформе X (ранее Twitter) информировать общественность о обновлениях системных подсказок Claude, заявив: «Мы будем фиксировать изменения, которые вносим в системные подсказки по умолчанию на Claude dot ai и в наших мобильных приложениях».
Информация из системных подсказок Anthropic
Системные подсказки для Claude 3.5 Sonnet, Claude 3 Haiku и Claude 3 Opus раскрывают ценную информацию о возможностях каждой модели, датах ограничения знаний и их уникальных чертах личности.
- Claude 3.5 Sonnet — самая продвинутая модель с базой знаний, обновленной на апрель 2024 года. Она умеет давать детальные ответы на сложные вопросы и лаконично отвечать на простые. Эта модель с осторожностью подходит к спорным темам, предоставляя информацию без меток о чувствительности или претензий на нейтралитет. Примечательно, что она избегает ненужных фраз и никогда не подтверждает распознавание лиц на изображениях.
- Claude 3 Opus, обновленный августом 2023 года, преуспевает в управлении сложными задачами и написании текстов. Как и Sonnet, он предлагает сжатые ответы на простые запросы и детализированные — на сложные. Opus учитывает различные точки зрения по спорным вопросам, избегая стереотипов и обеспечивая сбалансированные мнения. Однако в отличие от Sonnet ему не хватает некоторых детализированных поведенческих рекомендаций, таких как минимизация извинений и подтверждений.
- Claude 3 Haiku — самый быстрый представитель семьи Claude, также обновленный в августе 2023 года. Он ориентирован на быстрое предоставление лаконичных ответов на простые вопросы и подробных — на более сложные. Его структура подсказок проста, с акцентом на скорость и эффективность без сложных поведенческих нюансов, присущих Sonnet.
Важность прозрачности в ИИ
Одной из основных критик генеративных ИИ-систем является феномен «черного ящика», который затрудняет понимание логики решений моделей. Эта проблема подтолкнула исследования в области объяснимости ИИ, направленные на улучшение понимания того, как модели делают прогнозы. Публикуя системные подсказки, Anthropic делает шаг к устранению этого разрыва в прозрачности, позволяя пользователям понять правила, определяющие поведение моделей.
Релиз от Anthropic получил положительные отзывы в ИТ-сообществе, подчеркивая переход к улучшенной прозрачности среди ИИ-компаний.
Ограничения открытости
Несмотря на публикацию системных подсказок для моделей Claude, Anthropic не сделала модель полностью открытым исходным кодом. Реальные исходные коды, обучающие наборы данных и веса моделей остаются собственностью Anthropic. Тем не менее, эта инициатива демонстрирует путь для других ИИ-компаний в повышении прозрачности, что приносит пользу пользователям, разъясняя, как спроектированы их ИИ-чат-боты.