Недавний опрос компании PwC среди 1,001 руководителей в сфере бизнеса и технологий в США показал, что 73% респондентов уже используют или планируют внедрить генеративный ИИ в своих организациях. Несмотря на растущий интерес, лишь 58% начали оценивать риски, связанные с ИИ. PwC подчеркивает, что ответственное использование ИИ должно ориентироваться на ценность, безопасность и доверие, интегрируя эти элементы в процессы управления рисками компании.
Джен Косар, руководитель направления ИИ-обеспечения PwC в США, отметила, что раньше компании могли запускать проекты по ИИ без четких стратегий ответственного использования, но это время прошло. «Мы находимся на более продвинутом этапе, поэтому время развивать ответственный ИИ — сейчас», — заявила Косар. Она добавила, что ранние проекты обычно ограничивались небольшими командами, но сейчас мы наблюдаем широкую интеграцию генеративного ИИ.
Пилотные проекты в области Ген ИИ играют ключевую роль в формировании стратегий ответственного ИИ, предоставляя информацию о эффективной интеграции команд и использовании ИИ-систем.
Восходящие проблемы
К важности ответственного ИИ и оценки рисков возникло значительное внимание после запуска модели xAI Grok-2 Илона Маска на платформе X (ранее Twitter). Первые отзывы указывают, что этот сервис генерации изображений не имеет достаточных ограничений, что позволяет создавать противоречивый и вводящий в заблуждение контент, включая дипфейки публичных фигур в деликатных ситуациях.
Ключевые приоритеты для ответственного ИИ
В ходе опроса респондентов попросили выделить 11 возможностей, определенных PwC, включая:
- Повышение квалификации
- Внедрение специалистов по рискам ИИ
- Периодическое обучение
- Конфиденциальность данных
- Управление данными
- Кибербезопасность
- Тестирование моделей
- Управление моделями
- Управление рисками третьих сторон
- Специализированное ПО для управления рисками ИИ
- Мониторинг и аудит
Более 80% участников сообщили о продвижении в этих областях, хотя только 11% заявили о полном внедрении всех 11 возможностей. PwC предупреждает, что многие организации могут преувеличивать свои достижения, отметив, что сложности в управлении ответственным ИИ могут препятствовать его полноценной реализации.
Например, эффективное управление данными имеет решающее значение для определения доступа ИИ-моделей к внутренним данным при введении защитных мер. Кроме того, традиционные подходы к кибербезопасности могут оказаться недостаточно надежными против сложных атак, таких как отравление модели.
Ответственность в ответственном ИИ
Для помощи компаниям в навигации их ИИ-трансформации PwC рекомендует уделять внимание комплексной стратегии ответственного ИИ. Ключевая рекомендация — установить четкое распределение ответственности за практики ответственного ИИ, желательно под руководством одного исполнительного лица. Косар подчеркнула важность восприятия безопасности ИИ как организационного приоритета, предлагая назначение главного офицера по ИИ или ответственного лидера по ИИ для взаимодействия с различными заинтересованными сторонами.
«Возможно, ИИ станет катализатором для объединения технологических и операционных рисков», — заметила Косар.
PwC также предлагает организациям рассмотреть весь жизненный цикл систем ИИ. Это включает выход за рамки теоретических соображений и активное внедрение политик безопасности и доверия по всей организации. Подготовка к будущим нормативным требованиям требует обязательств по ответственному использованию ИИ, а также планов по прозрачности для заинтересованных сторон.
Косар выразила удивление, что среди опрошенных многие руководители рассматривают ответственный ИИ как коммерческое преимущество. «Ответственный ИИ — это не только управление рисками; он также должен создавать ценность. Организации видят в этом конкурентное преимущество, основанное на доверии», — заключила она.