Неиспользованный Экономический Потенциал ИИ: Доверие как Ключ к Успеху
Несмотря на то что экономический потенциал искусственного интеллекта (ИИ) хорошо известен, ошеломляющие 87% проектов в области ИИ не приносят результатов. Эта повсеместная проблема является не только вопросом технологий, бизнеса или культуры; недавние исследования указывают на более фундаментальную причину — доверие.
Усиление Доверия к ИИ Системам
Согласно последним исследованиям, почти две трети руководителей на уровне C-suite считают, что доверие к ИИ существенно влияет на доход, конкурентоспособность и успех клиентов. Однако установить доверие к ИИ крайне сложно. Так же, как мы не доверяем людям мгновенно, доверие к ИИ-системам не формируется быстро.
Недостаток доверия затормаживает экономические выгоды от ИИ, а традиционные рекомендации по его укреплению зачастую кажутся слишком абстрактными или непрактичными. Мы предлагаем новую модель: Уравнение Доверия ИИ.
Определение Уравнения Доверия ИИ
Изначально разработанное для межличностного доверия, Уравнение Доверия из книги "Доверенный советник" Дэвида Мейстера, Чарльза Грина и Роберта Гэлфорда можно выразить так:
Доверие = Credibility + Reliability + Intimacy / Self-Orientation
Однако эта модель неэффективно адаптируется для отношений человек-машина. Пересмотренное Уравнение Доверия ИИ выглядит так:
Доверие = Безопасность + Этика + Точность / Контроль
1. Безопасность — первый основополагающий элемент. Организациям следует задаваться вопросом: "Останется ли моя информация защищенной при взаимодействии с этой ИИ-системой?" Обеспечение надежных мер безопасности является критически важным.
2. Этика вводит моральные аспекты на первый план. Руководителям стоит задуматься о следующих моментах:
- Отношение к участникам разработки модели.
- Объяснимость модели и механизмы для устранения вредных выводов.
- Осознание предвзятости в модели, о чем свидетельствуют такие инициативы, как исследование Gender Shades.
- Бизнес-модели и компенсации для участников создания обучающих данных для ИИ.
- Соответствие ценностей компании реальным действиям, что подтверждается контроверсиями вокруг OpenAI.
3. Точность оценивает, насколько надежно ИИ-система предоставляет правильные ответы в соответствующих контекстах. Важно оценивать как сложность модели, так и качество данных.
4. Контроль отражает уровень оперативного надзора, необходимого для вашей организации. Важные вопросы: будет ли ИИ-система действовать так, как задумано, и подвержен ли риск утраты контроля над интеллектуальными системами.
5 Шагов к Внедрению Уравнения Доверия ИИ
1. Оцените Полезность: Определите, создает ли платформа ИИ ценность, прежде чем исследовать её надежность.
2. Оцените Безопасность: Изучите практики обработки данных на платформе, убедившись в соответствии вашим стандартам безопасности.
3. Установите Этические Стандарты: Определите четкие этические нормы и оцените все системы по этим критериям объяснимости и справедливости.
4. Определите Цели Точности: Установите приемлемые стандарты точности и стойко сопротивляйтесь искушению соглашаться на низкие результаты.
5. Определите Необходимый Уровень Контроля: Определите, насколько контроль над системами ИИ необходим вашей организации — от полностью автономных до полуавтономных опций.
В быстро меняющемся мире ИИ искушение искать лучшие практики очень велико, но пока еще нет окончательных решений. Вместо этого, принимите инициативу. Создайте специализированную команду, адаптируйте Уравнение Доверия ИИ под вашу организацию и критически оцените ИИ-системы согласно ему.
Некоторые технологические компании уже осознают эти изменяющиеся рыночные условия и повышают прозрачность, как это делает Salesforce с Einstein Trust Layer, в то время как другие могут этому сопротивляться. В конечном итоге, вашей организации необходимо решить, сколько доверия мы вкладываем в выводы ИИ и компании, стоящие за ними.
Потенциал ИИ огромен, но его реализация зависит от формирования и поддержания доверия между ИИ-системами и организациями, которые их используют. Будущее ИИ зависит от этого.