Навигация по аудитам ИИ: преодоление предвзятости, производительности и этики
Аудит моделей ИИ на наличие предвзятости, производительности и соответствия этическим стандартам представляет собой важную задачу для организаций. На недавнем мероприятии VB AI Impact Tour в Нью-Йорке, организованном UiPath, лидеры отрасли обсудили эффективные методологии, лучшие практики и реальные примеры. Среди выдающихся выступающих были Майкл Радж, вице-президент по ИИ и поддержке сетей данных в Verizon Communications; Ребекка Цян, соучредитель и технический директор Patronus AI; и Мэтт Тёрк, управляющий директор FirstMark. В завершение мероприятия генеральный директор VB Мэтт Маршалл вступил в беседу с Джастином Гринбергером, старшим вице-президентом по клиентскому успеху в UiPath, сосредоточившись на том, что делает аудит ИИ успешным и как начать этот процесс.
Гринбергер подчеркнул необходимость проактивного подхода к оценке рисков: «Ранее риск оценивался раз в год. Теперь его следует пересматривать почти ежемесячно. Понимаете ли вы свои риски и имеющиеся меры контроля для их снижения? Институт внутренних аудиторов (IIA) обновил свою структуру ИИ, но она в основном охватывает базовые аспекты. Важные вопросы включают: Какие ваши ключевые показатели мониторинга? Есть ли прозрачность в ваших источниках данных? Существуют ли протоколы ответственности? Цикл оценки должен быть более частым».
Он привел в пример Общий регламент по защите данных (GDPR) как пример чрезмерного регулирования, которое, в конечном итоге, стало солидной основой для обеспечения безопасности данных в бизнесе. Интересно, что рост генеративного ИИ приводит к тому, что мировые рынки адаптируются с похожими темпами, создавая равные конкурентные условия для организаций, которые оценивают свою готовность к риску в отношении этой технологии.
Преодоление трудностей пилотных проектов и вовлечение сотрудников
Хотя внедрение ИИ в масштабах предприятий все еще развивается, многие компании запускают первоначальные пилотные проекты для изучения его возможностей. Постоянные проблемы включают поиск экспертов с необходимыми знаниями и критическим мышлением для эффективного определения случаев использования. Кроме того, важно обеспечить понимание и вовлечение сотрудников. Гринбергер отметил, что четкое понимание того, чему сотрудники должны научиться в области технологий ИИ, особенно в отношении этического использования и рисков глубоких фейков, все еще находится в стадии развития.
Организации в основном интегрируют генеративный ИИ в существующие рабочие процессы, а не полностью пересматривают их. В результате, аудит должен развиваться, чтобы контролировать использование личных данных в различных приложениях, включая чувствительные медицинские случаи.
Эволюция ролей в эпоху ИИ
С развитием технологий ИИ роль человека в процессе аудита остается ключевой. Гринбергер объяснил, что хотя пользователи инициируют запросы, ИИ-системы обрабатывают информацию и предоставляют необходимые данные для принятия решений. Например, сотрудник логистической компании может использовать генерируемые ИИ котировки в общении с клиентами. Однако традиционные человеческие роли могут столкнуться с автоматизацией.
«На данный момент люди сохраняют ответственность за принятие решений», — заявил Гринбергер. «Со временем, по мере того как мы становимся более уверенными в контроле аудита и рутинной проверки, это, вероятно, изменится. В конечном итоге, людям, возможно, придется сосредоточиться на творческих и эмоциональных аспектах своих ролей, так как полномочия на принятие решений могут сместиться от них. Эта эволюция неизбежна, поскольку технологии развиваются».
В заключение, организации должны приоритизировать постоянную оценку систем ИИ, чтобы снизить риски и обеспечить этические практики в условиях постоянно меняющегося технологического ландшафта.