Опрос: Большинство компаний внедряют ответственные практики ИИ на фоне появления глобальных регуляций.

Недавний опрос показывает, что почти 90% компаний активно реализуют стратегии ответственного ИИ, будь то внедрение, оценка или разработка. Этот проактивный подход важен в условиях, когда правительства стран по всему миру занимаются сложностями регулирования ИИ. В настоящее время 37% организаций внедряют стратегии ответственного ИИ, а 34,8% находятся в процессе их формулирования. Впечатляет, что 15,4% уже разработали «четкую» стратегию, интегрированную во все усилия по разработке ИИ.

На глобальном уровне правительства создают регламенты для решения потенциальных угроз, связанных с ИИ, причем Регламент ИИ Европейского Союза является самым комплексным и продвинутым законодательством, которое ожидается к принятию в начале или середине 2024 года. В Соединенных Штатах президент Байден инициировал указ, способствующий общественному контролю за моделями ИИ крупных технологических компаний. Премьер-министр Великобритании Риши Сунак недавно завершил первый мировой саммит по безопасности ИИ в историческом Блетчли-Парке.

Несмотря на надвигающееся регулирование, частный сектор проявляет инициативу. Быстрая реакция бизнеса заметна: всего год назад генеративный ИИ привлек значительное внимание с запуском ChatGPT от OpenAI, несмотря на долгую историю технологии.

Удивительные возможности больших языковых моделей и связанных с ними чат-ботов усилили осведомленность о рисках, которые они представляют, таких как галлюцинации, предвзятости, проблемы с авторским правом, вторжение в частную жизнь и угрозы кибербезопасности, подчеркивая настоятельную необходимость ответственных практик в ИИ.

Необходимость этичного ИИ

Преимущества внедрения этичных практик в ИИ очевидны: от повышения доверия клиентов до снижения уязвимостей в области регулирования и法律, компании осознают социальные последствия ИИ и предпринимают шаги для обеспечения своей системы прозрачными, справедливыми и подотчетными.

При более детальном рассмотрении их практик 72% респондентов указали, что у них уже есть программа или они планируют ее создать. Примечательно, что только четверть участников опроса сообщили, что в их организациях отсутствуют системы управления данными и охраны прав у ИИ, в то время как значительное число участников не уверены в статусе своей компании.

Обдумывая свои подходы, 45,8% описали свои действия как «взвешенные и обдуманные», утверждая, что они движутся в правильном темпе. В отличие от этого, 26% признались, что движутся быстрее, чем могут обеспечить ответственное внедрение. Тревожно, что 19% компаний не имеют программ для ответственного ИИ.

В опросе участвовали 227 человек, преимущественно из Северной Америки (43,2%), с представителями из Западной Европы (25,1%) и Африки (9%). Чуть более половины работали в организациях с численностью сотрудников менее 100 человек, в то время как 12,8% пришли из компаний с более чем 10 000 сотрудников. Значительная часть респондентов занимала должности в корпоративном управлении или в области исследований и разработок и технической стратегии.

Преодоление трудностей

Несмотря на явный энтузиазм по поводу ответственного ИИ, существует множество проблем, особенно отсутствие стандартизированных определений и критерия оценки. Быстрое развитие ИИ требует регулярного обновления корпоративных политик и норм, чтобы оставаться эффективными.

Контроль за практиками этичного ИИ крайне важен, однако результаты показывают, что есть возможности для улучшения. Хотя 60% респондентов заявили о проведении оценки корректности внедрения ответственного ИИ, эта цифра значительно ниже, чем почти 90%, применяющих этичные рамки ИИ. Только 18,1% имеют эти меры утвержденными, а 41,9% все еще движется к этой цели.

Процесс измерения этичного ИИ структурирован для 33,9% респондентов и включает четкие шаги, рекомендации и постоянный мониторинг. Тем временем, 21,1% все еще разрабатывают свои формализованные процессы. Тревожно, что почти пятая часть респондентов не имеет стратегии измерения или не знает, какова стратегия их компании.

Когда респондентов спросили о времени учета аспектов ответственного ИИ, 40% ответили, что учитывают их до проектирования или внедрения технологии, в то время как 41,4% интегрируют этические соображения на этапе проектирования. Лишь 10,6% рассматривают эти вопросы после внедрения.

Среди выявленных критически важных применений ответственного ИИ, предсказательная аналитика получила 30,4% голосов, за ней следуют улучшение клиентского опыта с 27,3% и чат-боты и виртуальные помощники с 20,3%. Наименее приоритетными областями, согласно ответам, оказались распознавание голоса/речи, текстовый анализ и визуальная аналитика.

Новая эра разработки ИИ

Опрос подчеркивает важный момент в ландшафте ИИ. По мере того как компании согласуют свои практики с стратегиями ответственного ИИ, а правительства принимают регуляторные меры, мы, вероятно, входим в эпоху, когда этические соображения становятся неотъемлемой частью инноваций в ИИ — это означает значимый сдвиг в разработке и применении искусственного интеллекта.

Most people like

Find AI tools in YBX