Проблемы безопасности генеративного ИИ побуждают компании улучшать протоколы аудита ИИ.

Увеличение числа серьезных ошибок, совершенных искусственными агентами поддержки клиентов, включая известные бренды такие как Chevy, Air Canada и Нью-Йорк, усилило спрос на повышение надежности систем искусственного интеллекта.

Если вы являетесь руководителем в компании, занимающейся разработкой приложений и стратегий генеративного ИИ, и вам сложно успевать за последними технологиями чат-ботов и мерами ответственности, подумайте о посещении нашего эксклюзивного мероприятия по ИИ в Нью-Йорке 5 июня. Это событие будет посвящено "Аудиту ИИ" и предназначено для технических лидеров в корпоративном секторе.

Присоединяйтесь к нам на этом мероприятии по нетворкингу, организованном ведущим медиа-ресурсом, где мы представим мнения трех видных фигур в экосистеме ИИ, обсуждающих лучшие практики аудита ИИ.

Мы услышим Майкла Раджа, вице-президента по ИИ и данным в Verizon, который расскажет о том, как внедрение тщательных аудитов ИИ и обучение сотрудников создали основу для ответственного использования генеративного ИИ в взаимодействиях с клиентами. Его будет модератором Мэтт Так, известный инвестор компании FirstMark и издатель ежегодного ландшафта данных и ИИ.

Кроме того, Ребекка Цян, соучредитель и технический директор Patronus AI, обсудит последние стратегии и технологии в аудите ИИ, которые помогают выявлять и устранять уязвимости безопасности. Цян опирается на свой опыт из Meta, где возглавляла инициативы по оценке ИИ в Meta AI Research (FAIR).

Я буду вести обсуждения вместе с моим коллегой Карлом Френзеном, исполнительным редактором ведущего медиа-ресурса. Мы рады представить UiPath в качестве спонсора, а Джастин Гринбергер, старший вице-президент UiPath, предоставит информацию о том, как развивающиеся требования к аудиту и соблюдению норм формируют протоколы ИИ внутри организаций. Это мероприятие является частью нашего тура "AI Impact Tour", направленного на продвижение диалога и нетворкинга среди корпоративных лидеров, стремящихся эффективно внедрять генеративный ИИ.

Итак, что такое аудит ИИ и чем он отличается от управления ИИ? После установления правил управления ИИ крайне важно проводить аудиты применений генеративного ИИ, чтобы обеспечить соблюдение этих правил. Эта необходимость особенно остро стоит на фоне стремительного технологического прогресса. Крупные поставщики LLM, такие как OpenAI и Google, недавно представили модели, такие как ChatGPT и Gemini, которые могут видеть, слышать, говорить и выражать эмоции. В сочетании с инновациями других компаний, включая Meta (Llama 3), Anthropic (Claude) и Inflection (с ИИ, основанным на эмпатии), поддержание точности и требований к аудиту конфиденциальности становится все более сложной задачей.

Появляются новые компании, такие как Patronus AI, которые заполняют эту нишу, создавая эталоны, наборы данных и диагностику для помощи в выявлении конфиденциальной персонально идентифицируемой информации (PII) в взаимодействиях с ИИ. Кроме того, традиционные методы, такие как дополненная генерация (RAG) и системные подсказки, часто не предотвращают ошибки, поскольку проблемы могут возникнуть из-за нечетких обучающих наборов данных LLM, которые часто не имеют прозрачности. Эта реальность подчеркивает необходимость надежной практики аудита.

Не упустите эту важную возможность для руководителей корпоративного ИИ, стремящихся к этическому лидерству в цифровом пространстве. Подайте заявку сейчас, чтобы закрепить за собой место на AI Impact Tour и занять передовые позиции в инновациях и управлении ИИ.

Most people like

Find AI tools in YBX