生成AI安全挑战促使企业加强AI审计协议

随着像雪佛兰、加拿大航空和纽约市等知名品牌的客户支持AI代理频繁发生重大错误,对人工智能系统可靠性的需求日益增加。

如果您是负责制定生成式AI应用和策略的企业决策者,并发现难以跟上最新的聊天机器人技术和问责措施,请考虑参加我们将于6月5日在纽约举办的独家AI活动。本次活动将聚焦于“AI审计”,专为企业领域的技术领导者量身定制。

欢迎加入我们由知名媒体主办的社交活动,我们将邀请三位AI生态系统的杰出人士分享AI审计的最佳实践。我们将聆听Verizon的AI和数据副总裁Michael Raj的分享,他将阐述如何通过实施全面的AI审计和员工培训,建立负责任的生成式AI在客户互动中的使用框架。讨论将由FirstMark的知名投资者Matt Turck主持,他亦是年度数据和AI领域出版物的发布人。

此外,Patronus AI的联合创始人兼CTO Rebecca Qian将介绍最新的AI审计策略和技术,帮助识别和解决安全隐患。Qian曾在Meta领导AI评估项目,具备丰富的行业经验。

活动中,我将与我的同事Carl Franzen进行讨论,他是知名媒体的执行编辑。我们很高兴地宣布UiPath作为赞助商,UiPath高级副总裁Justin Greenberger将分享如何通过不断发展的审计和合规指南来塑造组织内的AI协议。本次活动是我们的AI影响力巡展的一部分,旨在促进企业领导者之间关于有效实施生成式AI的对话与交流。

那么,什么是AI审计,它与AI治理有何不同?在为AI建立治理规则后,进行生成式AI应用的审计以确保合规至关重要,尤其是在快速技术进步的背景下。OpenAI和谷歌等主要LLM提供商最近推出了如ChatGPT和Gemini等具备感知、语音和情感表达能力的模型。同时,Meta的Llama 3、Anthropic的Claude和Inflection的同情驱动AI等公司也在不断创新,导致准确性和隐私审计要求的保持变得愈加复杂。

新兴公司如Patronus AI正致力于填补这一空白,创建基准、数据集和诊断工具,以帮助在AI互动中识别敏感的个人可识别信息(PII)。此外,传统技术如检索增强生成(RAG)和系统提示常常无法防止错误,因为问题可能源自底层LLM训练数据集,而这些数据集通常缺乏透明度。这一现实凸显了健全审计实践的必要性。

不要错过这一机会,成为承诺在数字领域中实现道德领导力的企业AI决策者之一。立即申请,确保您在AI影响力巡展中的位置,站在AI创新和治理的前沿。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles