AI治理公司 Credo AI 推出了一个新平台,旨在通过与第三方AI操作和商业工具的整合,提升负责任的AI政策的可见性和合规性。
新推出的Credo AI集成中心,使企业客户能够将生成式AI开发平台(如亚马逊SageMaker、MLFlow和微软Dynamics 365)连接到一个集中治理平台。此外,常用于部署这些应用的平台,例如Asana、ServiceNow和Jira,也可以集成到集成中心中。
集成中心的目的是简化AI应用与Credo AI治理平台之间的连接。企业不再需要上传文档来验证安全和合规标准;相反,集成中心会自动收集包含这些指标的相关元数据。
Credo AI的创始人兼首席执行官Navrina Singh表示,集成中心旨在将AI治理(涵盖数据披露规则和内部AI使用政策)嵌入到开发过程的初始阶段。
“随着全球组织快速采纳AI工具,我们的目标是通过简化治理,使企业能够充分利用其AI投资,消除复杂性带来的借口,”Singh说道。
集成中心配备了与流行平台(如Jira、ServiceNow、亚马逊SageMaker和Bedrock、Salesforce、MLFlow、Asana、Databricks、微软Dynamics 365、Azure ML、Weights & Biases、Hugging Face和Collibra)的预配置连接。也可以根据需要定制额外的集成。
从一开始就具备治理能力
调查显示,负责任的AI和治理(评估合规性、伦理考量和隐私)对公司而言越来越重要。然而,目前只有少数组织有效评估这些风险。
在企业探索生成式AI的负责任实践时,简化风险评估和合规性工具的需求正在上升。Credo AI是众多致力于让负责任AI实践更易获取的公司之一。
IBM的Watsonx产品套件包括一个治理平台,用于评估模型的准确性、偏见和合规性,而Collibra则提供AI治理工具,为监控AI程序创建工作流。
尽管Credo AI检查应用程序以识别潜在品牌风险,但它主要专注于确保企业遵守现有和即将出台的自动化系统相关法规。
目前,生成式AI的法规仍然较少,尽管企业一直遵循通过机器学习和数据规则制定的数据隐私和保留政策。
Singh指出,一些地区要求提交AI治理报告,特别提到纽约市法例144,禁止在就业决策中使用自动化工具。
“合规性要求一些特定的指标,如人口均衡比率。Credo AI将这项法律转化为可行的指导,帮助您的AI操作收集必要的元数据,以履行法律义务,”Singh解释道。