La empresa de gobernanza de IA Credo AI ha lanzado una nueva plataforma diseñada para mejorar la visibilidad y el cumplimiento de las políticas de IA responsable, integrándose con herramientas de operaciones y negocios de terceros.
El recién disponible Credo AI Integrations Hub permite a los clientes empresariales conectar plataformas de desarrollo de IA generativa, como Amazon SageMaker, MLFlow y Microsoft Dynamics 365, a una plataforma de gobernanza centralizada. Además, plataformas comúnmente utilizadas para implementar estas aplicaciones—como Asana, ServiceNow y Jira—también pueden integrarse en el Hub.
La idea detrás del Integrations Hub es agilizar la conexión entre las aplicaciones de IA y la plataforma de gobernanza de Credo AI. Las empresas ya no necesitarán cargar documentación para validar estándares de seguridad; en su lugar, el Hub recopila automáticamente los metadatos relevantes que contienen estas métricas.
Según Navrina Singh, fundadora y CEO de Credo AI, el Integrations Hub fue cuidadosamente diseñado para incorporar la gobernanza de IA—cubriendo las reglas de divulgación de datos y las políticas internas de uso de IA—en las primeras etapas del proceso de desarrollo.
“A medida que las organizaciones globales se adaptan a la rápida adopción de herramientas de IA, nuestro objetivo es ayudarles a maximizar sus inversiones en IA simplificando la gobernanza y eliminando excusas sobre su complejidad,” declaró Singh.
El Integrations Hub presenta conexiones preconfiguradas con plataformas populares como Jira, ServiceNow, SageMaker y Bedrock de Amazon, Salesforce, MLFlow, Asana, Databricks, Microsoft Dynamics 365, Azure Machine Learning, Weights & Biases, Hugging Face y Collibra. También se pueden desarrollar integraciones personalizadas por un costo adicional.
Gobernanza desde el Inicio
Los estudios indican que la IA responsable y la gobernanza—que evalúa el cumplimiento de regulaciones, consideraciones éticas y privacidad—son cada vez más críticas para las empresas. Sin embargo, pocas organizaciones evalúan estos riesgos de manera efectiva.
A medida que las empresas navegan por prácticas responsables en la IA generativa, las herramientas que simplifican la evaluación de riesgos y el cumplimiento están ganando terreno. Credo AI es una de las varias empresas que se esfuerzan por hacer que las prácticas de IA responsable sean más accesibles.
La suite de productos Watsonx de IBM incluye una plataforma de gobernanza para evaluar modelos en cuanto a precisión, sesgo y cumplimiento, mientras que Collibra ofrece herramientas de gobernanza de IA que crean flujos de trabajo para monitorear programas de IA.
Mientras Credo AI verifica aplicaciones para posibles riesgos de marca, se centra principalmente en asegurar que las organizaciones cumplan con regulaciones existentes y futuras sobre sistemas automatizados. Actualmente, las regulaciones sobre IA generativa son escasas, aunque las empresas han estado cumpliendo con las políticas de privacidad de datos y retención establecidas a través de las reglas de aprendizaje automático y datos.
Singh destacó que algunas regiones requieren informes sobre gobernanza de IA, citando la Ley 144 de la ciudad de Nueva York, que prohíbe herramientas automatizadas en decisiones de empleo.
“Métricas específicas como el coeficiente de paridad demográfica son requeridas para el cumplimiento. Credo AI traduce esta ley en conocimientos prácticos para tus operaciones de IA, permitiéndonos recoger los metadatos necesarios para cumplir con las obligaciones legales,” explicó Singh.