La société de gouvernance de l'IA, Credo AI, a lancé une nouvelle plateforme visant à améliorer la visibilité et la conformité des politiques d'IA responsable en s'intégrant aux outils d'opérations IA et aux outils métiers tiers.
Le tout nouvel Intégrations Hub de Credo AI permet aux clients d'entreprise de connecter des plateformes de développement d'IA générative, telles qu'Amazon SageMaker, MLFlow et Microsoft Dynamics 365, à une plateforme de gouvernance centralisée. De plus, des plateformes couramment utilisées pour déployer ces applications—comme Asana, ServiceNow et Jira—peuvent également être intégrées au Hub.
L'objectif de l’Intégrations Hub est de faciliter la connexion entre les applications d'IA et la plateforme de gouvernance de Credo AI. Les entreprises n'ont plus besoin de télécharger de la documentation pour valider les normes de sécurité ; le Hub rassemble automatiquement les métadonnées pertinentes contenant ces mesures.
Selon Navrina Singh, fondatrice et PDG de Credo AI, l’Intégrations Hub a été soigneusement conçu pour intégrer la gouvernance de l'IA—y compris les règles de divulgation des données et les politiques d'utilisation interne de l'IA—dès les premières étapes du processus de développement.
« Alors que les organisations mondiales s'adaptent à l'adoption rapide des outils d'IA, notre objectif est de les aider à maximiser leurs investissements en IA en simplifiant la gouvernance et en éliminant les prétextes relatifs à sa complexité », a déclaré Singh.
L’Intégrations Hub propose des connexions préconfigurées avec des plateformes populaires telles que Jira, ServiceNow, SageMaker et Bedrock d'Amazon, Salesforce, MLFlow, Asana, Databricks, Microsoft Dynamics 365, Azure Machine Learning, Weights & Biases, Hugging Face et Collibra. Des intégrations personnalisées peuvent également être développées moyennant des frais supplémentaires.
Gouvernance dès le Début
Des enquêtes montrent que l'IA responsable et la gouvernance—évaluant la conformité aux réglementations, les considérations éthiques et la vie privée—deviennent de plus en plus cruciales pour les entreprises. Cependant, peu d'organisations évaluent actuellement ces risques efficacement.
Alors que les entreprises explorent des pratiques responsables en matière d'IA générative, les outils qui simplifient l'évaluation des risques et la conformité gagnent en popularité. Credo AI est l'une des nombreuses entreprises qui s'efforcent de rendre les pratiques d'IA responsable plus accessibles.
La suite de produits Watsonx d’IBM inclut une plateforme de gouvernance pour évaluer les modèles quant à leur précision, leur biais et leur conformité, tandis que Collibra propose des outils de gouvernance de l'IA qui créent des workflows pour surveiller les programmes d'IA.
Bien que Credo AI vérifie les applications pour des risques potentiels pour la marque, son focus principal est d'assurer que les organisations respectent les réglementations existantes et futures sur les systèmes automatisés.
Actuellement, les réglementations concernant l'IA générative sont rares, bien que les entreprises respectent des politiques de confidentialité des données et de conservation établies par le biais de l'apprentissage automatique et des règles de données.
Singh a noté que certaines régions exigent des rapports sur la gouvernance de l'IA, mettant en avant la loi 144 de New York, qui interdit les outils automatisés dans les décisions d'embauche.
« Des métriques spécifiques, comme le ratio de parité démographique, sont nécessaires pour être en conformité. Credo AI traduit cette loi en informations exploitables pour vos opérations IA, nous permettant de collecter les métadonnées nécessaires pour remplir les obligations légales », a expliqué Singh.