Alors que Llama 3 de Meta connaît une popularité fulgurante en tant que l'un des modèles de langage (LLM) les plus utilisés, OpenAI, pionnier de l'IA générative, renforce son avantage concurrentiel en lançant de nouvelles fonctionnalités de niveau entreprise pour son LLM GPT-4 Turbo et d'autres modèles.
OpenAI a annoncé l'expansion de ses fonctionnalités axées sur les entreprises pour ses clients d'API, enrichissant son Assistants API et introduisant de nouveaux outils qui améliorent la sécurité, le contrôle administratif et la gestion des coûts.
Olivier Godement, Responsable Produit de l'API chez OpenAI, a déclaré lors d'une récente interview : « En discutant avec les développeurs et les entreprises sur le travail significatif pour les modèles d'IA, OpenAI a toujours une longueur d'avance. Nous accueillons toujours la concurrence — elle stimule l'amélioration pour tous. »
Lien Privé et Fonctionnalités de Sécurité Améliorées
Une amélioration clé en matière de sécurité est l'introduction du Lien Privé, qui facilite la communication sécurisée entre le service cloud Azure de Microsoft et OpenAI, réduisant l'exposition des données clients à Internet durant les requêtes API. Le cadre de sécurité d'OpenAI inclut également une certification SOC 2 Type II, un accès SSO, un chiffrement AES-256 des données au repos, un chiffrement TLS 1.2 en transit et des contrôles d'accès basés sur les rôles. De plus, OpenAI a mis en place une authentification multi-facteurs (MFA) native pour renforcer les contrôles d'accès face à des exigences de conformité accrues.
Pour les organisations de santé nécessitant une conformité HIPAA, OpenAI propose des accords d'associé commercial accompagnés d'une politique de non-conservation des données pour les clients API qualifiés.
Assistants API Amélioré pour une Gestion de Fichiers Optimisée
Parmi les offres significatives d'OpenAI figure son Assistants API, désormais amélioré pour renforcer les capacités de récupération de fichiers grâce à la nouvelle fonctionnalité 'file_search', capable de gérer jusqu'à 10 000 fichiers par assistant, soit une augmentation de 500 fois par rapport à la limite précédente de seulement 20 fichiers. Cette mise à jour comprend des fonctionnalités telles que des requêtes parallèles, un réajustement amélioré et une réécriture de requêtes.
OpenAI a également introduit des capacités de streaming pour des réponses conversationnelles en temps réel, permettant à des modèles tels que GPT-4 Turbo de produire des résultats au fur et à mesure que les tokens sont créés, plutôt que d'attendre des réponses complètes. L'API inclut maintenant de nouveaux objets 'vector_store' pour une meilleure gestion des fichiers et offre un contrôle détaillé sur l'utilisation des tokens, facilitant ainsi la gestion des coûts.
Fonctionnalité Projets pour un Contrôle d'Accès Personnalisé
La nouvelle fonctionnalité Projets permet aux organisations de gérer les rôles et les clés API au niveau des projets. Cela permet aux clients entreprises de définir les autorisations, de contrôler la disponibilité des modèles et d'établir des limites d'utilisation pour éviter des coûts inattendus, simplifiant ainsi la gestion des projets.
Par exemple, différentes équipes au sein d'une entreprise peuvent travailler avec des modèles d'IA spécifiques sur des projets distincts sans risque de mélange de données. Miqdad Jaffer d'OpenAI a expliqué : « Les Projets vous permettent de séquestrer vos ressources et membres dans des projets individualisés, offrant des rapports distincts et un meilleur contrôle sur l'accès, la sécurité et les coûts. »
Fonctionnalités de Gestion des Coûts pour des Opérations IA Évolutives
OpenAI introduit également de nouvelles fonctionnalités de gestion des coûts pour aider les organisations à évoluer efficacement leurs opérations IA. Celles-ci incluent des tarifs réduits pour l'utilisation constante de tokens et une réduction de 50 % pour les charges de travail asynchrones via la nouvelle API Batch, qui promet des temps de réponse plus rapides et de limites plus élevées.
Pour utiliser l'API Batch, les clients doivent soumettre leurs tokens dans une seule demande, avec des résultats généralement livrés dans les 24 heures, bien qu'OpenAI affirme que les réponses peuvent être aussi rapides que 10-20 minutes pour ceux qui ne nécessitent pas de retour immédiat.
Alors qu'OpenAI continue de renforcer ses offres en mettant l'accent sur la sécurité de niveau entreprise, le contrôle administratif et la gestion des coûts, ces mises à jour visent à offrir une expérience plus fluide pour les entreprises, répondant directement à la montée de Llama 3 et des modèles ouverts de concurrents comme Mistral, qui peuvent nécessiter des efforts d'installation supplémentaires pour les entreprises.