Anthropic, une startup d'intelligence artificielle de premier plan, a récemment présenté sa série de modèles IA Claude 3, conçue pour répondre aux besoins variés des entreprises en mettant l'accent sur l'intelligence, la rapidité et l'efficacité économique. Cette série comprend trois modèles : Opus, Sonnet et Haiku, qui sera bientôt lancée.
En tête de la série se trouve Opus, que Anthropic considère comme surpassant tous les autres systèmes d'IA disponibles au public, même les modèles renommés d'OpenAI et Google. « Opus excelle dans un large éventail de tâches, offrant des performances exceptionnelles », a déclaré Dario Amodei, co-fondateur et PDG d'Anthropic, lors d'une interview. Il a ajouté qu'Opus surpasse des modèles tels que GPT-4, GPT-3.5 et Gemini Ultra selon divers critères, notamment GSM-8k pour le raisonnement mathématique et MMLU pour les connaissances spécialisées. « Il semble constamment dépasser la concurrence, atteignant des scores sans précédent sur de multiples tâches », a partagé Amodei.
Bien que les paramètres des modèles concurrents restent non divulgués, les résultats de benchmark rapportés par Anthropic suggèrent qu'Opus égalise ou surpasse des alternatives majeures comme GPT-4 et Gemini en termes de capacités fondamentales, établissant une nouvelle référence pour l'IA conversationnelle commercialement disponible. Conçu pour des tâches de raisonnement complexe, Opus montre une performance supérieure au sein de l'offre d'Anthropic.
Pour les entreprises recherchant des options intermédiaires, Sonnet propose une solution économique pour l'analyse de données courantes et le travail de connaissance sans compromettre la performance. En revanche, Haiku est conçu pour la rapidité et l'accessibilité, ce qui le rend idéal pour des applications destinées aux consommateurs comme les chatbots, où des réponses rapides sont essentielles. Amodei prévoit le lancement public de Haiku dans « quelques semaines, pas quelques mois ».
Chaque modèle de la nouvelle série intègre des capacités d'entrée d'image, répondant à la demande croissante pour des applications telles que la reconnaissance de texte dans les images. « Notre priorité reste sur les fonctionnalités les plus demandées par les entreprises », a expliqué Daniela Amodei, présidente d'Anthropic, mettant en avant la stratégie de l'entreprise qui privilégie les fonctionnalités pertinentes.
Les modèles Claude 3 affichent également des capacités avancées en vision par ordinateur, permettant aux entreprises d'extraire efficacement des informations à partir d'images, de documents, de graphes et de diagrammes. « Une grande partie des données clients est non structurée ou visuelle, rendant l'extraction manuelle fastidieuse », a noté Daniela, soulignant les applications potentielles dans les secteurs juridique, financier, logistique et d'assurance qualité.
L'annonce d'Anthropic intervient dans un contexte de discussions sur les biais en IA, particulièrement suite aux controverses entourant le chatbot Gemini de Google, critiqué pour avoir produit des images historiques raciales qui ne reflétaient pas la réalité. Google a temporairement désactivé les fonctionnalités de génération d'images de Gemini et a présenté des excuses, soulignant les défis permanents auxquels les entreprises technologiques font face en matière de biais dans l'IA.
Dario Amodei a reconnu le défi de naviguer à travers les biais de l'IA : « C'est une science inexacte. » Il a souligné qu'Anthropic a dédié des équipes à l'évaluation et à la réduction des risques associés à leurs modèles. « Notre hypothèse est que le développement de l'IA de pointe orientera la technologie vers des résultats sociétaux positifs », a déclaré Dario. Cependant, Daniela a insisté sur la difficulté d'atteindre une IA complètement impartiale. « Créer un outil d'IA générative parfaitement neutre est presque impossible en raison des différentes interprétations de ce que la neutralité implique », a-t-elle remarqué.
La stratégie d'Anthropic repose sur une approche appelée IA constitutionnelle, conçue pour aligner les modèles avec des principes définis dans une « constitution ». Malgré cette intention, Dario avoue que l'atteinte de la perfection en matière de réduction des biais reste insaisissable. « Nous visons une neutralité idéologique, mais nous ne l'avons pas encore perfectionnée », a-t-il déclaré. « Aucun d'entre nous ne l'a. »
En fin de compte, Dario a affirmé que l'engagement d'Anthropic envers des valeurs largement acceptées vise à empêcher les modèles de pencher vers des agendas partisans, contrastant leur approche avec les récentes critiques à l'égard de Gemini. « Notre objectif est de créer des modèles qui servent un public divers sans promouvoir de point de vue politique spécifique », a-t-il conclu.