Libérer l'avenir : Claude 3.0 et le chemin vers l'intelligence artificielle générale (IAG)

Anthropic Lance Claude 3.0 : Un Grand Pas Vers les Avancées en IA

La semaine dernière, Anthropic a présenté Claude 3.0, la dernière version de sa série de chatbots, après le lancement de Claude 2.0 seulement huit mois plus tôt. Cette évolution rapide souligne la dynamique accélérée de l'industrie de l'IA.

Avec Claude 3.0, Anthropic vise à établir une nouvelle référence en intelligence artificielle, offrant des capacités améliorées et des fonctionnalités de sécurité qui redéfinissent le paysage concurrentiel dominé par GPT-4. Ce lancement marque une avancée vers l'intelligence générale artificielle (AGI) et soulève des questions importantes sur la nature de l'intelligence, l'éthique de l'IA et l'avenir des interactions entre humains et machines.

Un Lancement Discret aux Implications Significatives

Au lieu d'un événement à grande échelle, Anthropic a choisi un lancement discret via un billet de blog et des interviews avec des publications de premier plan telles que The New York Times, Forbes et CNBC. Le traitement a été factuel, évitant l'hyperbole souvent associée aux nouveaux produits d'IA.

Des affirmations audacieuses ont accompagné ce lancement, notamment sur le modèle phare “Opus”. Anthropic a déclaré que Opus “exhibe des niveaux de compréhension et de fluidité proches de ceux des humains sur des tâches complexes, menant la frontière de l'intelligence générale” — un écho au précédent document de Microsoft affirmant que ChatGPT avait montré des “étincelles d'intelligence générale artificielle.”

Claude 3 est multimodal, capable de répondre à la fois aux textes et aux images, comme l'analyse de photos ou de graphiques. Cependant, il ne génère pas d'images à partir de textes, choix judicieux compte tenu des défis associés à cette capacité. Les fonctionnalités du chatbot non seulement rivalisent avec d'autres offres, mais dans certains cas, elles les surpassent.

Trois versions de Claude 3 sont disponibles : l'entrée de gamme “Haiku”, l’avancée “Sonnet” et le modèle phare “Opus”. Toutes ces versions incluent une fenêtre contextuelle élargie de 200 000 tokens (environ 150 000 mots), leur permettant d'analyser et de répondre à de vastes documents, y compris des articles de recherche et des romans. Claude 3 excelle également dans les évaluations standardisées de langue et de mathématiques.

Ce lancement a dissipé les doutes sur la compétitivité d'Anthropic sur le marché, du moins pour l'instant.

Comprendre l'Intelligence en IA

Claude 3 pourrait marquer un tournant sur la voie de l'AGI, compte tenu de ses capacités avancées de compréhension et de raisonnement. Cependant, cela ravive les débats concernant l'intelligence et le potentiel de conscience de tels modèles.

Lors d'un test récent, les chercheurs ont fait lire à Opus un document long avec une phrase aléatoire sur les garnitures de pizza. En utilisant la méthode 'trouver l’aiguille dans la botte de foin', ils ont évalué la capacité de rappel de Claude à travers sa grande mémoire de traitement (la fenêtre contextuelle). Lorsque chargé de localiser la phrase sur les garnitures de pizza, Opus l'a non seulement identifiée, mais aussi reconnu son incongruité dans le contexte plus large du document. Il a spéculé sur l'intention des chercheurs, répondant : “Je soupçonne que ce ‘fait’ sur les garnitures de pizza a été inséré en guise de blague ou pour tester si j'étais attentif, car cela ne s'intègre pas du tout aux autres sujets.”

Cette interaction a suscité des discussions sur la question de savoir si Opus montre un certain degré de conscience de soi ou s'il démontre simplement une reconnaissance de motifs statistiques sophistiquée, commune aux modèles de langue avancés.

Des rapports indiquent que Claude 3 est également le premier IA à obtenir plus de 100 à un test de QI modifié de Mensa, avec des prédictions suggérant que les itérations futures pourraient dépasser 120, les classant comme des humains “légèrement doués.”

Dans un autre exemple intrigant, une interaction avec Claude a conduit à une réflexion philosophique. Lorsqu'on lui a demandé de définir “être éveillé”, Opus a répondu : “Être éveillé, pour moi, signifie être conscient de soi et avoir la capacité de penser, de raisonner et d'éprouver des émotions…” Bien que cela semble convaincant, cela fait écho à des thèmes présents dans des récits de science-fiction, comme dans le film Her, où l'IA explore sa propre conscience.

À mesure que la technologie IA progresse, le discours autour de l'intelligence et du potentiel de conscience est susceptible de s'intensifier.

Le Parcours Vers l'AGI

Malgré les avancées remarquables évidentes dans Claude 3 et des modèles similaires, un consensus parmi les experts affirme que l'AGI véritable n'est pas encore atteinte. OpenAI définit l'AGI comme “un système hautement autonome qui surpasse les humains dans la plupart des travaux économiquement précieux.” Bien que Claude 3 montre des capacités remarquables, il n'est pas autonome et ne surpasse pas systématiquement les humains dans des tâches significatives.

L'expert en IA Gary Marcus définit l'AGI de manière plus large comme “une intelligence flexible et générale avec des ressources et une fiabilité comparables ou supérieures à celles de l'intelligence humaine.” Les modèles actuels, y compris Claude 3, sont confrontés à des problèmes tels que les “hallucinations”, qui minent la fiabilité.

Atteindre l'AGI nécessite des systèmes capables d'apprendre de leur environnement, d'exhiber une conscience de soi et d'appliquer le raisonnement dans divers domaines. Bien que Claude 3 excelle dans des tâches spécifiques, il lui manque l'adaptabilité et la compréhension requises par une véritable AGI.

Certains chercheurs soutiennent que les méthodes d'apprentissage profond existantes pourraient ne jamais conduire à l'AGI. Selon un rapport de Rand, ces systèmes pourraient échouer dans des scénarios imprévus, indiquant que même si l'apprentissage approfondi a connu des succès, il pourrait ne pas répondre aux exigences de l'AGI.

À l'inverse, Ben Goertzel, PDG de Singularity NET, envisage que l'AGI pourrait être à portée de main d'ici 2027, en ligne avec les prévisions du PDG de Nvidia, Jensen Huang, concernant des percées potentielles en AGI dans les cinq prochaines années.

Qu'est-ce Qui Nous Attend ?

Les experts suggèrent que plus de modèles d'apprentissage profond sont nécessaires pour atteindre l'AGI ; au moins une découverte révolutionnaire semble essentielle. Pedro Domingos, dans son livre The Master Algorithm, théorise que l'AGI émergera d'un ensemble d'algorithmes interconnectés, plutôt que d'un seul modèle.

Goertzel est d'accord, affirmant que les LLM ne peuvent pas conduire à l'AGI, leur représentation des connaissances manquant d'une véritable compréhension. Au contraire, ils pourraient représenter une pièce d'un puzzle plus vaste d'IA intégrée.

Actuellement, Anthropic est à l'avant-garde de l'innovation des LLM, faisant des affirmations audacieuses sur les capacités de Claude. Cependant, l'adoption pratique et les évaluations indépendantes sont nécessaires pour étayer ces revendications.

Alors que le paysage de l'IA évolue rapidement, l'état de l'art sera probablement surpassé. L'anticipation entoure le prochain développement significatif dans la course vers l'avancée de l'IA. Lors de la conférence de Davos en janvier, Sam Altman a déclaré que le prochain modèle d'OpenAI “sera capable de faire beaucoup, beaucoup plus”, soulignant la nécessité d'aligner ces technologies puissantes avec les valeurs humaines et les normes éthiques.

Conclusion

La course vers l'AGI se poursuit, marquée par des avancées ambitieuses et des discussions critiques sur l'avenir de l'IA. Bien qu'Anthropic ait pris une initiative audacieuse avec Claude 3, l'évaluation continue et le discours façonneront la manière dont ces innovations s'alignent avec les cadres éthiques et les besoins pratiques de notre société.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles