Goodfire sécurise 7 millions de dollars pour améliorer l'interprétabilité des modèles d'IA
Goodfire, une startup dédiée à l'accroissement de l'observabilité des modèles d'IA générative, a réussi à lever 7 millions de dollars lors d'un financement de démarrage mené par Lightspeed Venture Partners. D'autres contributeurs incluent Menlo Ventures, South Park Commons, Work-Bench, Juniper Ventures, Mythos Ventures, Bluebirds Capital et plusieurs investisseurs providentiels éminents.
S'attaquer au Dilemme de la "Boîte Noire"
Avec la complexité croissante des modèles d'IA générative, tels que les grands modèles de langage (LLMs) qui comptent désormais des centaines de milliards de paramètres, ces derniers deviennent également plus opaques. Cette caractéristique de "boîte noire" pose d'importants défis pour les développeurs et les entreprises souhaitant déployer l'IA de manière fiable et sécurisée.
Un récent sondage de McKinsey a souligné l'ampleur du problème, 44 % des dirigeants d'entreprise rapportant des conséquences négatives dues à des comportements imprévus des modèles.
Goodfire cherche à atténuer ces défis grâce à une approche novatrice appelée "interprétabilité mécaniste", qui explore comment les modèles d'IA raisonnent et prennent des décisions à un niveau granulaire.
Affiner le Comportement des Modèles
Les outils innovants de Goodfire facilitent la compréhension et la modification du comportement des modèles d'IA. Eric Ho, PDG et co-fondateur de Goodfire, explique leur vision :
« Nos outils rendent transparente la boîte noire des modèles d'IA générative, offrant une interface lisible par l'homme qui clarifie le processus de décision derrière les résultats d'un modèle. Les développeurs peuvent accéder au fonctionnement interne du modèle et ajuster l'importance de divers concepts pour influencer ses décisions. »
Ho compare ce processus à la neurochirurgie sur des modèles d'IA, décrivant trois étapes essentielles :
1. Cartographier le Cerveau : « Tout comme les neuroscientifiques utilisent l'imagerie pour examiner le cerveau humain, nous appliquons des techniques d'interprétabilité pour identifier les composants correspondant à des tâches, concepts et résultats spécifiques. »
2. Visualiser le Comportement : « Une fois le cerveau cartographié, nous fournissons des outils permettant d'identifier les zones problématiques en simplifiant la détection des problèmes au sein des modèles. »
3. Réaliser une Chirurgie : « Armés de cette compréhension, les utilisateurs peuvent effectuer des changements précis pour améliorer les performances, comme un neurochirurgien ajustant soigneusement une région cérébrale spécifique. Ainsi, ils peuvent accroître les capacités du modèle, éliminer les problèmes et corriger les bugs. »
Ce niveau d'aperçu pourrait réduire considérablement le besoin de réentraînement coûteux ou de tâtonnements dans l'ingénierie des prompts, simplifiant ainsi le développement de l'IA.
Constitution d'une Équipe de Premier Plan
L'équipe de Goodfire est composée de spécialistes de l'interprétabilité de l'IA et de la croissance des startups :
- Eric Ho, PDG : Anciennement fondateur de RippleMatch, une startup de recrutement en IA de série B soutenue par Goldman Sachs.
- Tom McGrath, Scientifique en Chef : Anciennement scientifique senior chez DeepMind, où il a lancé l'équipe d'interprétabilité mécaniste.
- Dan Balsam, CTO : Co-fondateur de RippleMatch, supervisant la plateforme de base et les efforts en apprentissage automatique.
Nick Cammarata, expert en interprétabilité anciennement avec OpenAI, souligne l'importance de la mission de Goodfire : « Il existe une lacune cruciale entre la recherche à la pointe et les applications pratiques des méthodes d'interprétabilité. L'équipe de Goodfire est parfaitement positionnée pour combler cette lacune. »
Nnamdi Iregbulem, partenaire chez Lightspeed Venture Partners, se montre optimiste quant à l'avenir de Goodfire : « L'interprétabilité devient essentielle dans le développement de l'IA. Les outils de Goodfire agiront comme des ressources fondamentales, révolutionnant la manière dont les développeurs interagissent avec les LLM. Nous sommes ravis de soutenir Goodfire dans ce domaine vital du paysage de l'IA. »
Aspirations Futures
Goodfire prévoit d'utiliser ce financement pour élargir ses équipes d'ingénierie et de recherche tout en perfectionnant sa technologie de base. L'entreprise vise à soutenir des modèles à poids ouverts de pointe, à accroître les capacités de modification des modèles et à créer des interfaces utilisateur intuitives pour interagir avec les internes des modèles.
En tant que société à but public, Goodfire s'engage à améliorer la compréhension des systèmes d'IA avancés. En renforçant l'interprétabilité et l'éditabilité des modèles d'IA, l'entreprise aspire à promouvoir des technologies d'IA plus sûres, plus fiables et bénéfiques.
Goodfire recherche actuellement des « individus motivés par une mission, réfléchis » pour rejoindre leur équipe et contribuer à l'évolution de l'interprétabilité de l'IA.