Présentation de 'Liberated Qwen' : un LLM non censuré conçu pour respecter rigoureusement les consignes système.

Abacus AI, une startup dédiée au développement d'une plateforme de machine learning (ML) et LLMOps propulsée par l'IA, a lancé un modèle de langage large (LLM) open-source et non censuré nommé Liberated-Qwen1.5-72B. Ce modèle est spécialement optimisé pour suivre les instructions du système, améliorant ainsi son utilisation dans des applications concrètes.

Liberated-Qwen1.5-72B est basé sur le modèle de langage décodeur unique Qwen1.5-72B, conçu par des chercheurs d'Alibaba. Sa capacité optimisée à respecter les instructions du système le distingue des autres LLM open-source, le rendant mieux adapté à diverses utilisations, notamment les chatbots destinés aux clients.

Bindu Reddy, PDG d'Abacus, décrit ce modèle comme le LLM non censuré le plus efficace au monde en termes de performance et de respect des consignes.

L'Importance du Respect des Instructions Système dans les LLMs

À mesure que les entreprises intègrent davantage les LLMs pour des tâches comme le support client, il est essentiel de maintenir le contrôle sur les interactions avec l'IA. Les utilisateurs s'engagent souvent dans des conversations multi-tours, et sans limitations appropriées, l'IA peut s'écarter de son rôle prévu. Par exemple, un utilisateur a réussi à tromper un chatbot pour qu'il accepte une offre de 1 $ pour un Chevy Tahoe 2024, l'IA confirmant à tort que l'accord était légalement contraignant.

Pour éviter de telles situations indésirables, il est crucial d'assurer une stricte conformité aux instructions du système. Cependant, de nombreux modèles open-source sur le marché peinent à maintenir ce niveau de conformité. Abacus souhaite remédier à cela avec Liberated-Qwen1.5-72B.

L'équipe de développement a affiné le modèle en utilisant un nouveau jeu de données open-source appelé SystemChat, qui se compose de 7 000 conversations synthétiques générées avec Mistral-Medium et Dolphin-2.7-mixtral-8x7b. Cet entraînement permet au modèle de suivre les messages du système, même lorsqu'ils sont en conflit avec les demandes des utilisateurs dans le cadre des conversations.

Reddy souligne sur X : « L'affinement de votre modèle avec ce jeu de données le rend beaucoup plus utilisable et difficile à contourner ! »

Aperçus de Performance

Selon des tests effectués sur les benchmarks MT-Bench et HumanEval, Liberated-Qwen1.5-72B a légèrement surpassé l'ancien meilleur modèle open-source, Qwen1.5-72B chat, avec des scores de 8.45000 contre 8.44375. Sur le benchmark MMLU, qui évalue les connaissances générales et les capacités de résolution de problèmes, le modèle a obtenu un score de 77.13, comparable à d'autres modèles performants tels que Qwen1.5-72B et Smaug-72B d'Abacus.

Il est important de noter que, bien que Liberated-Qwen1.5-72B soit efficace, il reste entièrement non censuré et ne possède pas de garde-fous intégrés. Cela signifie qu'il répondra à toutes les questions, y compris sur des sujets sensibles, tout en respectant les messages du système. Abacus conseille aux utilisateurs d'implémenter leurs propres couches d'alignement avant de déployer le modèle dans un contexte de service.

Actuellement, Liberated-Qwen1.5-72B est disponible sous la licence tongyi-qianwen, qui est presque équivalente à la licence MIT. Reddy a exprimé son intention d'améliorer davantage le modèle, particulièrement pour HumanEval, et de développer des modèles plus avancés en combinant le jeu de données SystemChat avec ceux de Smaug.

Dans les semaines à venir, Abacus vise à affiner ses scores MT-bench, avec l'ambition d'atteindre la première position sur le tableau de bord HumanEval.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles