Mistral Lança Novas Ferramentas de Ajuste Fino para Personalização Rápida e Fácil de Seus Modelos de IA

O ajuste fino é essencial para melhorar as saídas de modelos de linguagem de grande porte (LLM) e alinhá-las às necessidades específicas das empresas. Quando feito corretamente, esse processo gera respostas mais precisas e valiosas, permitindo que as organizações maximizem suas aplicações de IA generativa. No entanto, o ajuste fino pode ser caro, criando barreiras para algumas empresas que desejam se beneficiar dessas capacidades avançadas.

A Mistral, fornecedora de modelos de IA open-source que está rapidamente se aproximando de uma avaliação de $6 bilhões apenas 14 meses após seu lançamento, está entrando na arena do ajuste fino. Sua nova plataforma para desenvolvedores de IA, La Plateforme, introduz ferramentas de personalização aprimoradas que visam simplificar os processos de ajuste fino, reduzir os custos de treinamento e diminuir as barreiras de entrada.

Com um nome que reflete um vento forte no sul da França, a Mistral está fazendo ondas no cenário de IA, inovando continuamente e atraindo financiamento significativo. A empresa destaca em um post recente em seu blog que o ajuste fino de modelos menores para domínios específicos pode melhorar o desempenho, minimizando os custos de implementação e acelerando a velocidade de aplicação.

Personalizando Modelos Mistral para Maior Customização

A Mistral se estabeleceu ao lançar LLMs robustos sob licenças open-source, permitindo adaptações gratuitas. Também oferece serviços pagos, incluindo uma API e a plataforma para desenvolvedores La Plateforme, permitindo que os usuários construam aplicações utilizando modelos Mistral sem a necessidade de configurações extensas de servidores; eles podem fazer chamadas à API para aproveitar as capacidades da Mistral.

Agora, os clientes podem personalizar modelos Mistral na La Plateforme, utilizar código open-source da Mistral no GitHub ou acessar serviços de treinamento personalizado. Para desenvolvedores que desejam trabalhar de forma independente em sua infraestrutura, a Mistral lançou uma base de código leve, chamada mistral-finetune, que emprega o paradigma LoRA para minimizar o número de parâmetros treináveis. A Mistral afirma: “Com o mistral-finetune, você pode ajustar todos os nossos modelos open-source em sua infraestrutura sem sacrificar desempenho ou eficiência de memória.”

Para aqueles interessados em ajuste fino sem servidor, a Mistral oferece novos serviços que aproveitam técnicas de pesquisa e desenvolvimento aprimoradas. Adaptadores LoRA ajudam a preservar o conhecimento fundamental dos modelos, enquanto possibilitam implantações eficientes. A Mistral descreve isso como um avanço significativo na democratização de métodos científicos sofisticados para desenvolvedores de aplicações de IA, permitindo uma customização rápida e econômica dos modelos.

Os serviços de ajuste fino são compatíveis com o modelo de 7,3 bilhões de parâmetros, Mistral 7B, e o Mistral Small. Os usuários atuais podem utilizar a API da Mistral para personalização imediata, com planos de introduzir mais modelos para ajustes nas próximas semanas. Além disso, os serviços de treinamento personalizado da Mistral otimizam modelos de IA para aplicações específicas utilizando dados proprietários, frequentemente empregando técnicas de ponta, como pré-treinamento contínuo, para incorporar conhecimento especializado. Essa abordagem facilita o desenvolvimento de modelos altamente especializados e eficientes, adaptados a domínios particulares.

Para celebrar essas novas ofertas, a Mistral lançou um hackathon de ajuste fino de IA que vai até 30 de junho, incentivando desenvolvedores a experimentar a API inovadora de ajuste fino da startup.

Crescimento e Inovação Sem Precedentes da Mistral

Desde sua criação em abril de 2023 por ex-funcionários do Google DeepMind e da Meta, Arthur Mensch, Guillaume Lample e Timothée Lacroix, a Mistral experimentou um crescimento rápido. A empresa garantiu uma rodada de seed recorde de $118 milhões— a maior da história da Europa— e rapidamente formou parcerias com grandes players como a IBM. Em fevereiro, o Mistral Large foi disponibilizado por meio de uma colaboração com a Microsoft na nuvem Azure.

Recentemente, a SAP e a Cisco revelaram seu apoio à Mistral, e no mês passado, a empresa lançou o Codestral, seu primeiro LLM centrado em código, afirmando que supera todos os concorrentes. A Mistral também está se aproximando de uma substancial rodada de financiamento de $600 milhões, que elevaria sua avaliação para $6 bilhões.

Posicionada como uma concorrente direta da OpenAI e do Llama 3 da Meta, o Mistral Large é reconhecido como o segundo modelo de linguagem comercial mais capaz do mundo, atrás apenas do GPT-4 da OpenAI. O Mistral 7B, apresentado em setembro de 2023, afirma superar o Llama em diversos benchmarks e igualar o desempenho do CodeLlama 7B em tarefas de codificação.

Quais inovações a Mistral revelará a seguir? Descobriremos em breve.

Most people like

Find AI tools in YBX