A Stability AI apresenta atualização empolgante do modelo Stable LM 2 com 12 bilhões de parâmetros.

A Stability AI continua sua rápida trajetória de inovação com o lançamento do Stable LM 2, um modelo de 12 bilhões de parâmetros, anunciado hoje. Embora a empresa seja amplamente reconhecida por sua tecnologia de texto para imagem, o Stable Diffusion, ela abrange uma gama mais ampla de modelos de IA generativa além da geração de imagens.

O Stable LM foi apresentado em abril de 2023 como um modelo de linguagem de grande porte (LLM) para conteúdo textual, recebendo sua primeira atualização com o Stable LM 2 de 1,6 bilhão de parâmetros em janeiro. O novo Stable LM 2 12B aprimora significativamente as capacidades do Stable LM, apresentando mais parâmetros e desempenho melhorado que, segundo a empresa, supera modelos maiores como o Llama 2 70B em benchmarks específicos.

O Stable LM 2 12B conta com uma versão base e uma variante ajustada para instruções, visando aprimorar as habilidades de conversação em sete idiomas: inglês, espanhol, alemão, italiano, francês, português e holandês. Esses modelos estão disponíveis para uso comercial através de uma assinatura da Stability AI, que é o modelo de receita da empresa.

“O modelo de instrução é especificamente projetado para interagir com os usuários de maneira conversacional,” afirmou Carlos Riquelme, chefe da equipe de linguagem da Stability AI. “Além disso, investimos esforços significativos em aumentar a segurança.”

Essa atualização ocorre após a recente demissão do cofundador e CEO Emad Mostaque em meio a controvérsias de gestão, mas demonstra o impulso inabalável da empresa sob a liderança interina de Shan Shan Wong e Christian Laforte. A Stability AI busca unir desempenho e acessibilidade por meio do Stable LM 2, alegando que o modelo de 12B encontra um equilíbrio ideal entre potência, precisão e usabilidade. Com seus 12 bilhões de parâmetros, ele pode realizar tarefas que normalmente são reservadas para modelos muito maiores. Resultados de benchmark indicam que o Stable LM 2 12B se destaca notavelmente em comparação com concorrentes significativamente maiores.

É importante ressaltar que a metodologia empregada para desenvolver o modelo menor de 1,6B também foi aplicada na criação da nova versão de 12B. “Imaginamos um futuro onde os modelos funcionem não isoladamente, mas como parte de sistemas complexos, permitindo interações entre múltiplos modelos de linguagem e ferramentas de software externas,” explicou Riquelme. “O modelo de 12B foi treinado para cumprir um papel de 'mestre', conectando-se e utilizando várias funções e APIs relevantes para diferentes necessidades dos usuários.”

A Stability AI também está aprimorando o modelo de 1,6B já lançado. Riquelme destacou que, embora o modelo menor possa lidar efetivamente com tarefas específicas, o maior de 12B oferece capacidade superior. No entanto, o Stable LM 2 1,6B atualizado melhorou suas habilidades de conversação, aumentou medidas de segurança e aprimorou a compatibilidade com outras ferramentas de software.

“Ele mantém seu tamanho anterior, garantindo que permaneça rápido e leve,” observou Riquelme. “Por outro lado, o modelo de 12B é mais poderoso e confiável, mas exige maiores recursos computacionais.”

Ele enfatizou que, dependendo dos casos de uso e da disponibilidade de recursos — como tempo de resposta, memória e orçamento — cada modelo apresenta trade-offs únicos. “Acreditamos que não existe um único tamanho de modelo ideal para todos os cenários, por isso oferecemos dois modelos distintos,” concluiu.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles