Desvendando os Mitos sobre Modelos de Linguagem de Grande Escala: Compreendendo Suas Capacidades e Limitações

Em 2023, o ChatGPT desencadeou uma revolução tecnológica, avançando rapidamente de simples agentes de IA interativa para indexação de documentos, conexão com fontes de dados e realização de análise de dados com apenas uma frase. Apesar das inúmeras promessas em torno dos modelos de linguagem de grande escala (LLMs), poucos se concretizaram devido a:

- Estamos construindo agentes de IA, não LLMs.

- O foco está mais na pesquisa do que na engenharia.

- Há uma sobrecarga de dados ruins.

Este artigo explora o papel dos agentes de IA na integração de LLMs com sistemas de backend, o potencial dos agentes de IA como a próxima geração de interface e experiência do usuário (UI/UX), e a necessidade de reintroduzir princípios fundamentais de engenharia de software frequentemente negligenciados atualmente.

Quero uma Pizza em 20 Minutos

Os LLMs oferecem uma UI/UX mais intuitiva e simplificada do que as interfaces tradicionais de clicar e escolher. Considere, por exemplo, o pedido de uma “pizza margherita gourmet entregue em 20 minutos” por meio de um aplicativo de entrega.

Em uma UI/UX convencional, atender a esse pedido aparentemente simples poderia envolver numerosas etapas complexas e levar vários minutos. Você precisaria:

- Selecionar a categoria “Pizza”.

- Navegar por listas de restaurantes e fotos.

- Verificar os menus em busca da pizza margherita.

- Confirmar a velocidade de entrega.

- Regressar se algum critério não for atendido.

Precisamos de Mais do que LLMs

Embora LLMs como o GPT-3 se destaquem em processamento de linguagem natural (NLP) e na geração de respostas coerentes e contextualmente relevantes, suas capacidades se expandem significativamente quando integradas a fontes de dados externas, algoritmos e interfaces especializadas. Essa integração possibilita tarefas que os LLMs isoladamente não conseguem gerenciar.

Um pedido de pizza, por exemplo, exige conexões com vários sistemas—bancos de dados de restaurantes, gestão de estoque, rastreamento de entregas e mais. Para proporcionar uma experiência sem costuras para diferentes solicitações, mais integrações são essenciais. Apenas os LLMs não conseguem gerenciar essa complexidade.

Agentes de IA

Os LLMs formam a espinha dorsal dos agentes de IA. Para lidar com diversas consultas, os agentes de IA utilizam um LLM juntamente com vários componentes auxiliares críticos:

- Núcleo do Agente: Orquestra as funcionalidades gerais usando o LLM.

- Módulo de Memória: Facilita a tomada de decisões contextualizadas.

- Planejador: Determina o curso de ação do agente com base nas ferramentas disponíveis.

- Ferramentas e Recursos: Apoiam domínios específicos, permitindo processamento de dados, raciocínio e geração de respostas efetivas. Isso inclui fontes de dados, algoritmos e visualizações.

Este artigo fornece uma visão abrangente dos agentes de IA e seus componentes.

Integração de Agentes de IA Baseados em LLM: Um Desafio de Engenharia

A linguagem natural simplifica as especificações de casos no desenvolvimento de software, mas sua ambiguidade inerente pode levar a sistemas mal definidos.

O livro seminal de Fred Brooks, The Mythical Man-Month, de 1975, descreve princípios essenciais de engenharia de software que foram negligenciados na fase LLM, incluindo:

- Nenhuma Bala de Prata: Nenhum desenvolvimento isolado pode substituir práticas sólidas de engenharia de software, incluindo o uso de LLMs.

- Documentação Manual e Formal: Em uma era de exageros, a documentação é fundamental. Pedir simplesmente um sistema que “peça uma pizza margherita gourmet em 20 minutos” é insuficiente. Uma documentação abrangente é essencial para diversos casos de uso, requisitos de backend, novas visualizações e, crucialmente, as limitações do sistema. A frase vaga “coisas como” se tornou comum no desenvolvimento de LLM, ignorando a complexidade das conexões do sistema e a visualização de dados.

(Explore mais dos princípios de Brooks no blog da Zscaler.)

Nosso recente artigo aborda a ausência de especificações adequadas para sistemas de software, oferecendo um framework para criar especificações formais para sistemas inteligentes baseados em LLM, alinhados com princípios sólidos de engenharia de software.

O Desafio dos Dados Ruins

Para que os agentes de IA baseados em LLM funcionem efetivamente, a organização formal de dados e as metodologias de escrita são críticas. Sistemas LLM prosperam em documentação de alta qualidade. A OpenAI enfatizou que treinar modelos de IA é “impossível” sem utilizar textos protegidos por direitos autorais; assim, a necessidade de grandes volumes de textos bem escritos é essencial.

Essa necessidade aumenta com tecnologias baseadas em RAG, onde fragmentos de documentos são indexados em bancos de dados vetoriais. Quando um usuário faz uma pergunta, os documentos de melhor classificação são retornados a um LLM gerador para formular uma resposta coerente.

Conclusão

Apesar das inúmeras promessas em torno dos LLMs, muito poucas estão se concretizando. Para transformar essas promessas em realidade, precisamos reconhecer que estamos desenvolvendo sistemas complexos de engenharia de software, não meros protótipos.

O design de sistemas inteligentes baseados em LLM introduz complexidade significativa. Protocolos adequados de especificação e teste devem ser estabelecidos, e os dados devem ser considerados um componente central, visto que esses sistemas são especialmente sensíveis a dados de baixa qualidade.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles