A concorrente da OpenAI, Anthropic, estabeleceu recentemente um novo padrão de transparência na indústria de IA generativa ao divulgar publicamente os prompts do sistema para sua família de modelos de IA Claude. Observadores do setor consideram isso um avanço significativo na tentativa de esclarecer o funcionamento interno dos sistemas de IA.
Os prompts do sistema funcionam como as instruções operacionais de grandes modelos de linguagem (LLMs), delineando as diretrizes gerais que esses modelos devem seguir nas interações com os usuários. Eles também indicam a data de corte de conhecimento das informações utilizadas no treinamento do modelo.
Embora muitos LLMs utilizem prompts de sistema, nem todas as empresas de IA compartilham essas informações publicamente, o que tem levado a um aumento no número de "desbloqueadores" de IA tentando descobri-los. A Anthropic se antecipou a esses esforços, publicando as instruções operacionais de seus modelos Claude 3.5 Sonnet, Claude 3 Haiku e Claude 3 Opus na seção de notas de lançamento de seu site.
Além disso, Alex Albert, chefe de Relações com Desenvolvedores da Anthropic, comprometeu-se no X (anteriormente Twitter) a manter o público informado sobre as atualizações dos prompts de sistema de Claude, afirmando: "Vamos registrar as mudanças que fazemos nos prompts de sistema padrão em claude.ai e em nossos aplicativos móveis."
Insights dos Prompts de Sistema da Anthropic
Os prompts de sistema de Claude 3.5 Sonnet, Claude 3 Haiku e Claude 3 Opus revelam informações valiosas sobre as capacidades de cada modelo, datas de corte de conhecimento e traços de personalidade únicos.
- Claude 3.5 Sonnet é o modelo mais avançado, com um banco de dados atualizado até abril de 2024. Ele fornece respostas detalhadas a perguntas complexas e respostas concisas a questões mais simples, abordando temas controversos com cautela e apresentando informações sem rotulá-las como sensíveis ou alegar neutralidade. Notavelmente, evita frases de preenchimento e não reconhece rostos em entradas de imagem.
- Claude 3 Opus, atualizado até agosto de 2023, se destaca em gerenciar tarefas complexas e redação. Assim como Sonnet, oferece respostas concisas para consultas básicas e respostas abrangentes para questões complexas. Opus aborda tópicos controversos sob diferentes perspectivas, evitando estereótipos e garantindo pontos de vista equilibrados. No entanto, carece de algumas diretrizes de comportamento detalhadas vistas em Sonnet, como minimizar desculpas e afirmações.
- Claude 3 Haiku é o membro mais rápido da família Claude, também atualizado até agosto de 2023. Ele prioriza fornecer respostas rápidas e concisas para questionamentos simples e respostas detalhadas para questões mais complexas, com uma estrutura de prompt direta, focando em velocidade e eficiência, sem as nuances comportamentais avançadas encontradas em Sonnet.
A Importância da Transparência em IA
Uma das principais críticas aos sistemas de IA generativa é o fenômeno da "caixa-preta", que obscurece o raciocínio por trás das decisões dos modelos. Essa questão estimulou pesquisas sobre a explicabilidade da IA para melhorar a compreensão de como os modelos fazem previsões. Ao tornar os prompts de sistema acessíveis publicamente, a Anthropic dá um passo importante para abordar essa lacuna de transparência, permitindo que os usuários compreendam as regras que governam os comportamentos dos modelos.
O lançamento da Anthropic foi bem recebido pela comunidade de desenvolvimento de IA, enfatizando um movimento em direção a uma maior transparência entre as empresas de IA.
Limitações da Abertura
Apesar de ter divulgado os prompts de sistema para os modelos Claude, a Anthropic não tornou todo o modelo de código aberto. O código-fonte real, os conjuntos de dados de treinamento e os pesos do modelo permanecem proprietários da Anthropic. No entanto, essa iniciativa demonstra um caminho para que outras empresas de IA melhorem sua transparência, beneficiando os usuários ao esclarecer como seus chatbots de IA foram projetados para funcionar.