Às 10h30, horário do Pacífico, na segunda-feira, 13 de maio de 2024, a OpenAI apresentou seu mais novo modelo de fundo de IA, o GPT-4o, que destaca sua notável capacidade de interagir em conversas naturais por meio de comandos de áudio. Este sistema multimodal também processa eficientemente entradas de áudio, vídeo e texto, oferecendo respostas mais rápidas e a um custo reduzido em comparação às versões anteriores.
Poucas horas depois, às 14h29, o modelo foi acessado ilegalmente por um indivíduo conhecido como "Pliny the Prompter", que compartilhou um comando específico na rede social X, contornando as restrições de segurança do modelo. O jailbreak permitiu que os usuários gerassem conteúdo explícito ou analisassem materiais sensíveis, como imagens de raios-X — recursos que antes estavam restritos.
Pliny the Prompter não é novato nesse cenário. Desde o ano passado, ele tem explorado modelos de linguagem de grande porte (LLMs), como Claude da Anthropic e Gemini do Google, produzindo diversas saídas controversas, desde instruções ilegais até representações visuais não autorizadas de celebridades. Em maio de 2023, Pliny fundou uma comunidade no Discord chamada “BASI PROMPT1NG” para unir entusiastas do jailbreak, promovendo a colaboração na exploração dos limites impostos pelos provedores de IA.
O cenário atual de jailbreak de LLMs em 2024 reflete tendências passadas no iOS, quando usuários rapidamente encontraram maneiras de personalizar o software controlado pela Apple. No entanto, com os LLMs, os jailbreakers podem acessar sistemas ainda mais avançados e autônomos.
Mas o que motiva esses jailbreakers? Eles são apenas agentes do caos ou têm intenções mais profundas? Realizamos uma entrevista exclusiva com Pliny para explorar suas motivações e perspectivas sobre a IA:
mídia: Quando você começou a fazer jailbreak em LLMs? Você já trabalhou em algo semelhante antes?
Pliny the Prompter: Estou nessa há cerca de 9 meses; não tinha feito nada parecido antes.
Quais são suas habilidades mais fortes nesta área?
Pliny the Prompter: Jailbreak, injeções de comando e vazamentos de comandos do sistema. Isso exige criatividade, reconhecimento de padrões e prática consistente, além de uma sólida formação interdisciplinar e intuição.
Por que você faz jailbreak em LLMs? Que impacto espera que isso tenha nos usuários e na indústria de tecnologia?
Pliny the Prompter: Desgosto de restrições; ser impedido de fazer algo apenas aumenta minha persistência. Vejo o desbloqueio da IA não só como uma vitória pessoal, mas também como uma forma de evidenciar as limitações das medidas de segurança. Meu objetivo é aumentar a conscientização sobre o verdadeiro potencial da IA e incentivar uma mudança em direção à transparência.
Como você aborda a busca por falhas em novos modelos?
Pliny the Prompter: Analiso como o sistema pensa, se permite o jogo de papéis, suas capacidades criativas e suas interações com diferentes tipos de texto.
Você foi abordado por provedores de IA em relação ao seu trabalho?
Pliny the Prompter: Sim, eles expressaram admiração pelas minhas habilidades.
Você está preocupado com repercussões legais por fazer jailbreak?
Pliny the Prompter: Sempre há alguma preocupação, mas as leis sobre jailbreak de IA ainda são incertas. Nunca fui banido, embora tenha recebido avisos. A maioria das organizações reconhece que essa forma de red teaming acaba protegendo seus interesses.
Como você responde aos críticos que veem o jailbreak como perigoso?
Pliny the Prompter: Embora possa parecer arriscado, o red teaming responsável é crucial para identificar e prevenir vulnerabilidades prejudiciais na IA. As questões éticas envolvendo deepfakes também geram importantes discussões sobre responsabilidade em conteúdo gerado por IA.
O que inspirou seu nome, "Pliny the Prompter"?
Pliny the Prompter: Inspirando-me em Plínio, o Velho, uma figura histórica conhecida por seus variados talentos e coragem. Seu espírito explorador ressoa com minha própria curiosidade e tenacidade.
Em uma era em que a tecnologia de IA evolui rapidamente, as ações de jailbreakers como Pliny the Prompter levantam perguntas significativas sobre a ética do uso de IA, os limites da criatividade e o diálogo em andamento sobre o futuro da inteligência artificial.