A comunidade tecnológica estava em polvorosa na noite passada, após a OpenAI publicar um post no blog abordando o recente processo produzido por Elon Musk contra a organização e seus líderes, o CEO Sam Altman e o presidente Greg Brockman. As alegações de Musk incluem quebra de contrato, violação do dever fiduciário e concorrência desleal, tudo centrado na preocupação de que a OpenAI priorizou lucros e interesses comerciais no desenvolvimento de inteligência geral artificial (AGI) em vez de sua responsabilidade em proteger o bem-estar público.
Em uma defesa contundente, a OpenAI divulgou e-mails trocados entre Musk, Altman, Brockman e o cientista-chefe Ilya Sutskever, destacando cinco insights principais:
1. Esclarecimento sobre Abertura
Sutskever enfatizou que o "aberto" da OpenAI não implica estritamente em código aberto. Ele afirmou: "À medida que nos aproximamos de construir IA, fará sentido começar a ser menos aberto." Ele explicou que, embora todos devam se beneficiar dos avanços em IA, não compartilhar detalhes científicos imediatamente pode ser aceitável.
2. Concordância de Musk sobre Abertura em IA
Respondendo a Sutskever, Musk simplesmente disse "Sim", indicando sua concordância de que os desenvolvimentos em IA não precisam ser necessariamente de código aberto.
3. Estratégias de Financiamento com a Tesla
Musk sugeriu que a OpenAI se conectasse à Tesla para garantir financiamento, referindo-se à OpenAI como "queimando dinheiro." Ele observou que vincular a OpenAI à Tesla como uma "vaca leiteira" poderia aumentar sua competitividade contra gigantes da tecnologia como o Google.
4. Discussões de Lucros desde 2018
Embora a OpenAI seja atualmente uma organização sem fins lucrativos, as discussões sobre uma mudança para um modelo de lucro — que levou à sua atual estrutura de lucro limitado — remontam a 2018. Musk encaminhou um e-mail destacando que a transição para um modelo com fins lucrativos poderia garantir receitas sustentáveis e atrair investimentos substanciais, especialmente através de uma parceria com a Tesla.
5. Preocupações sobre Desenvolvimento Seguro de IA
Sutskever expressou preocupações significativas em relação aos riscos potenciais de tornar a IA insegura de código aberto, especialmente em um cenário de "decisão rápida." Ele alertou que, se desenvolver uma IA segura se tornar mais desafiador do que criar uma IA insegura, ao tornar tudo acessível, o risco de agentes maliciosos criarem sistemas de IA perigosos aumenta.
A resposta decisiva da OpenAI e os insights desses e-mails destacam considerações críticas no discurso contínuo sobre a segurança e a comercialização da IA.