Com o aumento da demanda por tecnologia de IA, uma nova gama de ferramentas destinadas a aprimorar seu desenvolvimento e implantação está surgindo. A RagaAI, uma startup da Califórnia focada em testar e corrigir sistemas de IA, anunciou recentemente seu lançamento após uma bem-sucedida captação de US$ 4,7 milhões em uma rodada de financiamento inicial liderada pela pi Ventures, com a participação da Anorak Ventures, TenOneTen Ventures, Arka Ventures, Mana Ventures e Exfinity Venture Partners.
Fundada por Gaurav Agarwal, ex-executivo da Nvidia, a RagaAI planeja utilizar esse financiamento para aprofundar sua pesquisa e aprimorar sua plataforma de testes automatizados, com o objetivo de criar uma estrutura sólida para uma IA segura e confiável. Agarwal afirmou: “Guiados por nossos valores fundamentais, estamos comprometidos em ultrapassar os limites da detecção automatizada de problemas de IA, análise de causas raiz e resolução de problemas, mantendo-nos na vanguarda das metodologias inovadoras.” A RagaAI atualmente atende empresas da Fortune 500, enfrentando desafios cruciais como viés, precisão e alucinações em várias aplicações.
Construir e implantar IA de forma eficaz é uma tarefa complexa. As equipes precisam coletar dados, treinar modelos e monitorar o desempenho para garantir resultados esperados, já que qualquer descuido pode levar a falhas dispendiosas e oportunidades perdidas. Agarwal reconheceu esse desafio durante sua passagem pela Nvidia e pela empresa de mobilidade indiana Ola, o que o levou a desenvolver uma plataforma automatizada para detectar, diagnosticar e resolver problemas de IA.
Ao contrário das soluções tradicionais que verificam um número limitado de problemas, a RagaAI realiza até 300 testes, identificando possíveis armadilhas relacionadas a dados, modelos e operações. Quando um problema é encontrado, a plataforma auxilia os usuários a localizar a causa raiz, que pode ser dados de treinamento tendenciosos, rotulagem inadequada, desvio de dados ou outros fatores. Em seguida, oferece recomendações práticas, como eliminar pontos de dados mal rotulados ou sugerir o re-treinamento para corrigir inconsistências nos dados.
Central à tecnologia da RagaAI estão seus modelos fundacionais RagaDNA, que criam embeddings de dados de alta qualidade — representações comprimidas e significativas das informações. Esses embeddings são essenciais para detectar, diagnosticar e remediar problemas na plataforma.
Jigar Gupta, chefe de produto da RagaAI, explica: “O RagaDNA representa modelos fundacionais específicos para setores, treinados sob medida para testes. Isso permite que a RagaAI aprimore automaticamente os fluxos de trabalho de teste definindo o Domínio de Design Operacional (ODD), identificando casos extremos onde os modelos apresentam desempenho insatisfatório e correlacionando resultados com dados de treinamento inadequados ou de baixa qualidade.”
Apesar de seu recente lançamento público, a RagaAI já está causando um impacto significativo, com várias empresas da Fortune 500 utilizando sua tecnologia. Por exemplo, uma empresa de comércio eletrônico resolveu com sucesso as alucinações em seu chatbot, enquanto um cliente do setor automotivo melhorou a precisão de detecção de veículos em condições de baixa luminosidade.
A RagaAI acredita que sua plataforma pode mitigar 90% dos riscos no desenvolvimento de IA, enquanto acelera os prazos de produção em mais de três vezes. Com o novo financiamento, a empresa pretende aprimorar seus esforços em P&D, melhorar suas capacidades de testes, expandir sua equipe e promover o desenvolvimento de uma IA segura e transparente.
É importante notar que a RagaAI não está sozinha nesse empreendimento. Um número crescente de empresas, como a Arize com sua biblioteca open-source Phoenix, Context AI e Braintrust Data, também está focado em otimizar a implantação de IA. Além disso, provedores de observabilidade como a Acceldata estão explorando soluções de monitoramento de IA generativa para suporte à implantação.
À medida que o mercado de IA projeta atingir US$ 2 trilhões até 2030, uma parte substancial — estimada em 25% — deve ser alocada para ferramentas que garantam que os sistemas de IA sejam seguros e confiáveis.