O Google está prestes a aprimorar sua plataforma de desenvolvimento web com ferramentas revolucionárias que permitem aos usuários criar aplicações utilizando comandos em linguagem natural, além de poderosas capacidades multimodais. Em uma recente postagem no Medium, o engenheiro de JavaScript Bedros Pamboukian compartilhou supostas capturas de tela de novos recursos de IA para o MakerSuite, incluindo o Gemini—um modelo de IA multimodal muito esperado que permitirá entradas e saídas de texto, imagem e áudio. Embora esses recursos ainda não tenham sido confirmados publicamente, as imagens iniciais sugerem que estão em estágio de desenvolvimento, com vários elementos de interface aparecendo inacabados.
O que foi revelado?
As funcionalidades vazadas incluem uma ferramenta chamada Stubbs, projetada para simplificar a criação e compartilhamento de protótipos de aplicativos gerados por IA com mínimo esforço. Se for preciso, o Stubbs promete uma abordagem amigável ao desenvolvimento de aplicativos web, voltada para pessoas não técnicas. Além do Stubbs, há um recurso complementar conhecido como Stubbs Gallery, que permitirá aos usuários do MakerSuite explorar e modificar protótipos existentes. Notavelmente, os protótipos criados pelos usuários permanecerão privados por padrão, com a opção de compartilhá-los com outros.
O Gemini, também conhecido pelo codinome 'Jetway' para integração com o MakerSuite, deverá impulsionar as funcionalidades multimodais da plataforma. Isso inclui capacidades em reconhecimento de texto, reconhecimento de objetos, compreensão contextual de imagens e a habilidade de incorporar vídeos e HTML nos comandos. O engenheiro indicou que o Gemini também será integrado ao Vertex AI, o ambiente de desenvolvimento de aplicações do Google.
Novos Recursos Chegando
Entre as novas funcionalidades estão um recurso de salvamento automático para o MakerSuite, suporte à tradução de comandos em vários idiomas e integração com o Google Drive para importar imagens e arquivos de forma fácil para o ambiente de edição.
Google Gemini: Perspectivas e Expectativas
O Google tem mencionado o Gemini desde seu anúncio no evento I/O em maio, onde o CEO Sundar Pichai destacou suas impressionantes capacidades multimodais, significativamente avançadas em relação aos modelos anteriores. O projeto Gemini, desenvolvido pela equipe do Google DeepMind, reúne expertise tanto da Brain Team quanto do DeepMind para oferecer uma concorrente robusta a líderes do setor, como o ChatGPT da OpenAI.
Embora os detalhes permaneçam limitados, a natureza multimodal do Gemini é confirmada, permitindo processar e gerar respostas em texto, vídeo e imagem. Ele também foi projetado para acessar diversas ferramentas e APIs para funcionalidade aprimorada.
Facilitando o Desenvolvimento de Aplicações
O crescente interesse em utilizar IA para melhorar o desenvolvimento de aplicativos web é evidente, e o Google avança nessa direção com um novo ambiente de desenvolvimento chamado Project IDX. Essa iniciativa se junta a uma variedade de outras ferramentas, como MetaGPT e GitHub Copilot, que facilitam a construção de aplicações por meio de processamento de linguagem natural.
Recentemente, um ex-engenheiro do Google introduziu uma abordagem inovadora para construir aplicativos web com IA localmente nos dispositivos, sem depender exclusivamente da infraestrutura em nuvem. Se a adição do Stubbs for confirmada, isso poderia democratizar significativamente o acesso ao desenvolvimento de aplicativos, segundo Bradley Shimmin, analista-chefe de IA e análise de dados.
O Cenário das Vazações Tecnológicas
É importante notar que as informações apresentadas na postagem do blog de Pamboukian não foram formalmente verificadas pelo Google. A origem das capturas de tela permanece incerta, embora Pamboukian afirme que foram obtidas diretamente, sem fontes externas influenciando o conteúdo. Historicamente, os desenvolvedores têm se destacado em descobrir recursos não lançados; por exemplo, em junho, um desenvolvedor revelou os planos do Instagram para chatbots de IA três meses antes de um anúncio oficial do CEO da Meta, Mark Zuckerberg, durante o evento Connect 2023.
À medida que o Google lança essas capacidades potencialmente transformadoras, a comunidade tecnológica aguarda ansiosamente novos desenvolvimentos que moldarão o futuro da criação de aplicativos.