Google está a punto de mejorar su plataforma de desarrollo web con herramientas revolucionarias que permiten a los usuarios crear aplicaciones mediante comandos en lenguaje natural, junto con potentes capacidades multimodales. En una reciente publicación de Medium, el ingeniero de JavaScript Bedros Pamboukian compartió capturas de pantalla filtradas de las nuevas funciones de IA para MakerSuite, incluyendo Gemini, un modelo de IA multimodal muy esperado que permitirá entradas y salidas de texto, imagen y audio. Aunque estas características aún no han sido confirmadas públicamente, las primeras capturas sugieren que se encuentran en etapas de desarrollo, con varios elementos de la interfaz aún incompletos.
¿Qué se ha revelado?
Entre las características filtradas destaca una herramienta llamada Stubbs, diseñada para agilizar la creación y el intercambio de prototipos de aplicaciones generados por IA con un esfuerzo mínimo. Si resulta veraz, Stubbs promete un enfoque amigable para el desarrollo de aplicaciones web, dirigido a personas sin conocimientos técnicos. Además de Stubbs, existe una función complementaria llamada Stubbs Gallery que permitirá a los usuarios de MakerSuite explorar y modificar prototipos existentes. Cabe destacar que los Stubbs creados por los usuarios serán privados por defecto, con opción a compartirlos.
Gemini, conocido como 'Jetway' para la integración con MakerSuite, se espera que impulse las funcionalidades multimodales de la plataforma, incluyendo capacidades de reconocimiento de texto, reconocimiento de objetos, comprensión contextual de imágenes y la posibilidad de incorporar videos y HTML en los comandos. El ingeniero indicó que Gemini también se integrará en Vertex AI, el entorno de desarrollo de aplicaciones de Google.
Características adicionales próximas
Entre las nuevas funcionalidades se incluyen un sistema de guardado automático para MakerSuite, soporte de traducción para comandos en varios idiomas, y la integración con Google Drive para importar imágenes y archivos de manera fluida al entorno de edición.
Google Gemini: Perspectivas y Expectativas
Google ha estado insinuando Gemini desde su anuncio en el evento I/O en mayo, donde el CEO Sundar Pichai destacó sus impresionantes capacidades multimodales, que son significativamente más avanzadas en comparación con modelos anteriores. El proyecto Gemini, desarrollado por el equipo de Google DeepMind, reúne la experiencia del equipo de Brain y DeepMind para ofrecer un sólido competidor a líderes de la industria como ChatGPT de OpenAI.
Si bien los detalles siguen siendo limitados, se ha confirmado la naturaleza multimodal de Gemini, permitiéndole procesar y generar respuestas de texto, video e imagen. También está diseñado para acceder a diversas herramientas y API para mejorar su funcionalidad.
Facilitando el desarrollo de aplicaciones
El creciente interés en utilizar IA para mejorar el desarrollo de aplicaciones web es evidente, y Google avanza en este objetivo con un nuevo entorno de desarrollo llamado Project IDX. Esta iniciativa se suma a otras herramientas como MetaGPT y GitHub Copilot, que facilitan la creación de aplicaciones mediante procesamiento de lenguaje natural. Recientemente, un exingeniero de Google presentó un enfoque innovador para construir aplicaciones web impulsadas por IA localmente en dispositivos, en lugar de depender exclusivamente de la infraestructura en la nube. Si la adición de Stubbs resulta cierta, podría democratizar significativamente el acceso al desarrollo de aplicaciones, según Bradley Shimmin, analista jefe de IA y análisis de datos.
El panorama de las filtraciones tecnológicas
Es importante señalar que la información presentada en el blog de Pamboukian no ha sido formalmente verificada por Google. El origen de las capturas de pantalla sigue siendo incierto, aunque Pamboukian afirma que se obtuvieron directamente sin influencias externas. Históricamente, los desarrolladores han sido hábiles para descubrir funciones no lanzadas; por ejemplo, en junio, un desarrollador reveló los planes de Instagram para chatbots de IA tres meses antes de un anuncio oficial por parte del CEO de Meta, Mark Zuckerberg, durante el evento Connect 2023.
A medida que Google lanza estas capacidades potencialmente transformadoras, la comunidad tecnológica espera con interés más desarrollos que modelarán el futuro de la creación de aplicaciones.