El rápido avance de la inteligencia artificial (IA) presenta numerosos desafíos, entre ellos la preparación de datos, la gestión de grandes volúmenes de información, la garantía de calidad de los datos y el manejo de las ineficiencias de consultas prolongadas y procesos por lotes. En este VB Spotlight, William Benton, arquitecto principal de productos en NVIDIA, junto con otros expertos, comparte cómo las organizaciones pueden agilizar sus procesos analíticos hoy mismo.
El potencial transformador de la IA a menudo se ve obstaculizado por las complejidades de la analítica y la larga espera por obtener información valiosa a partir de consultas.
“Todos hemos encontrado paneles con cierta latencia”, señala Deborah Leff, directora de ingresos de SQream, “pero con consultas complejas, puede que esperes horas o incluso días para obtener información clave”.
Durante un reciente evento de VB Spotlight, Leff se unió a Benton y al científico de datos Tianhui "Michael" Li para discutir cómo las organizaciones pueden superar las barreras en la analítica de datos a nivel empresarial. Enfatizaron la necesidad crítica de invertir en potentes GPUs para mejorar la velocidad, eficiencia y capacidades de los procesos analíticos, allanando el camino hacia un nuevo enfoque de la toma de decisiones basada en datos.
Acelerando la Analítica Empresarial
A pesar de la emoción que rodea a la IA generativa, la analítica empresarial ha avanzado lentamente.
“Muchos todavía enfrentan desafíos analíticos con arquitecturas obsoletas”, explica Benton. “Aunque las bases de datos han recibido actualizaciones incrementales, no hemos presenciado un cambio revolucionario que beneficie significativamente a practicantes, analistas y científicos de datos”.
Este desafío continuo proviene del tiempo considerable requerido para la analítica, lo que ha mantenido alejadas las soluciones efectivas. Aunque agregar más recursos en la nube es costoso y complicado, una combinación eficaz de potencia de CPU y GPU puede mejorar significativamente el rendimiento analítico.
Las GPUs de hoy habrían sido consideradas extraordinarias en el pasado, afirma Benton. “Mientras que los supercomputadores se utilizan para problemas científicos masivos, esa inmensa potencia de cómputo ahora puede beneficiar a diversos casos de uso”.
Las organizaciones ya no necesitan conformarse con pequeñas optimizaciones en las consultas. En cambio, pueden reducir drásticamente todo el cronograma analítico, mejorando la velocidad en la ingestión de datos, las consultas y la presentación.
“SQream y tecnologías similares aprovechan el poder combinado de GPUs y CPUs, revolucionando los procesos analíticos tradicionales y brindando un impacto sin precedentes”, añade Benton.
Revolucionando el Ecosistema de Ciencia de Datos
Los lagos de datos no estructurados, a menudo centrados en Hadoop, ofrecen flexibilidad para grandes volúmenes de datos semiestructurados y no estructurados, pero requieren una preparación extensa antes de la implementación del modelo. SQream utiliza GPUs para un procesamiento de datos acelerado, simplificando significativamente el flujo de trabajo desde la preparación de datos hasta la obtención de insights útiles.
“Las capacidades de las GPUs permiten a las organizaciones analizar conjuntos de datos masivos de forma efectiva”, afirma Leff. “A menudo hemos tenido que imponer límites en los tamaños de datos, pero las GPUs nos permiten desbloquear volúmenes vastos de información”.
RAPIDS de NVIDIA, una suite de bibliotecas de código abierto aceleradas por GPU, mejora aún más el rendimiento a escala a lo largo de los pipelines de datos. Aprovecha el poder del procesamiento paralelo, aumentando la eficiencia en los ecosistemas de ciencia de datos de Python y SQL.
Desbloqueando Insights Más Profundos
Benton destaca que una mejor analítica no se trata solo de velocidad. “Los procesos lentos a menudo provienen de retrasos en la comunicación entre equipos o incluso en diferentes escritorios. Al optimizar estas interacciones, vemos ganancias significativas en el rendimiento”.
Lograr tiempos de respuesta de menos de un segundo permite respuestas inmediatas, manteniendo a los científicos de datos en un estado de flujo productivo. Extender esta eficiencia a diversos líderes empresariales mejora los procesos de toma de decisiones que impactan directamente en los ingresos, la gestión de costos y la reducción de riesgos.
Aprovechar todo el potencial de los datos se vuelve posible con la potencia de CPUs y GPUs, permitiendo consultas que antes eran imposibles.
“Para mí, esto es la democratización de la aceleración”, señala Leff. “Muchos tomadores de decisiones deben basarse en supuestos desactualizados. Cuando les dicen que una consulta tomará ocho horas, lo aceptan, sin saber que podría procesarse en menos de ocho minutos”.
Benton agrega: “Muchas organizaciones se aferran a paradigmas antiguos establecidos durante décadas. Con los avances logrados por tecnologías como SQream, podemos desafiar estos supuestos. Cuando una consulta que antes tomaba dos semanas ahora se completa en media hora, se abre la puerta para explorar nuevas oportunidades comerciales”.