Débloquer le pouvoir de l'analyse des données : comment la rendre aussi transformative que l'IA générative.

L'avancement rapide de l'IA pose de nombreux défis, notamment la préparation des données, la gestion de grands ensembles de données, l'assurance de la qualité des données et le traitement des inefficacités des requêtes longues et des processus par lots. Dans ce VB Spotlight, William Benton, architecte principal produit chez NVIDIA, en compagnie d'autres experts, explique comment les organisations peuvent rationaliser leurs processus analytiques dès aujourd'hui.

Regardez gratuitement à la demande !

Le potentiel transformateur de l'IA est souvent entravé par les complexités analytiques et l'attente prolongée des analyses.

"Tout le monde a déjà rencontré des tableaux de bord avec un certain retard", remarque Deborah Leff, directrice des revenus chez SQream, "mais avec des requêtes complexes, on peut attendre des heures, voire des jours, pour obtenir des informations essentielles."

Lors d'un récent événement VB Spotlight, Leff a rejoint Benton et le data scientist Tianhui "Michael" Li pour discuter des moyens d'aider les entreprises à surmonter les obstacles dans l'analyse de données à l’échelle de l'entreprise. Ils ont souligné l'importance cruciale d'investir dans des GPU puissants pour améliorer la vitesse, l'efficacité et les capacités des processus analytiques, ouvrant ainsi la voie à une nouvelle approche de la prise de décisions basée sur les données.

Accélérer l'Analyse d'Entreprise

Malgré l'engouement pour l'IA générative, l'analyse d'entreprise a pris du retard dans son avancement.

"Beaucoup abordent encore les défis analytiques avec des architectures obsolètes", explique Benton. "Bien que les bases de données aient bénéficié de mises à jour progressives, nous n'avons pas été témoins d'un changement révolutionnaire qui apporterait un bénéfice significatif aux praticiens, analystes et scientifiques des données."

Ce défi persistant découle du temps considérable nécessaire à l'analyse, ce qui maintient les solutions efficaces hors de portée. Bien que l'ajout de ressources cloud soit coûteux et complexe, une combinaison efficace de la puissance CPU et GPU peut considérablement améliorer les performances analytiques.

Les GPU d'aujourd'hui auraient été considérés comme extraordinaires par le passé, indique Benton. "Bien que les superordinateurs soient utilisés pour des problèmes scientifiques massifs, cette immense puissance de calcul peut désormais bénéficier à divers cas d'utilisation."

Les organisations n'ont plus besoin de se contenter de petites optimisations de requêtes. Au lieu de cela, elles peuvent réduire de manière significative l'ensemble du calendrier analytique, améliorant ainsi la vitesse d'ingestion des données, de requêtes et de présentation.

"SQream et des technologies similaires exploitent la puissance combinée des GPU et des CPU, révolutionnant les processus analytiques traditionnels et offrant un impact sans précédent", ajoute Benton.

Révolutionner l'Écosystème de la Science des Données

Les lacs de données non structurés, souvent centrés sur Hadoop, offrent flexibilité pour de vastes volumes de données semi-structurées et non structurées, mais nécessitent une préparation extensive avant le déploiement des modèles. SQream exploite les GPU pour un traitement des données accéléré, simplifiant ainsi le flux de travail de la préparation des données à des informations exploitables.

"Les capacités des GPU permettent aux organisations d'analyser efficacement d'énormes ensembles de données", affirme Leff. "Nous avons souvent dû imposer des limites sur les tailles de données, mais les GPU nous permettent de débloquer d'énormes volumes de données."

Le RAPIDS de NVIDIA, une suite de bibliothèques accélérées par GPU en open-source, améliore encore la performance à grande échelle sur les pipelines de données. Il tire profit de la puissance du traitement parallèle, renforçant ainsi l'efficacité dans les écosystèmes de science des données Python et SQL.

Déverrouiller des Informations Plus Profondes

Benton souligne que l'amélioration des analyses ne concerne pas seulement la rapidité. "Des processus lents proviennent souvent de retards de communication entre équipes, voire entre bureaux. En optimisant ces interactions, nous constatons des gains de performance significatifs."

Atteindre des temps de réponse inférieurs à une seconde permet d'obtenir des réponses immédiates, maintenant ainsi les scientifiques des données dans un état de flux productif. Élargir cette efficacité à divers dirigeants d'entreprise améliore les processus décisionnels qui impactent directement les revenus, la gestion des coûts et la réduction des risques.

Exploiter pleinement le potentiel des données devient faisable grâce à la puissance des CPU et GPU, permettant des requêtes auparavant impossibles.

"Pour moi, cela représente la démocratisation de l'accélération," note Leff. "De nombreux décideurs doivent s'appuyer sur des hypothèses obsolètes. Lorsqu'on leur dit qu'une requête prendra huit heures, ils l'acceptent, sans savoir qu'elle pourrait être traitée en moins de huit minutes."

Benton ajoute : "De nombreuses organisations s'accrochent à d'anciens paradigmes établis depuis des décennies. Avec les avancées offertes par des technologies comme SQream, nous pouvons remettre en question ces hypothèses. Quand une requête qui prenait autrefois deux semaines est désormais exécutée en une demi-heure, cela ouvre la porte à de nouvelles possibilités commerciales."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles