Nvidia va mettre en avant des avancées significatives en matière de rendu, de simulation et d'IA générative lors de Siggraph 2024, la principale conférence sur les graphiques informatiques, qui se tiendra du 28 juillet au 1er août à Denver, Colorado.
Nvidia Research présentera plus de 20 articles durant l'événement, dévoilant des innovations dans la génération de données synthétiques et les outils de rendu inverse, conçus pour entraîner les modèles d'IA de nouvelle génération. Ces avancées améliorent la qualité de simulation, renforcent la fidélité des images et proposent de nouvelles méthodes pour créer des représentations 3D d'environnements réels et imaginaires.
Parmi les articles clés, on explorera les modèles de diffusion pour l'IA générative visuelle, la simulation basée sur la physique et des techniques de rendu pilotées par l'IA de plus en plus réalistes. La sélection de cette année comprend deux lauréats du prix du meilleur article ainsi que des collaborations avec des universités et entreprises prestigieuses comme Adobe et Roblox. Ces innovations devraient permettre aux développeurs et aux entreprises de générer des objets virtuels complexes, des personnages et des environnements, en utilisant des données synthétiques pour raconter des histoires visuelles percutantes ou aider à l'entraînement des simulations pour les robots et véhicules autonomes.
Amélioration de la peinture de textures avec les modèles de diffusion
Les modèles de diffusion se sont révélés être des outils puissants pour transformer des prompts textuels en images, permettant aux artistes et designers de créer efficacement du contenu visuel pour les storyboards et productions. Parmi les articles marquants de Nvidia, on trouve ConsiStory, fruit d'une collaboration avec l'Université de Tel Aviv, qui simplifie la génération d'images de personnages cohérentes, réduisant le temps de production de 13 minutes à environ 30 secondes. De plus, les modèles d'IA primés de Nvidia pour les transformations texte-image ont évolué pour appliquer des méthodes de diffusion générative 2D à la peinture de textures en temps réel sur des maillages 3D, révolutionnant la manière dont les artistes travaillent avec les textures.
Avancée de la simulation basée sur la physique
Nvidia progresse également dans la simulation basée sur la physique, qui vise à reproduire les interactions et mouvements d'objets réels dans des environnements numériques. Un projet notable, SuperPADL, utilise l'apprentissage par renforcement et supervisé pour simuler plus de 5 000 mouvements humains, fonctionnant en temps réel sur des GPU Nvidia de consommation. Un autre article innovant présente une méthode de physique neuronale qui anticipe le comportement de diverses représentations d'objets dans différents environnements. Un projet collaboratif avec l'Université Carnegie Mellon a développé un nouveau type de moteur de rendu capable de réaliser des analyses thermiques et de la mécanique des fluides, reconnu comme l'un des meilleurs articles à SIGGRAPH pour son efficacité et sa facilité d'utilisation. Des recherches supplémentaires ont conduit à de nouvelles techniques pour le modélisation des cheveux et un accroissement de dix fois de la vitesse des processus de simulation des fluides.
Révolutionner le rendu avec la simulation de diffraction
Les dernières avancées de Nvidia en matière de technologie de rendu comprennent des méthodes de modélisation de la lumière visible jusqu'à 25 fois plus rapidement et des simulations de diffraction pour l'entraînement des voitures autonomes jusqu'à 1 000 fois plus rapide. Un article collaboratif avec des chercheurs de l'Université de Waterloo met l'accent sur la diffraction en espace libre, intégrant ce phénomène optique dans les flux de travail de path-tracing pour améliorer la vitesse et l'efficacité des simulations.
Deux autres articles améliorent la qualité de ReSTIR, un algorithme de path-tracing présenté par Nvidia et le Dartmouth College à SIGGRAPH 2020. L'un des articles, en collaboration avec l'Université de l'Utah, introduit une nouvelle méthode pour réutiliser les chemins de lumière calculés, augmentant les échantillons jusqu'à 25 fois. Le second article améliore la qualité des échantillons par des mutations aléatoires, optimisant l'efficacité des algorithmes de débruitage et réduisant les artefacts de rendu.
Innovation des outils d'IA 3D
Nvidia introduit également des outils d'IA polyvalents pour la représentation et la conception 3D. Un article présente fVDB, un cadre optimisé par GPU pour l'apprentissage profond 3D à grande échelle, supportant des modèles à l'échelle de la ville et la segmentation de nuages de points. Une collaboration primée sur le meilleur article technique avec le Dartmouth College unifie les diverses apparences des objets 3D interagissant avec la lumière en un seul modèle. Un autre partenariat avec l'Université de Tokyo, l'Université de Toronto et Adobe Research introduit un algorithme pour la génération en temps réel de courbes lisses et remplissantes sur des maillages 3D, réduisant considérablement les temps de traitement de plusieurs heures à quelques secondes.
Présence de Nvidia à Siggraph
La participation de Nvidia à Siggraph comprendra des événements notables, notamment une discussion entre le PDG Jensen Huang et la journaliste senior de Wired Lauren Goode sur l’avenir de l’intelligence artificielle et de la robotique dans la numérisation industrielle. De plus, Nvidia organisera OpenUSD Day, une journée consacrée à la démonstration de l'évolution d'OpenUSD pour améliorer les pipelines 3D activés par l'IA.
Avec des centaines de scientifiques et d'ingénieurs à travers le monde, Nvidia Research se concentre sur le développement d'avancées pionnières dans l'IA, les graphiques informatiques, la vision par ordinateur, la technologie de conduite autonome et la robotique.