Nvidia verbessert die hochauflösende Omniverse Cloud-Bildgebung für Apple Vision Pro-Nutzer.

Nvidia hat kürzlich seine Omniverse-Digital Twin-Technologie mit dem innovativen Apple Vision Pro-Headset präsentiert. Die Ingenieure des Unternehmens haben erfolgreich die Omniverse Cloud API aktiviert, um interaktive industrielle digitale Zwillinge direkt auf den Vision Pro zu streamen. Während einer Demo erlebte ich Cloud-basierte Grafiken in einer erstaunlichen Auflösung, die die typische App-Leistung des Headsets übertraf.

Diese Anwendung hat großes Potenzial für das Apple Vision Pro, das für 3.500 US-Dollar angeboten wird. Obwohl dieser Preis die Verbraucherakzeptanz einschränken könnte, werden wahrscheinlich Industrien und Unternehmen das Headset nutzen, um Kosten durch digitale Zwillinge zu sparen.

„Omniverse Cloud ist auf dem Apple Vision Pro verfügbar,“ kündigte Nvidia-CEO Jensen Huang während der Keynote von Nvidia GTC 2024 an, was begeisterten Applaus zur Folge hatte.

Ein digitaler Zwilling ist eine virtuelle Nachbildung einer Fabrik, die realistische Simulationen und Optimierungen vor dem eigentlichen Bau ermöglicht. Sobald die physische Fabrik in Betrieb ist, kann der digitale Zwilling mit Echtzeitdaten von Sensoren aktualisiert werden, was kontinuierliche Verbesserungen und erhebliche Kosteneinsparungen gewährleistet.

Auf der Nvidia GTC wurde ein neues Omniverse Cloud API-Framework vorgestellt, das Entwicklern ermöglicht, ihre Universal Scene Description (OpenUSD) industriellen Szenen nahtlos von Content-Creation-Tools an Nvidias Graphics Delivery Network (GDN) zu senden. Dieses globale Netzwerk von Rechenzentren bietet die notwendige Bandbreite, um hochwertige 3D-Erlebnisse an Geräte wie das Apple Vision Pro zu streamen.

Live-Demo

Ich erlebte eine beeindruckende Demo, bei der ein interaktiver, physisch genauer digitaler Zwilling eines Autos in Echtzeit auf den Vision Pro gestreamt wurde. Dieses Erlebnis umfasste etwa 100 Milliarden Dreiecke, die durch Raytracing und globale Beleuchtung in Echtzeit gerendert wurden, und verwandelte das Headset effektiv in ein Fenster zu einer animierten, weitläufigen 3D-Welt.

Unterstützt von dem CGI-Studio Katana auf der Omniverse-Plattform konnte ich die Farben und den Innenraum des Fahrzeugs anpassen. Die Verwendung von räumlichem Computing ermöglichte es mir, das Automodell leicht zu manipulieren und seine Größe anzupassen, während ich beeindruckende visuelle Qualität beibehielt.

Typischerweise sind die visuellen Fähigkeiten des Apple Vision Pro aufgrund seines 8GB oder 16GB Arbeitsspeichers begrenzt. Cloud-Streaming ermöglicht es Nvidia jedoch, Bilder auf Abruf bereitzustellen und damit das visuelle Erlebnis erheblich zu verbessern. Rev Lebaredian, Vizepräsident für Simulation bei Nvidia, erklärte, dass das Rendering in der Cloud stattfindet, wobei Technologien verwendet werden, die weit über das hinausgehen, was das Gerät allein unterstützen kann.

Ingenieure und Designer können nun in dieser virtuellen Umgebung effizienter arbeiten und ein realistisches Verständnis ihrer Simulationen gewinnen. Ich konnte die Beleuchtungsbedingungen ändern und Echtzeitänderungen in der Umgebung beobachten, wodurch ich noch tiefer in diesen virtuellen Raum eintauchte.

Innerhalb einer Wistron-Fabrik

Nvidia zeigte auch einen digitalen Zwilling eines Wistron-Serverwerks in Taiwan, um zu veranschaulichen, wie ein Supercomputer innerhalb des Werks bewegt werden könnte. Die visuelle Qualität war beeindruckend, mit realistischen Reflektionen und Schatten, während die Pinch-to-Zoom-Funktion eine genauere Inspektion von komplexen Details ermöglichte.

Lebaredian stellte fest, dass diese Technologie die Planung vor dem Bau erleichtert, wodurch Hersteller die Anordnung der Ausrüstung optimieren und Ineffizienzen reduzieren können.

Dank der Cloud-Funktionen, die den Zugriff auf große Datenmengen ermöglichen, demonstrierte die Demo einen erheblichen Sprung in der Rendering-Leistung – etwa 50 Teraflops pro Auge im Vergleich zu den beschränkten Verarbeitungskapazitäten des Vision Pro.

Transformation des räumlichen Computings

Die Omniverse Cloud verbessert die Visualisierungen digitaler Zwillinge auf dem Apple Vision Pro. Räumliches Computing wird die Interaktionen in der Industrie revolutionieren, indem es hochauflösende Displays und effiziente Datenverarbeitung bietet, die immersive Erlebnisse ermöglichen.

Dieser innovative Arbeitsablauf kombiniert die fortschrittlichen Displays des Vision Pro mit Nvidias RTX-Cloud-Rendering, um nahtlose, hochqualitative Erlebnisse zu liefern. Mike Rockwell, Vizepräsident von Apples Vision Products Group, unterstrich das Potenzial dieser Kombination zur Transformation der Interaktionen von Designern und Entwicklern mit digitalen Inhalten.

Lebaredian bemerkte die lossgelöste Natur des Vision Pro als einen Wendepunkt für Unternehmenskunden, die so leistungsstarke Werkzeuge in ihre Arbeitsabläufe integrieren können. Die Einführung des hybriden Renderings ermöglicht es Benutzern, vollständig interaktive Erlebnisse unter Verwendung von Apples nativer SwiftUI in Kombination mit dem Omniverse RTX Renderer zu erzielen, der vom GDN gestreamt wird.

Mit der globalen Infrastruktur von Nvidia GDN können Benutzer visuell beeindruckende, interaktive Inhalte unabhängig von der Datenkomplexität abrufen. Dieser Arbeitsablauf verspricht neue Möglichkeiten in verschiedenen Anwendungen, wodurch Designer mit 3D-Daten interagieren können, ohne die Qualität zu beeinträchtigen.

Die Fortschritte in dieser Technologie ebnen den Weg für spannende neue Chancen im E-Commerce, bei der Fabrikplanung und darüber hinaus, damit die Benutzer mit genauen und hochwertigen Simulationen interagieren können.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles