Intels und Dells 20-Millionen-Dollar-Investition in RunPod zeigt, dass Cloud-Giganten möglicherweise Schwierigkeiten in der KI-Revolution haben werden.

Während Unternehmen eifrig darauf hinarbeiten, KI zu nutzen, bleibt eine bedeutende Herausforderung bestehen: die schnelle Entwicklung und Bereitstellung von KI-Anwendungen in großem Maßstab. RunPod, ein Start-up, das eine global verteilte GPU-Cloud-Plattform für die Entwicklung und Bereitstellung von KI anbietet, hat kürzlich 20 Millionen Dollar an Seed-Finanzierung von Dell Technologies Capital und Intel Capital gesichert, um dieses Problem direkt anzugehen.

Die Entstehung spezialisierter KI-Cloud-Plattformen

Das Wachstum von RunPod spiegelt einen breiteren Trend wider: den Aufstieg spezialisierter Cloud-Dienste, die auf KI zugeschnitten sind. Da KI zunehmend integraler Bestandteil von Geschäftsprozessen wird, zeigen sich die Grenzen allgemeiner Cloud-Infrastrukturen deutlicher. Latenzprobleme, unflexible Skalierungen und fehlende KI-spezifische Werkzeuge erschweren die Bereitstellung von KI-Anwendungen. Diese Lücke hat zur Entstehung optimierter KI-Cloud-Plattformen geführt, die überlegene Rechenressourcen, Flexibilität und entwicklerfreundliche Umgebungen bieten, die für anspruchsvolle KI-Arbeitslasten geeignet sind. Die Finanzierung von RunPod erfolgt parallel zu einem Anstieg der Investitionen im spezialisierten KI-Cloud-Sektor. Mit der steigenden Nachfrage nach GPU-beschleunigter Infrastruktur sichern sich zahlreiche Start-ups erhebliche Finanzierungsbeträge. Zum Beispiel hat CoreWeave, ein Anbieter von GPU-Infrastruktur mit Sitz in New Jersey, 1,1 Milliarden Dollar gesammelt und eine Bewertung von 19 Milliarden Dollar erreicht, während Together Computer aus San Francisco über 100 Millionen Dollar bei einer Bewertung von über 1 Milliarde Dollar anstrebt. Lambda Inc. kündigte kürzlich eine Finanzierungsrunde über 320 Millionen Dollar bei einer Bewertung von 1,5 Milliarden Dollar für ihre KI-optimierte Cloud-Plattform an. Diese signifikanten Investitionen unterstreichen sowohl die steigende Nachfrage nach spezialisierter KI-Infrastruktur als auch die Wettbewerbslandschaft, in der sich RunPod zurechtfinden muss.

Fokus auf Entwickler

RunPod hat über 100.000 Entwickler gewonnen, indem das Benutzererlebnis und schnelle Iteration als wesentliche Faktoren zur Entfaltung des Geschäftswertes von KI priorisiert wurden. „Wenn Ihre Entwickler zufrieden und gut ausgestattet sind, ist das das Wichtigste“, sagte RunPod-Mitgründer und CEO Zhen Lu. „Viele Unternehmen übersehen dies; sie nehmen an, dass die Ansammlung von GPUs Entwickler anzieht. Der wahre Wert liegt im Ermöglichen schneller Iterationen.“

Dieser Fokus auf die Entwicklererfahrung hat eine weitreichende Akzeptanz gefördert, beginnend mit grassroots Initiativen zur Unterstützung von Indie-Entwicklern, bevor sie Profis und kleine bis mittelständische Unternehmen anlockten. RunPod schreitet nun in Unternehmensmärkte voran und bietet Zugang zu Nvidia-GPUs über flexible Compute-Instanzen und serverlose Funktionen. „Vor zwei Jahren haben wir Hacker und Entwickler unterstützt, die preiswerte GPU-Ressourcen benötigten“, erinnerte sich Lu. „Ursprünglich haben wir unsere Angebote auf Reddit gelistet und Nutzern, die sich keine Rechenressourcen leisten konnten, kostenlosen Zugang gewährt. Im Laufe der Zeit haben wir eine vielfältige Kundschaft angelockt, einschließlich Start-ups und etablierter Unternehmen.“

Eine wesentliche Herausforderung, der sich RunPod stellt, ist die Anforderung von Unternehmen, maßgeschneiderte Modelle bereitzustellen, die sie kontrollieren und iterieren können. Viele Unternehmensentwickler verlassen sich auf generische API-Modelle, die ihren spezifischen Anforderungen nicht gerecht werden. „Zahlreiche Anbieter vereinfachen den Einsatz unzureichender Lösungen, während sie den Prozess für das, was die Kunden wirklich wollen, komplizieren“, erklärte Lu. „Unsere Kunden suchen nach mehr Kontrolle und Anpassung.“

RunPod teilte Erfolgsgeschichten, die seinen entwicklerzentrierten Ansatz veranschaulichen. LOVO AI, ein Start-up zur Sprachgenerierung, lobte RunPods benutzerfreundlichen Speicher und die Entwicklererfahrung, während Coframe, ein Anbieter von selbstoptimierenden digitalen Schnittstellen, hervorhob, wie einfach es war, innerhalb einer Woche ein benutzerdefiniertes Modell auf serverlosen GPUs bereitzustellen.

Überwindung der Kubernetes-Einschränkungen

Um die Anpassung im großen Stil zu ermöglichen, hat sich RunPod entschieden, eine eigene Orchestrierungsschicht zu entwickeln, anstatt sich auf Kubernetes zu verlassen. Erste Architekturversuche zeigten, dass Kubernetes, das für traditionelle Arbeitslasten konzipiert ist, für KI-Aufgaben zu langsam ist. „Viele Nutzer wollen einfach nur das Endergebnis, ohne sich mit den Komplexitäten von Kubernetes auseinanderzusetzen“, betonte Lu. „Während Kubernetes Experten gut dienen kann, kann es frustrierend für diejenigen sein, die schnell Wert schaffen müssen.“

Die Strategie von RunPod, eine proprietäre Orchestrierungsschicht zu entwickeln, beruht auf dem Erkennen der Unzulänglichkeiten von Kubernetes für die einzigartigen Anforderungen von KI-Arbeitslasten. „KI/ML-Arbeitslasten unterscheiden sich grundlegend von traditionellen Anwendungen“, stellte Lu fest. „Sie erfordern spezialisierte Ressourcen, beschleunigte Zeitpläne und agile Skalierungen, die Kubernetes für unsere Kunden nicht schnell genug unterstützen konnte.“

Diese Fähigkeit ist entscheidend für Unternehmen, die benutzerdefinierte KI-Modelle schnell bereitstellen und iterieren müssen. Die Komplexität von Kubernetes kann Entwicklungszyklen und Experimentieren einschränken, was die Akzeptanz von KI hemmt. „Viele verwaltete KI-Plattformen sind für Einsteiger nützlich, können jedoch fortgeschrittene Einsätze einschränken“, sagte Lu. „RunPod bietet Unternehmen die Infrastruktur, die sie benötigen, um KI ihren eigenen Bedürfnissen entsprechend zu entwickeln und zu skalieren, ohne Kompromisse bei Geschwindigkeit oder Benutzerfreundlichkeit einzugehen.“

Skalierung für zukünftiges Wachstum

Mit der neuen Finanzierung plant RunPod, sein Team zu erweitern, um der wachsenden Nachfrage im Unternehmensbereich gerecht zu werden und Features wie CPU-Unterstützung neben GPUs zu verbessern. Das Unternehmen berichtet von einer Verzehnfachung von Umsatz und Mitarbeiteranzahl im vergangenen Jahr.

Gestützt auf solide Fortschritte und Investitionen ist RunPod für eine vielversprechende Zukunft gut aufgestellt. In einem überfüllten Markt wird es jedoch entscheidend sein, den Fokus auf die Bedürfnisse der Entwickler zu wahren. „Entwickler suchen nach maßgeschneiderten Lösungen; sie wollen Werkzeuge, die die Einarbeitung erleichtern und sie befähigen, ihre Ergebnisse zu verfeinern und zu optimieren“, schloss Lu. „Das ist die Vision, die wir verfolgen.“

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles