Startseite Hi-TechNvidia präsentiert Rubin: Neue KI-Plattform senkt Rechenleistung für Training und Inferenz

Nvidia präsentiert Rubin: Neue KI-Plattform senkt Rechenleistung für Training und Inferenz

Nvidia stellt Rubin vor, eine KI-Plattform mit sechs Chips, die Training und Inferenz deutlich effizienter macht.

von Mike Schwarz
Nvidia stellt Rubin vor, eine KI-Plattform mit sechs Chips, die Training und Inferenz deutlich effizienter macht.

Nvidia hat am Montag die neue Plattform Rubin vorgestellt, die für das Training und den Betrieb von künstlicher Intelligenz (KI) entwickelt wurde und laut dem Unternehmen den erforderlichen Rechenaufwand sowohl für Training als auch Inferenz erheblich reduzieren kann, berichtet 4thebike.de mit Verweis auf Quellen aus dem Сalcalistech. Die Plattform integriert sechs Chips zu einem eng gekoppelten KI-„Supercomputer“. Im Zentrum steht der neue KI-Prozessor Rubin, begleitet von einer zentralen Verarbeitungseinheit (CPU) namens Vera, einer Datenverarbeitungseinheit (DPU) sowie drei Kommunikationschips. Mehrere dieser Komponenten wurden im Forschungs- und Entwicklungszentrum von Nvidia in Israel entwickelt oder mit wesentlicher Beteiligung der israelischen Ingenieurteams des Unternehmens realisiert.

Jensen Huang, Gründer und CEO von Nvidia, erklärte: „Rubin kommt genau zum richtigen Zeitpunkt, da die Nachfrage nach KI-Rechenleistung sowohl für Training als auch Inferenz enorm steigt. Mit unserem jährlichen Zyklus zur Einführung einer neuen Generation von KI-Supercomputern und der extremen Co-Entwicklung von sechs neuen Chips macht Rubin einen großen Schritt in Richtung der nächsten KI-Grenzen.“

Die Plattform ist nach Vera Rubin benannt, der jüdisch-amerikanischen Astronomin, deren Arbeit zur Dynamik von Galaxien eine zentrale Rolle bei der Entdeckung der Dunklen Materie spielte. Neben dem Rubin-KI-Chip und der Vera-CPU umfasst das System Nvidias BlueField-4 DPU sowie drei Netzwerkkomponenten: ConnectX-9 SuperNIC, NVLink 6 Switch und Spectrum-6 Ethernet Switch, die alle in Israel entwickelt wurden.

Nvidia zufolge erzielt Rubin im Vergleich zur Vorgängergeneration Blackwell erhebliche Leistungssteigerungen. Das Unternehmen gibt an, dass die Plattform Mixture-of-Experts-Modelle mit viermal weniger KI-Chips trainieren kann und gleichzeitig die Inferenzkosten um bis zu 90 % reduziert.

Sam Altman, CEO von OpenAI, kommentierte: „Intelligenz skaliert mit Rechenleistung. Wenn wir mehr Rechenleistung hinzufügen, werden Modelle leistungsfähiger, lösen komplexere Probleme und haben größeren Nutzen für Menschen. Die NVIDIA Rubin-Plattform hilft uns, diesen Fortschritt zu skalieren, sodass fortschrittliche Intelligenz allen zugutekommt.“

Dario Amodei, Mitgründer und CEO von Anthropic, fügte hinzu: „Die Effizienzgewinne der NVIDIA Rubin-Plattform sind die Art von Infrastrukturfortschritten, die längere Speicherfähigkeit, bessere Argumentation und zuverlässigere Ergebnisse ermöglichen. Unsere Zusammenarbeit mit NVIDIA unterstützt unsere Sicherheitsforschung und unsere fortschrittlichen Modelle.“

Nvidia teilte mit, dass Systeme auf Basis der Rubin-Plattform voraussichtlich in der zweiten Hälfte des Jahres 2026 für Unternehmenskunden verfügbar sein werden.

Zuvor schrieben wir Amazon Fire TV Stick 4K Max: was sich, warum und wann sich das TV-Erlebnis in Deutschland ändert

Das könnte dir auch gefallen