Chips von Nvidia wurden zum Rückgrat Künstlicher Intelligenz. Konzernchef Jensen Huang will diese Schlüsselposition mit noch leistungsstärkeren neuer Technik verteidigen.

Der Halbleiter-Riese Nvidia will dem schnell wachsenden Bedarf an Rechenleistung für Künstliche Intelligenz mit einer neuen Generation seiner Chips begegnen. Das neue System mit dem Namen „Vera Rubin“ soll im Herbst 2026 auf den Markt kommen, sagte Nvidia-Chef Jensen Huang bei der Entwicklerkonferenz GTC. 

Rubin und die für dieses Jahr angekündigte Weiterentwicklung der aktuellen Plattform Blackwell sollen die Kosten für den Betrieb von KI-Software im Vergleich zu bisheriger Technik drastisch senken. 

Chips von Nvidia wurden zu einer Schlüsseltechnologie für Künstliche Intelligenz. Zunächst wurden die Systeme rund um die Welt vor allem für das Training von Anwendungen mit Künstlicher Intelligenz verwendet. Tech-Riesen wie Google oder der Facebook-Konzern Meta füllen ganze Rechenzentren damit – aber auch KI-Start-ups wie die ChatGPT-Erfinderfirma OpenAI setzen darauf. Diese Position ließ das Geschäft von Nvidia in den vergangenen Jahren explosiv wachsen.

Die nächste Chip-Generation ist nach Vera Rubin benannt – einer amerikanischen Astronomin, die wichtige Entdeckungen bei Dunkler Materie machte.

„KI-Fabriken“ und Roboter

Der Nvidia-Chef spricht von Rechenzentren als „KI-Fabriken“, in denen die Computerleistung für Künstliche Intelligenz steckt. „Jede Branche, die etwas herstellt, wird künftig zwei Fabriken haben“, sagte Huang. Eine werde wie bisher die physischen Produkte fertigen – und die Zweite werde die Software dafür liefern.

Huang stellte auf der hauseigenen GTC-Konferenz eine neue Plattform vor, die die Entwicklung humanoider Roboter beschleunigen soll. Bei dem Projekt mit dem Namen Isaac Groot N1 arbeitet Nvidia mit Disney und Googles KI-Firma DeepMind zusammen. Bei der Entwicklung von Technologie zum autonomen Fahren gewann Nvidia den US-Autoriesen General Motors als Kunden für seine Computersysteme und Software. 

100 Mal mehr Rechenleistung als gedacht

Huang versuchte zugleich, Sorgen von Investoren zu zerstreuen, dass die Welt künftig mit weniger KI-Rechenleistung auskommen könnte – und damit auch die Erwartungen an das zukünftige Geschäft von Nvidia zu hoch sein könnten. 

Die Welt gehe insgesamt dazu über, Antworten mit Hilfe Künstlicher Intelligenz frisch zu generieren, statt gespeicherte Antworten abzurufen. Insbesondere die neuen KI-Modelle, die zur Problemlösung Schritt für Schritt eine Argumentationskette aufbauen können, seien leistungshungrig. Als Beispiel demonstrierte Huang, wie das chinesische Modell Deepseek R1 150 Mal mehr Rechenleistung als eine traditionelle KI-Software brauchte, um die richtige Sitzordnung bei einer Hochzeit zu berechnen. Das herkömmliche Modell scheiterte zugleich an der Aufgabe. 

Insgesamt brauche man locker 100 Mal mehr Rechenkapazität als noch vor einem Jahr angenommen, sagte Huang. Dass er Deepseek zur Demonstration aussuchte, dürfte kein Zufall gewesen sein. R1 soll mit deutlich weniger Rechenaufwand trainiert worden sein als bisherige KI-Modelle. Das hatte vor einigen Wochen einen Kurssturz der Nvidia-Aktie ausgelöst. Huang argumentiert jedoch, dass der eigentliche Bedarf an Rechenleistung nicht beim Training, sondern bei der Erzeugung der Antworten entstehen werde.

Anleger waren unterdessen nicht so recht überzeugt: Die Nvidia-Aktie schloss im US-Handel mit einem Minus von 3,43 Prozent ab.