Ist Nvidia unantastbar? Drei Gründe, warum der Konzern um die Führungsposition bangen muss

Seit Kurzem wird der Chipkonzern Nvidia an der Börse mit rund drei Billionen US-Dollar bewertet. Damit löst Nvidia Apple als bisher zweitwertvollstes Unternehmen ab. Die Rekordbewertung hat heftige Diskussionen ausgelöst. Sicher, Nvidia ist ohne Zweifel der weltweit führende Hersteller von KI-Beschleunigerchips, und die großen KI-Modelle sorgen für eine geradezu explosionsartige Entwicklung der Nachfrage nach solchen Chips. Aber ist der Konzern wirklich so einzigartig? Oder könnte die Blase demnächst platzen? Betrachtet man die Frage aus einer technischen Perspektive, gibt es durchaus ein paar Gründe, skeptisch zu sein.
Erfolgsfaktoren: Früher Start und gutes Ökosystem
Nvidias Kerngeschäft waren ursprünglich Chips für Grafikkarten. Die Nvidia-Entwickler erkannten allerdings schon ziemlich früh – um 2005 herum –, dass sich die Chips auf Grafikkarten auch als Rechenbeschleuniger nutzen lassen. Zunächst ging es dabei um alle möglichen wissenschaftlichen Berechnungen – seit Mitte der 2010er-Jahre dann mehr und mehr um KI.
Aber der Reihe nach: Was haben Grafikarten mit KI zu tun? Die Mathematik ist ähnlich. Um einen halbwegs realistischen räumlichen Eindruck zu erzielen, berechnen Computerspiele Szenen, in denen die Gamer sich bewegen, tatsächlich als dreidimensionale Gitterwelten. Das Rendering dieser Szene, das, was auf dem Screen zu sehen ist, ist eine Projektion dieser dreidimensionalen Welt auf die zwei Dimensionen des Bildschirms. Jedes Mal, wenn sich die Perspektive ändert, also die Spielfigur bewegt, muss diese Projektion neu berechnet werden.
Mathematisch geht das, indem man in Zeilen und Spalten angeordnete mathematische Objekte, Matrizen, miteinander multipliziert. Die Rechenvorschrift für eine Matrizenmultiplikation wiederum besteht aus einer Abfolge von nur zwei Grundrechenoperationen: Multiplikation und Addition, die aber auf sehr viele verschiedene Datenpunkte angewandt werden müssen. Um das zu beschleunigen, rechnen viele darauf spezialisierte kleine Rechenwerke in der Grafikkarte – Graphical Processing Units, GPUs – parallel. Und genau dieselben Rechenoperationen kommen auch bei Berechnungen für neuronale Netze ständig vor. Deshalb eignen sich GPUs auch gut, um das Training und die Anwendung von neuronalen Netzen zu beschleunigen.
Um das Potenzial der Grafikkarten nutzbar zu machen, entwickelte Nvidia bereits sehr früh wichtige Software-Bibliotheken, die die Arbeit von Programmierern enorm erleichtern. Gleichzeitig bindet das Software-Ökosystem die Entwickler auch an die Produkte von Nvidia, denn mittlerweile kann man zwar auch andere Hardware-Beschleuniger kaufen, müsste dann aber die Software umfangreich auf die neue Hardware anpassen.
Gleichzeitig gelang es Nvidia mit ausgezeichneten Beziehungen zu Hardware-Herstellern wie etwa TSMC, technisch führend zu bleiben und jedes Jahr leistungsfähigere Hardware zu präsentieren. Die neuesten KI-Chips des Unternehmens werden dementsprechend in Vier- oder Fünf-Nanometer-Technologie gefertigt und gehören damit zur fortschrittlichsten Hardware, die man aktuell kaufen kann.
Risikofaktor China
Dennoch gibt es eine Reihe von Risikofaktoren, denen das Unternehmen ausgesetzt ist. Der erste Faktor ist zur Hälfte technisch und zur Hälfte politisch: das Geschäft mit China. Seitdem die USA den Export nach China immer mehr beschränken, bricht Nvidia ein wesentlicher Teil seines Umsatzes weg. Seit Jahren liefert der Konzern sich daher mit den US-Behörden ein Wettrennen, in dem er versucht, seine Chips für das China-Geschäft so auszulegen, dass sie den Buchstaben nach gerade so legal ausgeführt werden können, aber trotzdem noch attraktiv genug für chinesische Kunden sind. Trotzdem bröckelt Nvidia das China-Geschäft so langsam weg, denn die politisch erzwungene Entkopplung des chinesischen Marktes hat die chinesische Chipentwicklung massiv beschleunigt. Huawei versucht sich mittlerweile als – auch technisch – ernst zu nehmender Konkurrent von Nvidia zu positionieren. Zunächst hauptsächlich in China selbst, aber möglicherweise bald auch international.
Risikofaktor Big Tech
Zudem haben sowohl Apple als auch OpenAI und Google eigene KI-Chips angekündigt. Und Intel will mit neuen Prozessoren gemeinsam mit Microsoft den Markt für „KI-PCs“ entwickeln. Die neue Generation an Prozessoren bietet integrierte KI-Beschleuniger, damit KI-Funktionen besser – und effizienter – in die nächsten Generationen von PCs und Laptops integriert werden können. Die KI-Beschleuniger sind zwar nicht so leistungsfähig wie die Spezialchips von Nvidia. Das wird für diese Anwendungen aber auch gar nicht nötig sein.
Risikofaktor Innovation
Mit Sambanova Systems, Cerebras Systems oder DeepX gibt es zudem eine Reihe von Start-ups, die beträchtliche Investorengelder einsammeln für die Entwicklung spezialisierter KI-Beschleunigerchips, die selbst Nvidia schlagen sollen. Die Idee dahinter: Die Chips enthalten eine Reihe von spezialisierten Rechenelementen – ähnlich wie die GPUs, aber noch stärker maßgeschneidert. Die einzelnen Elemente arbeiten unabhängig und werden über den Datenfluss gesteuert. Die Intelligenz in dem Chip besteht darin, die richtigen Daten zur richtigen Zeit an die richtige Stelle zu bringen. Damit lassen sich dann ziemlich komplexe Vorgänge wie zum Beispiel eine Bildauswertung sehr effizient und schnell erledigen. Der Nachteil ist allerdings, dass diese Chips meist nur eine einzelne Aufgabe sehr gut lösen können und nicht so flexibel sind wie die Beschleuniger von Nvidia.
Unabhängig davon versuchen zahlreiche Forschungsgruppen mit einer neuen Art von Datenverarbeitung Chips noch schneller und effizienter zu machen: mit dem neuromorphen Computing. Die Idee dabei: In herkömmlichen Chips werden Daten aus dem Speicher zum Rechenwerk transportiert, dort verarbeitet, und das Resultat wird dann zurückgeschrieben. Der Datentransport ist aus zwei Gründen problematisch: Zum einen begrenzt er die Performance, weil er langsamer ist als die Verarbeitung – der Von-Neumann-Flaschenhals. Zweitens verbraucht das Transportieren eine Menge Energie. Der neue Ansatz nutzt physikalische Eigenschaften von Speicherbausteinen aus, um Daten direkt im Speicher zu verarbeiten: Das In-Memory-Computing befindet sich allerdings noch in der Erforschung.