Nvidia erhöht Einsatz im KI-Chip-Spiel mit neuer Blackwell-Architektur

Mit der Ankündigung seiner Blackwell-GPU-Architektur am Montag auf seiner ersten persönlichen GPU Technology Conference (GTC) seit fünf Jahren steigert Nvidia die Leistung seiner Reihe von Chips für künstliche Intelligenz.

Laut Nvidia bietet der Chip, der für den Einsatz in großen Rechenzentren entwickelt wurde – wie sie beispielsweise AWS, Azure und Google antreiben – eine KI-Leistung von 20 PetaFLOPS, was bei KI-Trainings-Workloads viermal schneller und bei KI-Workloads 30-mal schneller ist. Ableitung von Arbeitslasten und bis zu 25-mal energieeffizienter als sein Vorgänger.

Im Vergleich zu seinem Vorgänger, dem H100 „Hopper“, sei der B200 Blackwell sowohl leistungsstärker als auch energieeffizienter, behauptete Nvidia. Um beispielsweise ein KI-Modell in der Größe von GPT-4 zu trainieren, wären 8.000 H100-Chips und 15 Megawatt Leistung erforderlich. Für die gleiche Aufgabe wären nur 2.000 B200-Chips und vier Megawatt Leistung erforderlich.

„Dies ist der erste große Fortschritt des Unternehmens im Chipdesign seit dem Debüt der Hopper-Architektur vor zwei Jahren“, schrieb Bob O’Donnell, Gründer und Chefanalyst von Technalysis Research, in seinem wöchentlichen LinkedIn-Newsletter.

Übung zum Umpacken
Allerdings bezeichnete Sebastien Jean, CTO von Phison Electronics, einem taiwanesischen Elektronikunternehmen, den Chip als „eine Neuverpackungsübung“.

„Es ist gut, aber nicht bahnbrechend“, sagte er gegenüber TechNewsWorld. „Es wird schneller laufen, weniger Strom verbrauchen und mehr Rechenleistung auf kleinerem Raum ermöglichen, aber aus technologischer Sicht haben sie es einfach kleiner gemacht, ohne wirklich etwas Grundlegendes zu ändern.“

„Das bedeutet, dass ihre Ergebnisse leicht von der Konkurrenz reproduziert werden können“, sagte er. „Obwohl es wertvoll ist, der Erste zu sein, denn während die Konkurrenz aufholt, geht man zum nächsten über.“

„Wenn Sie Ihre Konkurrenz zu einem permanenten Aufholspiel zwingen, verfallen sie, sofern sie nicht über eine sehr starke Führung verfügen, in eine ‚Fast Follower‘-Mentalität, ohne es zu merken“, sagte er.

„Indem Nvidia aggressiv und an erster Stelle steht“, fuhr er fort, „kann Nvidia die Vorstellung festigen, dass sie die einzig wahren Innovatoren sind, was die Nachfrage nach ihren Produkten weiter steigert.“

Obwohl es sich bei Blackwell möglicherweise um eine Umstrukturierungsmaßnahme handelt, hat es einen echten Nettovorteil, fügte er hinzu. „Praktisch gesehen werden Benutzer von Blackwell in der Lage sein, bei gleichem Energie- und Platzbudget mehr Rechenleistung schneller zu leisten“, bemerkte er. „Das wird es Lösungen ermöglichen, die auf Blackwell basieren, ihre Konkurrenz zu übertreffen.“

Steckerkompatibel mit Vergangenheit
O’Donnell behauptete, dass die Transformer-Engine der zweiten Generation der Blackwell-Architektur einen bedeutenden Fortschritt darstellt, da sie KI-Gleitkommaberechnungen von acht Bit auf vier Bit reduziert. „Praktisch gesehen können sie durch die Reduzierung dieser Berechnungen von 8-Bit bei früheren Generationen die Rechenleistung und Modellgrößen, die sie auf Blackwell unterstützen können, mit dieser einzigen Änderung verdoppeln“, sagte er.

Die neuen Chips sind auch mit ihren Vorgängern kompatibel. „Wenn Sie bereits Nvidia-Systeme mit dem H100 haben, ist Blackwell Plug-kompatibel“, bemerkte Jack E. Gold, Gründer und Chefanalyst bei J.Gold Associates, einem IT-Beratungsunternehmen in Northborough, Massachusetts.

„Theoretisch könnte man einfach die H100 ausstecken und die Blackwells anschließen“, sagte er gegenüber TechNewsWorld. „Obwohl man das theoretisch tun kann, ist es finanziell vielleicht nicht möglich.“ Beispielsweise kostet der H100-Chip von Nvidia 30.000 bis 40.000 US-Dollar pro Stück. Obwohl Nvidia den Preis seiner neuen AI-Chip-Reihe nicht bekannt gegeben hat, wird die Preisgestaltung wahrscheinlich in diese Richtung gehen.

Gold fügte hinzu, dass die Blackwell-Chips Entwicklern helfen könnten, bessere KI-Anwendungen zu entwickeln. „Je mehr Datenpunkte man analysieren kann, desto besser wird die KI“, erklärte er. „Wovon Nvidia mit Blackwell spricht, ist, dass man statt Milliarden von Datenpunkten Billionen analysieren kann.“

Auf der GTC wurden außerdem Nvidia Inference Microservices (NIM) angekündigt. „NIM-Tools basieren auf der CUDA-Plattform von Nvidia und werden es Unternehmen ermöglichen, benutzerdefinierte Anwendungen und vorab trainierte KI-Modelle in Produktionsumgebungen zu integrieren, was diesen Unternehmen dabei helfen dürfte, neue KI-Produkte auf den Markt zu bringen“, sagt Brian Colello, Aktienstratege bei Morningstar Research Services in Chicago schrieb am Dienstag in einer Analystenmitteilung.

Helfen bei der Bereitstellung von KI
„Große Unternehmen mit Rechenzentren können neue Technologien schnell einführen und schneller bereitstellen, aber die meisten Menschen arbeiten in kleinen und mittleren Unternehmen, die nicht über die Ressourcen verfügen, neue Technologien zu kaufen, anzupassen und bereitzustellen.“ Alles wie NIM, das ihnen dabei helfen kann, neue Technologien einzuführen und einfacher einzusetzen, wird für sie von Vorteil sein“, erklärte Shane Rau, Halbleiteranalyst bei IDC, einem globalen Marktforschungsunternehmen.

„Mit NIM finden Sie Modelle, die speziell auf das zugeschnitten sind, was Sie tun möchten“, sagte er gegenüber TechNewsWorld. „Nicht jeder möchte grundsätzlich KI betreiben. Sie wollen KI nutzen, die speziell für ihr Unternehmen oder Unternehmen relevant ist.“

Während NIM nicht so aufregend ist wie die neuesten Hardware-Designs, stellte O’Donnell fest, dass es auf lange Sicht aus mehreren Gründen deutlich wichtiger ist.

„Erstens“, schrieb er, „soll es Unternehmen schneller und effizienter machen, von GenAI-Experimenten und POCs (Proof of Concepts) in die reale Produktion überzugehen.“ Es gibt einfach nicht genügend Datenwissenschaftler und GenAI-Programmierexperten, sodass viele Unternehmen, die GenAI unbedingt einsetzen wollten, durch technische Herausforderungen eingeschränkt wurden. Daher ist es großartig zu sehen, dass Nvidia diesen Prozess vereinfacht.“

„Zweitens“, fuhr er fort, „ermöglichen diese neuen Microservices die Schaffung einer völlig neuen Einnahmequelle und Geschäftsstrategie für Nvidia, da sie auf einer Basis pro GPU/pro Stunde (sowie in anderen Variationen) lizenziert werden können.“ Dies könnte sich für Nvidia als wichtiges, dauerhaftes und vielfältigeres Mittel zur Einkommensgenerierung erweisen. Auch wenn es noch am Anfang steht, wird es wichtig sein, dies im Auge zu behalten.“

Verankerter Anführer
Rau prognostizierte, dass Nvidia auf absehbare Zeit als bevorzugte KI-Verarbeitungsplattform etabliert bleiben wird. „Aber Konkurrenten wie AMD und Intel werden in der Lage sein, bescheidene Teile des GPU-Marktes zu erobern“, sagte er. Und da es verschiedene Chips gibt, die Sie für KI verwenden können – Mikroprozessoren, FPGAs und ASICs – werden diese konkurrierenden Technologien um Marktanteile konkurrieren und wachsen.“

„Es gibt nur sehr wenige Bedrohungen für die Dominanz von Nvidia auf diesem Markt“, fügte Abdullah Anwer Ahmed, Gründer von Serene Data Ops, einem Datenverwaltungsunternehmen in San Francisco, hinzu.

„Zusätzlich zu ihrer überlegenen Hardware bildet ihre Softwarelösung CUDA seit über einem Jahrzehnt die Grundlage der zugrunde liegenden KI-Segmente“, sagte er gegenüber TechNewsWorld.

„Die größte Bedrohung besteht darin, dass Amazon, Google und Microsoft/OpenAI daran arbeiten, ihre eigenen Chips zu entwickeln, die um diese Modelle herum optimiert sind“, fuhr er fort. „Google hat seinen ‚TPU‘-Chip bereits in Produktion. Amazon und OpenAI haben ähnliche Projekte angedeutet.“

„Auf jeden Fall ist der Bau eigener GPUs eine Option, die nur den absolut größten Unternehmen offen steht“, fügte er hinzu. „Der Großteil der LLM-Branche wird weiterhin Nvidia-GPUs kaufen.“