Chips-Krieg spitzt sich zu! Nvidias GPU-Hegemonie wird von Google und Amazon eingekreist

MarketWhisper

Nvidia GPU lieferte im letzten Jahr 6 Millionen Stück, wobei der Einzelpreis eines Blackwell-Servers bei bis zu 3 Millionen US-Dollar liegt und wöchentlich 1000 Einheiten ausgeliefert werden, was das AI-Chipsmarkt beherrscht. Doch dieser Chipkrieg wandelt sich, da maßgeschneiderte Chips wie Google TPU, AWS Tranium, Broadcom ASIC aufsteigen. Analysten schätzen, dass Broadcom einen Marktanteil von 70-80% im Markt für maßgeschneiderte ASIC-Chips erreichen könnte.

GPU vom Gaming-Card zum AI-Kern der Goldenen Dekade

晶片戰爭白熱化

Der Aufstieg der Nvidia GPU vom Gaming-Card zum AI-Kernchip lässt sich bis 2012 mit AlexNet zurückverfolgen. Das Forschungsteam nutzte erstmals die Parallelrechenfähigkeit der Nvidia GPU für neuronale Netztraining, was in Bildklassifikationswettbewerben große Vorteile brachte und die Ära des Deep Learning einläutete. Der Kernvorteil der GPU-Chips liegt in Tausenden parallelen Verarbeitungskernen, die effizient Matrizenmultiplikationen und Tensor-Operationen ausführen können – ideal für AI-Training und Inferenz.

In großen Server-Racks können 72 GPU-Chips mittels NVLink-Technologie zu einer einzigen, riesigen Recheneinheit zusammengefasst werden. Nvidia liefert nicht nur GPUs an OpenAI, Regierungen und Unternehmen weltweit, sondern baut auch komplette Serversysteme. AMD konkurriert durch Instinct GPU-Chips und eine offene Software-Ökosystem, die kürzlich Unterstützung von OpenAI und Oracle erhalten haben. AMD-GPU-Chips basieren hauptsächlich auf Open-Source-Software, während Nvidia-GPUs eng auf CUDA optimiert sind.

Maßgeschneiderte ASIC-Chips als Schlüssel für Cloud-Giganten

Große Cloud-Anbieter wie Google, Amazon, Meta, Microsoft und OpenAI investieren stark in die Entwicklung maßgeschneiderter ASIC (Application-Specific Integrated Circuits). Diese speziell für eine einzelne Anwendung entwickelten Chips werden in den kommenden Jahren voraussichtlich die am schnellsten wachsende Kategorie von AI-Chips sein. Mit dem Reifegrad großer Sprachmodelle steigt die Nachfrage nach Inferenz, die Kosten, Energieverbrauch und Stabilität in Cloud-Plattformen sind kritische Punkte, in denen ASICs ihre Vorteile ausspielen.

Anders als universelle GPUs, die flexibel sind, sind ASICs wie „spezialisierte Hochpräzisionswerkzeuge“, die für bestimmte AI-Workloads hart codiert und optimiert sind – sie sind schneller und energieeffizienter. Der Nachteil ist ihre geringe Flexibilität und die hohen Entwicklungskosten, die oft mehrere hundert Millionen US-Dollar betragen. Daher können sich nur Cloud-Giganten solche anpassen lassen. Maßgeschneiderte AI-ASICs sind extrem teuer, mindestens mehrere hundert Millionen US-Dollar, aber für große Cloud-Anbieter lohnen sie sich durch höhere Energieeffizienz und geringere Abhängigkeit von Nvidia.

Google war der erste große Akteur im ASIC-Markt, der 2015 den Tensor Processing Unit (TPU) für KI-Beschleunigung entwickelte. Die TPU-Chips führten 2017 zur Erfindung der Transformer-Architektur, die die Grundlage für ChatGPT, Claude und andere AI-Modelle bildet. Heute ist Google bei der 7. Generation der TPU Ironwood-Chips angelangt und unterstützt Unternehmen wie Anthropic mit Millionen von TPUs beim Training ihrer Claude-Modelle.

AWS hat nach dem Erwerb von Annapurna Labs voll auf die eigene AI-Chip-Entwicklung gesetzt. Tranium- und Inferentia-Chips sind zentrale Bausteine in AWS Trainings- und Inferenzplattformen. 2024 trainiert Anthropic im AWS Data Center in Nordindiana Modelle mit 500.000 Tranium 2-Chips, ganz ohne Nvidia-GPUs, was den aufstrebenden Status von ASICs zeigt.

Diversifizierungstrend bei Chips und Kosten-Nutzen-Überlegungen

Broadcom und Marvell, führende Auftragsfertiger, sind strategische Partner großer Cloud-Unternehmen. Broadcom ist tief in die Entwicklung von Google TPU, Meta-eigenen Acceleratoren und den bald anstehenden ASICs von OpenAI involviert. Broadcom hilft beim Bau von Google TPU und Meta AI-Inferenz- und Trainingschips. Analysten schätzen, dass Broadcom einen Marktanteil von 70-80% im Markt für maßgeschneiderte ASICs erreichen könnte.

Edge AI-Chips erweitern sich auch auf persönliche Geräte. NPU (Neural Processing Units) sind speziell für Edge-AI auf Geräten konzipierte Chips, die bereits in Snapdragon-, AMD-, Intel- und Apple M-SoCs integriert sind – für Smartphones, Laptops, Smart Homes, Autos und Roboter. AI auf Geräteebene bietet besseren Datenschutz, geringere Latenz und mehr Kontrolle.

Vergleich der drei Chipkategorien

GPU-Chips: Vielseitig, geeignet für verschiedene Workloads, aber hoher Energieverbrauch und Kosten, eine einzelne Rack-Einheit kostet bis zu 3 Millionen US-Dollar

ASIC-Chips: Hochspezialisiert, schnelle Ausführung, niedriger Energieverbrauch, Entwicklungskosten von mehreren hundert Millionen US-Dollar, langfristiges Kosten-Nutzen-Verhältnis 30-40%

FPGA/NPU-Chips: Rekonfigurierbar, zwischen beiden, geeignet für Edge-Geräte und Testphasen

TSMC kontrolliert die Lieferkette der Chips

Ob Nvidia Blackwell, Google TPU oder AWS Tranium – die meisten AI-Chips werden letztlich bei TSMC gefertigt. Dies verbindet die AI-Rechenleistung eng mit der globalen Geopolitik. Die USA versuchen, durch die TSMC-Fabrik in Arizona und Intels 18A-Prozess einige Chips wieder nach Nordamerika zu holen. Chinesische Unternehmen wie Huawei und Alibaba entwickeln ebenfalls eigene ASICs, um im Exportkontrollumfeld lokale Alternativen zu schaffen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare