Computex News Prozessor

AMD enthüllt auf der Computex seinen neuen schnellsten AI-Chip: Vorhang auf für den AMD Instinct MI325X

Am heutigen Tag hat AMD ein Keynote aufgehabt auf der diesjährigen Computex. Auf dieser Messe hat AMD seinen neuen AI-Chip vorgestellt. Den AMD Instinct MI325X.

Image Source: AMD

Werfen wir doch erstmal einen kurzen Blick auf die Geschichte von AMDs Accelarator und auch dessen Zukunftspläne. 2020 ging es los mit seinem AMD CDNA MI100 Accelerator los. Der ersten speziall gebauten Beschleuniger für FP64 und FP32 HPC Workloads. Ein Jahr später folgte schon der Nachfolger. Den CDNA MI200 Accelerator. Hier gibt es eine dichtere Rechenarchitektur mit höherer Speicherkapazität und Bandbreite. 2022 ist dann der CDNA 3 erschienen. Hier hat man seinen Fokus auf einen einheitlichen Speicher gelegt mit AI Data format performance und in-node networking.

 

Dann erschien der bis uns vor kurzem aktuellen CDNA 3 MI300X mit generative AI-Leadership und dann folgte für dieses Jahr der neuste Accelerator von AMD. Der AMD Instinct MI325X Platform mit HBM3E-Speicher und höherer Rechenleistung. Aber hier soll der Plan noch nicht enden, denn bereits im nächsten Jahr geht es weiter mit einer neuen Version des CDNA. Den CDNA 4, der eine noch höhere Rechenleistung bieten soll und eine Speicherführung sein soll. 2026 wird dann eine Next-Gen Architektur des Beschleunigers vorgestellt werden.

Image Source: AMD

Aber genug ein Einblick in dieser Geschichte. Kommen wir genauer zu den Details des neuen Beschleunigers. Wie zuvor erwähnt, wird ein HBM3-Speicher eingebaut. Der Speicher soll doppelt so groß sein als sein Vorgänger. Genauer gesagt bis zu 288 GB. Auch die Bandbreite wird sich um ein 1.3x faches vergrößern auf 6 TB/s. Hier setzt AMD auch ein Zeichen gegen NVIDIAs H200-Accelerators. Man ist überlegen gegenüber seinem H200-Chip um ein Vielfaches. Auf einer AMD Instinct MI325X Platform sind hierbei 8 AMD Instinct MI325X GPUs verbaut. Hier soll der theoretische Peak von PF auf etwa 10.4 liegen. AN HBM3E-Speicher kommt auf ganze stolze 2.3 TB, die erreicht werden können. Die Infinity Fabric Bandbreite ist auf etwa 896 GB/s angesetzt.

Der Instinct unterstützt die beliebtesten Gen-AI-Models wie GPT-4, LLAMA 2 oder auch Stable Diffusion. Auch wird hierbei AMD ROCm-Technologie mit verwendet. So können z.B. über 700.000 Models genutzt werden bei Hugging Face durch ROCm. Aber auch mit OpenAIs Triton ist ein voller Support mit ROCm möglich. Man will die Grenzen von Data Center AI Performance pushen. Für AMDs Partner Microsoft erwähnt Satya Nadella, dass die MI300X eine Führung an Preis-Leistung-Verhältnis bietet und auch optimiert ist für Microsoft Azure Workloads.

“MI300X offers leading price/performance on GPT4 inference. Optimized for Microsoft Azure workloads”

Image Source: AMD

Zudem hat man einen kleinen Ausblick für sein Modell im nächsten Jahr vorgestellt. Dieser soll ein 3 nm Proces Node werden mit ebenfalls 288 GB HBME3-Speicher und FP4/FP6 Datatype support. Mehr erfährt man wohl erst im nächsten Jahr.

Die Informationen wurden von AMD vorab zur Verfügung gestellt. Einzige Bedingung war die Einhaltung der Sperrfrist am 03.06.2024 um 5.00 Uhr.

Quelle: AMD

Kommentar

Lade neue Kommentare

n
norpeimi

Mitglied

16 Kommentare 10 Likes

Man weiß das eine Chat-GPT suche bis zu 30 mal soviel Energie verschlingt als normales googeln . Und trotzdem tut die Industrie als gäbe es unendliche Energiereserven auf unseren Planeten . Weiter noch wird der Konsument langfristig gezwungen CPU/GPU mit immer mehr AI-Technik zu nutzen .
Es heist zwar bei jeder neuen CPU/GPU Technologie ...entweder um xxx% Effizienter oder um yyy% mehr Leistung , aber schlussendlich kommt nur die Leistung im Handel an und nicht die Effizienz . Dank @Igor können sich einige Mitglieder der Menschheit ihre Systeme auf Effizienz trimmen , aber der großteil der unerfahrenen Konsumenten wird das Gerät so verwenden wie es gekauft wurde .

Da man allerdings keine wirkliche Wahlmöglichkeit bei der Hardware der Zukunft haben wird ob AI ja oder nein , würde ich fast von einer "Diktatur der Industrie" durch private Monopolisten sprechen. Profit steht vor dem überleben der Menschheit .

AI hat , richtig Eingesetzt , sicherlich auch riesige Vorteile und Möglichkeiten . Für den Großteil der Privat-User ist es allerdings nur ein grund mehr der Beqeumlichkeit zu fröhnen . Man zahlt dafür selber immer weniger tun zu müssen ( siehe e-Bike ). Wer den Film Wall-e kennt weiß wovon ich schreibe ;-)

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Hoang Minh Le

Werbung

Werbung