Grafikkarten News

AMD bringt die GPU-Leistung mit der Instinct MI300X GPU etwas näher an die 1KW-Marke.

Bislang war NVIDIAs H100 GPU seit ihrer Markteinführung der energieintensivste Chip für Rechenzentren, da er eine maximale Nennleistung von 700 W aufwies. Diese Situation wird sich jedoch mit der Einführung der Instinct MI300X ändern, da diese noch höhere Stromverbrauchswerte aufweisen s0ll. Die AMD Instinct MI300X GPU wird in den Fußnoten zur Präsentation mit einem Stromverbrauch von 750 W angegeben. 

Quelle: AMD

Im Vergleich dazu verbrauchten die Instinct MI250X GPUs, die auf der CDNA 2 GPU-Architektur basieren, zwischen 500 und 560 Watt. Dies bedeutet, dass der Energiebedarf in nur einer Generation um 34 bis 50 Prozent gestiegen ist Diese Erhöhung des Energiebedarfs ist aufgrund des Designs des Chips selbst und der gebotenen Leistung zu erwarten. Diw AMD Instinct MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern. Gleichzeitig ist der Chip 5-mal effizienter, was bedeutet, dass er die gleiche Leistung bei deutlich geringerem Energieverbrauch erbringen kann. Diese Verbesserungen wurden wahrscheinlich durch technologische Fortschritte in der Chiparchitektur, dem Einsatz besserer Materialien und der Optimierung des Stromverbrauchs erreicht. AMD hat sich darauf konzentriert, die Leistungsfähigkeit und Effizienz seiner GPU-Beschleuniger zu verbessern, um den steigenden Anforderungen im Bereich der KI-Workloads gerecht zu werden. Sagt man.

Quelle: AMD

Die AMD Instinct MI300X GPU ist eine hochleistungsfähige Grafikprozessoreinheit, die voraussichtlich über 304 CDNA 3 Recheneinheiten verfügen wird. Im Vergleich dazu hatte die Vorgängerin MI250X lediglich 220 Recheneinheiten. Diese Steigerung von 38% in der Anzahl der Recheneinheiten bedeutet, dass die MI300X eine erhebliche Leistungssteigerung bieten wird. Ein weiteres beeindruckendes Merkmal der MI300X ist der HBM3-Speicher mit einer Kapazität von 192 GB. Im Vergleich dazu verfügte die MI250X über 128 GB HBM2e Speicher.

Die Kapazität des HBM3-Speichers wurde um 50% erhöht, was eine bedeutende Verbesserung darstellt. Da HBM3 eine neuere Speichertechnologie ist, werden auch viel schnellere Übertragungsgeschwindigkeiten erwartet. Ein großer Vorteil der Instinct MI300X GPU liegt im enormen 192 GB VRAM. Dies ermöglicht es, große Sprachmodelle mit weniger GPUs auszuführen als die Konkurrenz. Zum Beispiel kann die MI300X bis zu 540 Milliarden LLM-Parameter mit weniger GPUs verarbeiten als die Konkurrenzprodukte, die 80 GB H100-Chips verwenden.

Quelle: AMD

Die steigenden Leistungsanforderungen in Bezug auf GPUs und HPC-Beschleuniger sind eine fortlaufende Entwicklung. Durch die zunehmende Leistungsfähigkeit dieser Komponenten wird der Bedarf an Rechenleistung kontinuierlich erhöht. Die erwähnte Gigabyte-Server-Roadmap deutet darauf hin, dass CPUs, GPUs und APUs sich der Grenze von 1000 Watt annähern. Insbesondere AMD hat in verschiedene Chip- und Verpackungstechnologien investiert, um den Stromverbrauch erheblich zu reduzieren.

Obwohl AMD als das Unternehmen mit dem stromhungrigsten Chip bekannt ist, haben sie dennoch Technologien entwickelt, um den Energiebedarf zu senken. Auf der ISSCC (International Solid-State Circuits Conference) im Jahr 2023 äußerte sich Dr. Lisa Su, CEO von AMD, zur Energieeffizienz im Bereich des Zettascale-Computings. Sie erklärte, dass ohne neue Designs ein Kernreaktor erforderlich wäre, um den Energiebedarf für ein solches System zu decken. Dies unterstreicht die zunehmende Herausforderung, mit der Unternehmen konfrontiert sind, um die steigenden Leistungsanforderungen zu erfüllen. Um diesem Bedarf gerecht zu werden, wird AMD voraussichtlich die MI300X GPUs auf den Markt bringen. Diese GPUs werden auch in konservativeren Varianten mit niedrigerem Stromverbrauch erhältlich sein, insbesondere im PCIe-Formfaktor. Obwohl die genauen Details noch nicht bekannt gegeben wurden, ist es wahrscheinlich, dass diese Varianten bis 2024 erhältlich sein werden.

Quelle: WccfTech

Kommentar

Lade neue Kommentare

Derfnam

Urgestein

7,517 Kommentare 2,032 Likes

Der Verbrauch wird erhöht, weil die Architektur effizienter ist?

Antwort Gefällt mir

Igor Wallossek

1

10,454 Kommentare 19,546 Likes

Im Verhältnis zur Rechenleistung 🙈

Antwort 1 Like

grimm

Urgestein

3,172 Kommentare 2,104 Likes

Oh Boy! Das muss dieser Fortschritt sein, von dem alle reden...

Antwort 3 Likes

G
GenFox

Mitglied

33 Kommentare 15 Likes

Seit wann wird die GPU-Leistung in kW angegeben?

Antwort Gefällt mir

grimm

Urgestein

3,172 Kommentare 2,104 Likes

"+38% Rechenleistung" >>> "+34-50% Energiebedarf"
So stehts im Artikel. Der Artikel thematisiert nicht ausschließlich die Leistungssteigerung, sondern setzt diesen in Zusammenhang mit dem gesteigerten Energiebedarf.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,032 Likes

Über eine gestiegene Leistung bei gesunkenem Verbrauch kann man schwerlich meckern. Aber das hier?

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

533 Kommentare 446 Likes

Scheint mir eine Medienkompetenzübung zu sein ^^

Mit LN2 schafft man bestimmt auch die 2,5kW. Rolling Coal war gestern ;)

Antwort Gefällt mir

T
Tombal

Veteran

109 Kommentare 28 Likes

Das ist wie früher mit den Glühlampen, deren Helligkeit man auch nicht in Lumen angegeben hat, sondern gesagt hat: "schraub doch mal ´ne 100 W Birne rein". Das begreift auch der tumbe Otto-Normalverbraucher besser, der ja auch seine HiFi-Anlage nach dem gleichen Kriterium ausgewählt hat: "Mein Receiver hat 4 X 1000W PMPO".

Antwort Gefällt mir

Annatasta(tur)

Veteran

374 Kommentare 133 Likes

Ein bisschen Luft nach oben is ja noch, bis man bei den 3600 W für Hausstrom angekommen ist. Und es gibt ja auch noch Herdsteckdosen, die man sich unter seinen Schreibtisch anschliessen lassen kann. Also alles (noch) nicht so schlimm, wenn man sich mal ne schnelle Karte für´s Gaming leisten möchte.;):p

Antwort Gefällt mir

O
Oberst

Veteran

344 Kommentare 134 Likes

Entweder wurde der Artikel geändert, oder du hast nicht richtig gelesen. Aktuell steht da "Diese Steigerung von 38% in der Anzahl der Recheneinheiten". Also wurde die Anzahl der Compute Units um 38% erhöht. Was da nicht steht: Ist die Anzahl Shader pro CU gleich geblieben, oder vielleicht erhöht worden?
Was noch drin steht:
"MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern"
Von 38% mehr Leistung ist da also nicht ansatzweise die Rede, sondern von bis zu (wichtig: Hersteller geben immer "bis zu" an, klingt besser) 800% mehr Leistung.
Und 800% mehr Leistung bei 50% mehr Verbrauch bringt auch eine nicht unerhebliche Effizienzsteigerung mit sich, wie der Artikel ja auch behauptet.
So ganz nebenbei würde ein tatsächlicher Faktor 8 bei FP16 bedeuten, dass AMD fast 60% vor NVidia's H100 wäre. Der wäre nur noch bei FP8 grob 20% vorne. Das wäre schon sehr verwunderlich und eine bittere Pille für NVidia. Aber wo der Faktor 8 erreicht wird, ist aktuell ja noch nicht klar. Insofern kann das auch nur ein unangenehmer Rempler für NVidia werden und nicht ein blaues Auge.

AMD scheint im Data Center Bereich jedenfalls fest entschlossen Richtung Wachstum zu laufen. Wenn man mal schaut, wie schnell man von MI100 über MI250X jetzt zu MI300X gegangen ist. Da muss NVidia wohl auch mal den Takt erhöhen, wenn sie nicht bald überholt werden wollen.

Antwort 2 Likes

Klicke zum Ausklappem
G
GenFox

Mitglied

33 Kommentare 15 Likes

Es gibt einen Unterschied zwischen Rechenleistung (Leistungssteigerung) und Energiebedarf. Letzteres kann man in Watt (W oder hier kW) angeben, bei der Rechenleistung ergibt das keinen Sinn.

Aus dem Satz ("MI300X bietet eine beeindruckende 8-fache Leistungssteigerung bei KI-Workloads im Vergleich zu seinen Vorgängern") ließe sich sonst nur folgern, dass das Vorgängermodell 1000W/8=125 Watt bei gleicher Rechenleistung benötigt hat. Ist natürlich quatsch, weil (Rechen-)Leistung ungleich Energiebedarf.

Einfach noch mal die Überschrift lesen "AMD bringt die GPU-Leistung mit der Instinct MI300X GPU etwas näher an die 1KW-Marke"

Antwort Gefällt mir

8j0ern

Urgestein

2,725 Kommentare 851 Likes

@ Oberst
Ich wäre da bei dir.
Welche Rechnleistungs Einheit spielt vorerst mal keine Rolle. Immerhin wird FP16 gennant.
Evt. auch um der Konkurrenz keine Möglichkeit zu geben, selbst noch was zu tricksen. ;)

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,686 Kommentare 1,029 Likes

GPU wie in Grafikkarte? Hat die MI300x überhaupt Anschlüsse dafür? Das Ding ist doch als KI Beschleuniger gedacht und eingesetzt. Und die haben meistens überhaupt keinen Display Port Anschluss (oder HDMI, oder sonstige Video-Outs). Ansonsten wäre es schon die Karte für Leute mit extremen Ansprüchen und noch extremeren Bankkonto. Die MI300 sind nämlich richtig teuer (das Gegenstück von NVIDIA auch).

Antwort Gefällt mir

C
ChaosKopp

Urgestein

572 Kommentare 607 Likes

[...]
Ich finde die Formulierung der Überschrift auch etwas ungewöhnlich, aber die deutsche Sprache ist bisweilen eine Herausforderung.

8fache Leistung ist ungleich 8facher Leistungssteigerung. 800 % mehr Leistung ist in meinem Sprachempfinden auch falsch, wenn es 700 % mehr Leistung sind, also 800 % der Performance.

Antwort Gefällt mir

owl really?

Mitglied

10 Kommentare 1 Likes

danke für den artikel. ich denke, dass es der zeit nicht anders geht, überhaupt an leistung zu gewinnen.
kleiner witz/ off topic...das ist ein schneller computer, der zu viel strom kostet. :-/
nichts für ungut.

View image at the forums

Antwort 1 Like

8j0ern

Urgestein

2,725 Kommentare 851 Likes

Ja, die MI300X ist eine reine CDNA3 Karte für AI Arbeitslasten.
Die MI300A ist ein eigenständiges System, mit CPU, GPU und HMB3 auf einer Platine: (APU)

Genau das Bild verdeutlich es nochmal, jede GPU benötigt ein extra Mainboard und RAM und CPU.

Mit der MI300A kann man jede Karte im Server eine eigene Aufgabe geben ohne das die Server CPU belastet wird, welche dann für hohe Datentransferraten genutzt werden können.
.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung