AMD Warum kann AMD "Zen-Technik" (Chiplets) bzw. Infinity Fabrik nicht bei GPUs nutzen?

Blubbie

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
809
Bewertungspunkte
275
Punkte
64
Standort
Berlin
Hallöchen zusammen,

mal ne ganz dumme Frage.
AMD nutzt doch die Zen/Infinity-Fabric (ich meine die Chiplets) im RYZEN/Threadripper und Epic Prozessor und kann so viel mehr physische CPU Kerne in einen Prozessor packen. Außerdem hat AMD bzw. der Fertiger der Chips eine viel bessere Ausbeute aus einem Waver. Da man die Chiplets beliebig miteinander kombinieren kann - daher gibt es ja auch 4, 6 , 8, 12, 16 Kern-CPUS im Mainstream. Klar sind hier die 16-Kerner am "teuersten" da man hier 2 Chiplets mit je 8 aktiven Kernen braucht - aber man muss eben nicht ein einzigen Chiplet wegschmeißen, nur weil er nur 2, 4 oder 6 gute Kerne hat und kann diese in anderen CPUs nutzen.

Dadurch hat AMD doch massig Vorteile gegenüber Intel die mit den Kernen und der Multicore Performance nicht hinterherkommen.

Wieso geht das eigentlich nicht auch bei GPUs? Also z.b. bei Navi? Wenn AMD bei der Technik so sehr führend ist - müsste es doch ein leichtes sein Big-Navi und Super-Big-Navi und Extram-Mega-Big-Navi GPUs zu bauen.

Zur Zeit hat z.b. die beste Consumer Karte von AMD die
Radeon RX 5700XT 64 ROPs und 160 Textureinheiten.
Die beste grüne Karte von Nvidia,
die RTX 2080 Ti hat 88 ROPS und 272 Textureinheiten:

Wenn AMD "einfach" die ROPs und Textureinheiten verdoppeln würde, hätte man doch NVidia locker "geschlagen".
Oder eben einfach zwei Navi-10 Chiplets in die GPU rein quetschen und fertig.
Also zumindest auf dem Papier sieht es doch so aus.

Und vom Kostenfaktor - wären die Kosten Radeon Karten immer noch geringer als die utopischen Kosten von Nvidia. Nvidia baut doch wie Intel monolitische riesen-Chips.
Damit wäre AMD doch deutlich billiger - denn man braucht ja nicht 2 Radeon Karten sondern nur die 2 Radeon GPUs + stärkere Stromversorung.
Also egal wie ich mir das rechne - AMD wäre immer deutlich günstiger und könnte doch beliebig weit skallieren. (Raytracing sei mal außen vor...)

Man könnte eine GPU fertigen die dann einen Navi10 + Navi14 Chip hat - oder 2xNavi10 oder 3xNavi14 oder 3xNavi10...

Die aktuellen Chips von AMD sehen ja auch von den Daten her fast so aus als ob da schon eine "Verdopplung" drin ist.
Also Navi 14 hat 32 ROPs - die Hälfte von Navi10 (64 ROPs) .. ähnlich bei den Textureinheiten mit Navi 14 (88) Navi 10 (160)

Könnt ihr dazu was sagen? Kennt sich jemand mit Grafikkartenfertigung aus?
Werden wir bei Grafikkarten mit der nächsten AMD Generation den gleichen Durchbruch bekommen wie AMD es jetzt mit den Ryzen Prozessoren gegenüber Intel hat?


3013


3014
 
Das gibts da schon bzw. ist nicht so einfach.

Zum einen sind GPUs schon hoch parallelisierte Recheneinheiten - schau Dir mal an wie viele Shader (plus ggf. Tensorcores) so ein Ding hat, das sind jetzt schon ein paar Tausend pro Chip. Und es ist jetzt schon schwierig, die Dinger adäquat an den Speicher anzubinden.

Zusätzlich gab/gibt es bei GPUs Crossfire und SLI, was eben der Versuch war, mehrere davon zu verbinden, zum Teil sogar auf einer Karte (allerdings nicht mehr im jüngerer Vergangenheit). Bei GPUs wirken sich dann aber Latenzen nochmal anders aus und das „Zusammenschalten“ ist nicht trivial (denk nur an die Mikroruckler). Wie man bei den ersten beiden TR-Versionen sehen konnte, hatte AMD da auch noch eine Lernkurve, die sich nicht ohne Weiteres auf GPUs übertragen lässt.

Ich will aber nicht ausschließen, dass es irgendwann auch wieder Multi-Chip-Karten geben wird.
 
Ja okay aber sowohl bei SLI/Crossfire als auch bei Multi GPU Karten (Geforce 7800 GT Dual) sind ja jeweils mehrere dedizierte Grafikchips, also GPUs.

Das ist ja schon was anderes als die Zen/Infinity Fabric Technik. Dann hätte man ja zwei oder mehr AM4 Sockel auf dem Mainboard.

Das was ich meine ist, dass der innere Kern der GPU, der der die Rechen und Textur Einheiten enthält, in Chiplets gekapselt ist.

Da sind ja die "Teile" viel dichter beisammen als eine zweite Grafikkarte per SLI zu verbinden oder einen zweiten Cup auf der Platine zu haben.
 
Eben bzw. eben nicht. Die Chiplets sind im Prinzip „vollwertige“ CPUs abgespeckt um einige Funktionen, die z.T. deaktiviert bzw. in den IO-Die ausgelagert sind. Bei der GPU ist das halt leider ähnlich mit dem Unterschied, dass die Dinger einfach auch jetzt schon um einiges größer sind als CPUs.
 
Allein die Kühlung von so ner Karte dürfte arg schwierig sein, mal die Möglichkeit einer Umsetzung deiner Idee als durchführbar akzeptiert.
Es gibt schon genug Probleme damit bei den CPUs mit mehr als einem Chiplet und die Dinger haben, wenn man sich den 3950X mal rauspickt, noch ne relativ moderate Leistungsaufnahme.
 
Die Frage ist auch, ob man ROPs, ALUs und Textureinheiten von Nvidia und AMD einfach so zahlenmäßig gegeneinander stellen kann? Nvidia wird sicher einen Sack Patente haben, der deren Architekturen schützt und AMD muss entweder darum herumdesignen oder neue Wege gehen.
Man kann auch nicht beliebig viele Recheneinheiten auf einem Chip vereinen, da die Chipgröße aus Ausbeutegründen meist auf wenige Quadratzentimeter begrenzt ist. Der TU102 reizt hier mit 754 mm2 schon so ziemlich das wirtschaftlich sinnvoll Machbare aus.
Selbst wenn AMD nun einen deutlich leistungsfähigeren Chip als die bisherigen Navis bringt, kann Nvidia einfach Ampere nachschieben, da beide Serien dieses Quartal bei TSMC auf der 7 nm-Linie produziert werden.
Edit: Das Siliziumsubstrat, in und auf das die Chips integriert werden, nennt sich übrigens Wafer (engl. Waffel, dünner Keks) und nicht Waver (engl. Schwenker). Klugscheißmodus aus, sorry, konnte ich mir nicht verkneifen.
 
Zuletzt bearbeitet :
Der TU102 reizt hier mit 754 mm2 schon so ziemlich das wirtschaftlich sinnvoll Machbare aus.

Genau darum geht es mir mit meiner Frage. Diese wirtschaftliche Chip Größe ist doch Dank der Chiplet Technologie die AMD bei den 3000er Ryzen nutzt, doch quasi ausgehebelt.

AMD kann doch einfach mehrere Chiplets in einer CPU kombinieren.
So gesehen könnte AMD mit der Technik beliebig den Core Count durch mehr Chiplets erhöhen.

Das machen die sich zb. Bei den threadrippern exisiv. Da sind bis zu 4(?) Chiplets à 8 Kerne= 32 Kerner Threadrippern kein Problem. Man braucht nur 4 kleine Chiplets die sonst einzeln in einem 3700x stecken würden.

So gesehen könnte AMD auch relativ schnell Threadripper mit 64 oder 128 lernen bauen. Wenn denn das mit der Speicheranbindung und Strom Versorgung klappt.

Und meine Frage wäre ob das so nicht genauso gut mit GPUs gehen müsste.

Also keine großen Chips sondern GPUs die mehrere Chiplets enthalten statt auf Einzelchip Grüße zu gehen.
 
  • Like
Bewertungen: Thy
Wir haben schon verstanden, was du meinst.

Ist wie gesagt alles nicht so einfach und was man so „hört“ kann nicht nur AMD „Chiplet-Design“: bei NVIDIA angeblich nach Ampere mit Hopper eine Möglichkeit:

 
Schon alleine die Bandbreite Anforderungen von GPUs sind andere , wo ein Ryzen 3950 mit 60gb/s gut klar kommt bewegen sich selbst Mittelklasse Karten wie Navi und die 2070er bei 450GB/s und skalieren sogar weiter mit mehr
2080Ti kratzen schon an 700Gb/s

Dementsprechend müsste der IF massiv aufgebohrt werden . Das würde wiederum bedeuten das der Stromverbrauch steigt usw.
 
@Blubbie: Ich hatte den Kern deiner Idee tatsächlich noch nicht voll erfasst, die im Prinzip gut ist, da man dann flächenmäßig kleinere Chips mit einer höheren Ausbeute fertigen könnte. Nachteilig wäre allerdings, wie von Anderen hier schon beschrieben, der Verbindungsaufwand der Chiplets untereinander und die damit einhergehenden Probleme wie Latenzen, Energieverbrauch, usw.
Falls es Vorteile bieten würde, würde es ein Hersteller machen. Aber GPUs haben gegenüber CPUs auch den Vorteil, dass sie wesentlich redundanter ausgelegt werden können, da GPUs aus vielen tausend gleichartigen Recheneinheiten bestehen, von den einige Defekte beim Endtest markiert und abgeschaltet werden können. Bei CPUs ist das nur sehr begrenzt möglich, daher greifen dort die Vorteile des Chiplet-Designs wohl stärker.
 
Ich denke auch das die Anbindung an den Speicher hier zum Problem werden könnte. Die Datenmengen müssten ja nicht nur vom RAM zum IO-Die sondern auch von diesem zu den GPU-Chiplets. Und das sehr schnell mit möglichst niedrigen Latenzen. Die anderen haben es aus meiner Sicht eh schon recht schön umschrieben, was da die Probleme sein könnten.
 
Okay kapiert. Hoffe mal dass da trotzdem noch was geht bei den Navis.

Ist schon blöd aus Gamersicht können wir uns mit CPU Rechenleistung / Kernen tot werfen. Wir haben eigentlich mittlerweile mehr CPU Kerne als wir brauchen.

Nur bei den Grafikkarten gibt es kaum einen größeren Leistungsdurchbruch. Hier sind immer noch keine 60+ frames per second durchgehend, in allen games mit maximalen settings möglich. Ganz zu schweigen von 144fps.. Und erst recht nicht mit Raytracing... :-(
 
Das ist das moderne 'Can it run Crysis'-Problem. Alles Absicht. Just buy it-Syndrom.
 
Schaut mal hier:


Grundsätzlich sind Bill Dally und Jonah Alben im Interview mit Semiconductor Engineering optimistisch bezüglich des Chiplets, aus denen sich GPU-Chips modular zusammensetzen lassen. [...] Überträgt man das Konzept auf Grafikkarten, könnte ein Hersteller so seine Modelle wie in einem Baukasten aus Chiplets nach Größe und Geschwindigkeit konfigurieren.

und hier:

Chiplets sind wohl der Weg in die Zukunft
Es wird mehr und mehr deutlich, dass kaum ein Hersteller ohne Chiplet-Design auskommen wird. ....., Die von AMD gewählte Form mit CPU-Dies aus der 7-nm-Fertigung und dem I/O-Die aus der 12-nm-Fertigung ist wohl die erste konkrete Umsetzung, die als Chiplet-Design bezeichnet werden kann. Funktion und Fertigung können voneinander getrennt entwickelt und gefertigt werden – am Ende werden sie in einem Package untergebracht.

Wenn auch noch nicht in der nächsten Generation der GeForce-Grafikkarten, früher oder später wird NVIDIA hier wohl auf ein Chiplet- oder MCM-Design wechseln. Wohl als erstes wird man diesen Schritt für bestimmte Datacenter-Produkte gehen. Das Forschungspapier für einen AI-Beschleuniger zeigt dies recht deutlich.
 
Natürlich wird in die Richtung geforscht. Aber es gilt wie immer das, was Birne mal so schön griffig formulierte: Entscheidend ist, was hinten rauskommt.
Dass AMD jetzt, nachdem es bei den CPUs hinhaut und die aufm Markt sind, nicht die Hände in den Schoß legt und sich einen drauf rubbelt, ist doch klar. Aber: wenn es so einfach wäre wie bei den CPUs hätten die schon irgendwas in die GPU-Richtung verlauten lassen.
 
Hat NV dafür ;) 2019 know-how zum Preis von knapp 7Mrd. eingekauft?
 
Der Mellanox-Deal war meines Erachtens ein sehr geiler Move, der weit über Gedankenspielereien zu Consumer-GPUs hinausgehen dürfte. ;)
 
Dafür musst du erstens 7Mrd. auftreiben ;) Das ist für den CFO bestimmt KEIN geiler Move ;) Zweitens, hatte das Intel auch auf dem Radar. Das war denen aber irgendwann zu teuer. Oder sie haben nur rumgepokert, damit es für NV nicht zu preiswert wird ;)

Die Verbindung zwischen den Chips auf der Apple DoppelVega, läuft doch mit 90GB/s. Oder vertue ich mich? Weil, wenn wir sagen, ab ~200 GB/s wirds bequem für solche Spielchen, dann sind das keine Welten mehr, die da noch fehlen.

Ich sehe auch die Komplexität bei der "Brücke" nicht so hoch wie bei CPUs. Grob gesagt ist für die GPU alles ein einziger Stream. Von solchen Workloads können CPUs meist nur träumen.
 
Zuletzt bearbeitet von einem Moderator :
Mellanox ist quasi eine Intel-Ausgründung und technisch hat Intel was vergleichbares zu dem Mellanox-„Interconnect“, heißt nur anders (grad vergessen wie und zu faul für Google).

Den Blauen fehlt halt die GPU Power bzw. die andere Peripherie, die spannender wird, zumindest wenn man kein CPU Bottleneck mehr hat. :D

Und die 7 Milliarden schüttelt Intel aus der Portotasche, wenn sie wollten. Oder dürften. Hätte Intel sich ernsthaft in Stellung gebracht, hätten wahrscheinlich die Kartellbehörden auch noch genauer hingeschaut als bei NVIDIA (nicht wegen gemeinen wettbewerbswidrigen Absprachen sondern normaler Fusionskontrolle).

Nur mal am Rande: die haben vor nicht allzu langer Zeit auch mal übergangsweise 2 Milliarden in ASML geschoben, um die Entwicklung voranzutreiben (übrigens mit ein paar anderen „Litografie-Interessierten zusammen - die 2 Milliarden waren nur allein von Intel...).

Auf diesem Level stecken (technische und finanzielle) Aufwände dahinter, das ist einfach eine ganz andere Welt. Und von vielen großen Playern hinter den Herstellern unserer Consumer-Hardware haben wir noch nie etwas gehört.
 
Mellanox kommt glaub ich von Intels EX-Mitarbeitern. Nix quasi ;) Intel sagte meine ich, mehr als 6Mrd. zahlen wir nicht. Portokasse hin oder her.
Und von vielen großen Playern hinter den Herstellern unserer Consumer-Hardware haben wir noch nie etwas gehört.
Doch doch. Auch von Foxconn hat hier bestimmt schon jeder gehört ;)

Soweit aber auch nicht wichtig. Wartet mal... Der NVSwitch mit NVLink 2.0, macht doch insgesamt 900 GB/s. Das sind schon 450 GB/s in jede Richtung. Übertragungsraten auf max. 2cm Länge sind dann wohl eher nicht mehr das Problem oder?
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten