NVIDIA stoppt nicht nur die Belieferung der AIC mit Chips für die GeForce RTX 4070 und AMD zeigt zur Computex wohl "kleinere" Karten

Sollte das Chiplet Design von AMD nicht dazu führen dass man kostengünstier produzieren kann?

Wo Ist denn sonst der Vorteil zu NV?

Jein.

Kostengünstiger ergibt sich, wenn überhaupt, nur aus den Punkten,
a) dass die Chips eckig sind, der Wafer aber rund; (kleinere Chips kann man am Rand besser hinfutzeln)
b) dass bei kleineren Chips der Verlust durch Herstellungsfehler geringer ist . (Chance überhaupt betroffen zu sein, und wenn, dann sind halt 200mm² statt 600mm² Müll zu zahlen)


Andererseits muss man erst mit den Chiplets umgehen lernen in der Prod, dem Design und dann der Software.

Edit: Deutsch statt böhmisch (Versuchsweise :p )
 
Zuletzt bearbeitet :
Jein.

Andererseits muss man erst mit den Chiplets umgehen lernen in der Prod, dem Design und dann der Software.
Im Prinzip steckt die Antwort ja eh schon in seiner Frage... es sollte dazu führen ...
Also ja man wird damit auf kurze oder lange Sicht deutlich günstiger fertigen können aber das ist etwas wo die Schere erst
in Zukunft deutlicher aufgehen wird im Vergleich zum Monolith ...
 
Darum jein;

nutzt nix wenn 2 chiplets billiger sind als 1 monolith, man aber 3 braucht um die gleiche leistung zu erzielen.
 
nutzt nix wenn 2 chiplets billiger sind als 1 monolith, man aber 3 braucht um die gleiche leistung zu erzielen.
Es gibt mehrere Gründe, dass die Herstellung der selben Prozessorteile mit Chiplets günstiger kommt als bei einem grossen Chip. Es wurde ja bereits erwähnt, dass bei einem Defekt der ganze Chip verloren ist und somit bei einem grossen mehr Fläche verloren geht. Dazu kann man bei einem runden Wafer die Randbereiche etwas besser ausnutzen da man auch in kleinen Ecken noch ein Chiplet erstellen kann, wo kein ganzer Chip mehr hinpassen würde.

Ein weiterer Vorteil ergibt sich aus den unterschiedlichen Prozessorbereichen. der Speicher ist anders aufgebaut und wird anders produziert als Die Prozessorkerne. Auch die Grafikeinheit ist anders strukturiert. Wenn man alle zusammen herstellt, muss man auf jedem Wafer alle Arbeitsschritte durchführen, die für alle unterschiedlichen Strukturen nötig sind. Wenn man den Speicher getrennt herstellt, sind dort nur die entsprechenden Arbeitsschritte nötig. Bei den Prozessorkernen und der Grafikeinheit sind auch nur die entsprechenden Prozesse nötig. Dadurch ist die selbe Fläche Chiplet deutlich billiger. Dazu macht das die Produktion einfacher und zuverlässiger.

Der Nachteil ist, dass man die Chiplets danach auf einer verbindenden Platine montieren muss. Bei der Planung muss man die Bereiche sauber trennen und kann es nicht durchmischen wie es vielleicht am besten passen würde.

Die Montage eines Chiplets auf einer Platine ist sehr heikel. Die Prozessorstrukturen sind meist zu klein so dass keine direkte Verbindung möglich ist. Man braucht erst Schichten, in denen die Verdrahtungen grösser werden so dass die Verbindungen zuverlässig möglich sind.

Dadurch wird die Distanz von einem Chiplet zum anderen grösser und damit die Übertragung langsamer als wenn man die Bereiche direkt zusammen herstellt.

Somit hat das beides Vor und Nachteile. Die ganzen Verbindungsmethoden müssen erst entwickelt und getestet werden. Die Entwicklung braucht erst mal Zeit und kostet einiges. Diese Kosten werden mit der Zeit aber sinken, so dass dann Chips günstiger produzierbar sind.
 
Es gibt mehrere Gründe, dass die Herstellung der selben Prozessorteile mit Chiplets günstiger kommt als bei einem grossen Chip. Es wurde ja bereits erwähnt, dass bei einem Defekt der ganze Chip verloren ist und somit bei einem grossen mehr Fläche verloren geht. Dazu kann man bei einem runden Wafer die Randbereiche etwas besser ausnutzen da man auch in kleinen Ecken noch ein Chiplet erstellen kann, wo kein ganzer Chip mehr hinpassen würde.

Ein weiterer Vorteil ergibt sich aus den unterschiedlichen Prozessorbereichen. der Speicher ist anders aufgebaut und wird anders produziert als Die Prozessorkerne. Auch die Grafikeinheit ist anders strukturiert. Wenn man alle zusammen herstellt, muss man auf jedem Wafer alle Arbeitsschritte durchführen, die für alle unterschiedlichen Strukturen nötig sind. Wenn man den Speicher getrennt herstellt, sind dort nur die entsprechenden Arbeitsschritte nötig. Bei den Prozessorkernen und der Grafikeinheit sind auch nur die entsprechenden Prozesse nötig. Dadurch ist die selbe Fläche Chiplet deutlich billiger. Dazu macht das die Produktion einfacher und zuverlässiger.

Der Nachteil ist, dass man die Chiplets danach auf einer verbindenden Platine montieren muss. Bei der Planung muss man die Bereiche sauber trennen und kann es nicht durchmischen wie es vielleicht am besten passen würde.

Die Montage eines Chiplets auf einer Platine ist sehr heikel. Die Prozessorstrukturen sind meist zu klein so dass keine direkte Verbindung möglich ist. Man braucht erst Schichten, in denen die Verdrahtungen grösser werden so dass die Verbindungen zuverlässig möglich sind.

Dadurch wird die Distanz von einem Chiplet zum anderen grösser und damit die Übertragung langsamer als wenn man die Bereiche direkt zusammen herstellt.

Somit hat das beides Vor und Nachteile. Die ganzen Verbindungsmethoden müssen erst entwickelt und getestet werden. Die Entwicklung braucht erst mal Zeit und kostet einiges. Diese Kosten werden mit der Zeit aber sinken, so dass dann Chips günstiger produzierbar sind.

Schön dass du meine Punkte genauer ausführst als ich es gekonnt hätte.(y)
 
Moin, Leute.

Vielen Dank für den Artikel.

Wenn man

- die aktuellen FPS - Grafikkarten - Benchmarks bei den neuen, anspruchsvollen Games sieht, und

- den Anspruch hat, neue Triple - AAA - Titel 1. Halbjahr 2023 flüssig (okay, von mir aus die gepriesenen 60 FPS)

- in 2k (1080p soll ja sooo schlecht sein; okay, unterstellen wir mal 2k als Standard),

- Details ultra oder eine Stufe drunter,

- mit Quali Raytracing - Effekten "volle Kanne" zu spielen,

(diese Anforderungen finde ich auch persönlich okay, damit 120 FPS ist aus meiner Sicht dann Highend),

ist in Bezug auf die neuen Generationen

--> AMD fast raus bzw. ab einer RX 7900 XTX zu gebrauchen (die RX 7900 XT ist eine Raytracing - Karte mit 60 FPS bei 1080p, nach den Benchmarks, bei solchen Games wie oben spezifiziert).

--> ist Nvidia ab einer RTX 4070 gerade so noch im Rennen.

Bei diesen Ansprüchen wie oben definiert ist doch alles andere, was auf den Markt kommt, einfach nur Elektroschrott. Braucht demnach kein Mensch.

- Und dann frage ich mich, was so in Bezug auf die Triple A - Titel ab dem 2. Halbjahr 2023 abgeht: ob dann evt. die RTX 4070 auch sofort raus ist? Siehe Pathtracing - Test Cyberpunk, PCGH (und da sind wir noch weit vom Maximum weg).

- Es bleibt spannend, was so unter der Unreal Engine 5 passiert. Laut einem befreundeten Game - Programmierer, der für ein namhaftes Studio arbeitet, und Aussagen von KollegInnen auf der Gamescom könnte man die UE 5 tatsächlich nutzen für (a) optisch geile Spiele mit (b) nicht höheren oder sogar NIEDRIGEREN Hardwareanforderungen (!). S. auch die anfangs geleakten Hardwareanforderungen für STALKER 2... GTX 1080 Ti / RTX 2070 Super. Aber das fände die Hardwareindustrie ja garantiert scheiße. Wer soll denn dann noch Gen 5000, 6000 / 8000, 9000 kaufen...? Also wird sich da bestimmt der ein oder andere Antioptimierungscode in die Games verlaufen... Jeder ist aus meiner Sicht naiv, der etwas anderes glaubt, oder dies hier für paranoid hält. Es geht um Geld, da hört der Spaß immer auf.

Die letzte Graka - Generation beider aktuell erwähnenswerter Hersteller hat mir vermittelt, dass sie bei höheren Ansprüchen wie oben definiert schon 2 Jahre später veraltet sind, wohingegen Nutzer einer GTX 1080 Ti noch ? 7 Jahre nach Release glücklich mit der Karte sind.

Daher denke ich, dass sich auch eine RTX 4080 nicht lohnt, da auch sie nicht auf Zukunft gekauft werden kann, für die Games der nächsten 4 Jahre. Auch, da die RTX 3080 Ti (streiten wir uns nicht über das Ti oder +/-) von der RTX 4070 mit RT überholt wird.

Man kann immer nur "auf jetzt" kaufen, für die Spiele, die jetzt da sind oder bis Ende des Jahres raus kommen, wenn überhaupt. Oder einfach bewusst dem Gaming - Markt immer nur 3 bis 4 Jahre hinterher sein. Das macht nach meinem Verständnis so finanziell Sinn.

Klar haben andere Leute andere Ansprüche und denken anders, und das ist natürlich ihr gutes Recht.

Ich bin aus finanziellen Gründen froh, dass einer meiner Söhne jetzt auf eine PS 5 umgestiegen ist und sie mit Begeisterung nutzt, dauerhaft. Vom PC hat er sich eigentlich losgesagt, spielt aber jetzt mit einer geschenkten GTX 1080 Ti doch immer wieder viele PC Games mit Begeisterung (2x 8 GB DDR4 RAM, 2600X). In 1080p.

Mein anderer Sohn möchte PC Gaming auf höherem Level, da rüsten wir ein geschenktes Altsystem um auf 5700X und RTX 4070, und auf 2x 16 GB DDR4, + Airflow Case + etwas Disco, das passt so gerade noch ins Budget, und er hat sein Raytracing.

Ich würde auch gern wieder, und verteidige mit Mühe und Not meine mühsam über Jahre zusammengesparte Hobbykasse gegen Inflation und generell horrende Kosten, die Kinder einem alleinstehenden Vollverdiener verursachen.

Aktuell baue ich meinem Nachwuchs davon selber Möbel, sie schmilzt also wieder etwas. Und einen Gaming - Schreibtisch.

Hauptsache, die Familie hält zusammen, und die Kids kommen voran.

Ich freue mich aber auch auf meinen eigenen PC, war früher Profizocker und Hardware - Modder. Habe jetzt 8 Jahre Pause gemacht.

Mich juckt es ja auch, Highend zu kaufen. Aber wenn ich ehrlich zu mir selber bin: habe eine Liste mit 30 Spielen ab 2014, die ich unbedingt Spielen möchte. Da bin ich ? Jahre mit beschäftigt?

Versuche, mich zu bremsen und maximal eine RTX 4070 und einen 7800X3D zu kaufen. Ist für mich vermutlich schon overpowered. Und hoffe, dass ich damit dieses Jahr auch S.T.A.L.K.E.R. 2 und The Invincible mit 60 FPS in 2k und mit Raytracing spielen kann.

Am meisten freue ich mich aktuell sowieso auf Fallout 4 ultra modded, + hoffentlich bald Fallout Miami als DLC dazu.

Und: System Shock Remake. Yeah! Citadel, da bin ich wieder! Von wegen, wir sind die Borg!
Das Original eines der besten Games ever damals, aus den 90ern. Und dieser geile Elektrosoundtrack der Games damals ... Hoffe, er ist nicht verloren gegangen.

Glaube, eigentlich wäre eine GTX 1080 Ti für mich vollkommen ausreichend. Ich versuche erstmal, Gaming in 1080p zu genießen (früher war ich 2 Auflösungen drunter 😂). Dann hab ich noch Leistungsreserven.

Wünsche euch einen schönen Tag.
 
Zuletzt bearbeitet :
Oben Unten