Keine Einstiegs-RDNA 3: AMD fokussiert sich auf Next-Gen-Grafik

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.048
Bewertungspunkte
9.931
Punkte
1
Standort
Redaktion
In der jüngsten Entwicklung innerhalb der Grafikprozessorbranche zeichnet sich ab, dass AMD sich zunehmend auf die nächste Generation seiner Gaming-GPUs konzentriert. Diese Entwicklung erfolgt offenbar auf Kosten weiterer Modelle der aktuellen RDNA 3-Generation, darunter auch die kürzlich spekulierten Einsteigermodelle. Es gab Berichte über die mögliche Markteinführung zweier neuer GPUs der RDNA 3-Architektur, der Radeon RX 7400 und der Radeon RX 7300. Diese GPUs sollten auf dem Navi 33-Chip basieren und speziell den Einstiegsmarkt bedienen. Doch aktuelle Informationen legen nahe, dass AMD diese Pläne aufgegeben hat. Insiderquellen zufolge hat keiner von AMDs Partnern – die sogenannten Add-in-Board-Partner (AIBs) – derzeit die […] (read full article...)
 
So schräg das dann auch klingen mag, da jetzt weder Nvidia noch AMD neue dGPUs im €250 - € 400 Bereich rausbringen werden, bleibt dann nur die Hoffnung, daß Intel doch noch Battlemage Karten in dem Bereich bringt. Die Architektur ist ja bereits fertig (Debüt in Lunar Lake im September), und da Team Grün und Rot sich einfach weigern, in dem Preis Bereich überhaupt anzutreten, bleibt eine Lücke, die die Blauen füllen könnten.
 
Du meinst sicherlich den Bereich 86€ bis 149€.
(bisher RX550+6400+6500xt vs. GTX1650+730)

Lohnen sich da überhaupt diskrete Grakas für Entry-OEM-PC´s noch,
wenn die APU´s inzwischen so stark sind?
 

Anhänge

  • 890M.JPG
    890M.JPG
    62,7 KB · Aufrufe : 12
Zuletzt bearbeitet :
Du meinst sicherlich den Bereich 86€ bis 149€.
(bisher RX550+6400+6500xt vs. GTX1650+730)

Lohnen sich da überhaupt diskrete Grakas für Entry-OEM-PC´s noch,
wenn die APU´s inzwischen so stark sind?
Naja, die Intel iGPUs sind nicht so gut, die brauchen idR eine dedizierte GPU. Auch für leistungsstarke CPUs an mehrere/große Displays anzubinden wäre eine GraKa sinnvoll (die ist ja nicht für Spiele da). Die 7600 kostet ab 260€, die 4060 ab 290€, sollte eigentlich reichen momentan.
 
Mir erschließt sich das Ganze nicht wirklich, da steht im Artikel "... dass die Navi 48-GPUs mit dem Navi 31-Silizium vergleichbar sein werden,". Eine neue GPU Generation macht doch nur dann Sinn wenn sie leistungstechnisch ÜBER der aktuellen liegt, oder sehe ich das falsch? Warum sollte sich jemand eine eine neue GPU holen wenn die vorgehende Generation genauso leistungsfähig ist, aber dann vermutlich sogar noch billiger wird / ist?

Wo ist mein Denkfehler?
 
Mir erschließt sich das Ganze nicht wirklich, da steht im Artikel "... dass die Navi 48-GPUs mit dem Navi 31-Silizium vergleichbar sein werden,". Eine neue GPU Generation macht doch nur dann Sinn wenn sie leistungstechnisch ÜBER der aktuellen liegt, oder sehe ich das falsch? Warum sollte sich jemand eine eine neue GPU holen wenn die vorgehende Generation genauso leistungsfähig ist, aber dann vermutlich sogar noch billiger wird / ist?

Wo ist mein Denkfehler?

Du wurdest durch die Nomenklatur verwirrt.

Navi 31 sind die 79xx in diversen Ausbaustufen.

Hinsichtlich der Leistung wird erwartet, dass die Navi 48-GPUs mit dem Navi 31-Silizium vergleichbar sein werden, welches in der aktuellen Generation zum Einsatz kommt. Preislich könnten sich diese GPUs im Bereich von 400 bis 500 US-Dollar bewegen.

Heißt also minimum 7900 GRE (die kleinste Navi 31 iirc) Leistung ab 400-500 USD, und trotzdem noch kein Verlustgeschäft.
 
Mir erschließt sich das Ganze nicht wirklich, da steht im Artikel "... dass die Navi 48-GPUs mit dem Navi 31-Silizium vergleichbar sein werden,". Eine neue GPU Generation macht doch nur dann Sinn wenn sie leistungstechnisch ÜBER der aktuellen liegt, oder sehe ich das falsch? Warum sollte sich jemand eine eine neue GPU holen wenn die vorgehende Generation genauso leistungsfähig ist, aber dann vermutlich sogar noch billiger wird / ist?

Wo ist mein Denkfehler?
Mögicherweise werden die Karten nicht deutlich schneller, sondern deutlich effizienter.
 
Mögicherweise werden die Karten nicht deutlich schneller, sondern deutlich effizienter.
Also statt 400W bei meiner XTX dann "nur" noch 350W oder 300W? Sehr viel effizienter wird es wohl nicht werden. Und dann kommt die große Kosten / Leistungsrechnung: Wann amortisiert sich der Preis durch den geringeren Leistungsverbrauch / bessere Effizienz.

Aber warten wir mal ab was hier tatsächlich unter dem Strich dabei rauskommt.
 
Es steht schon länger im Raum, dass die RDNA 4 Gerneration effizienter und günstiger werden sollen. Leistungstechnisch soll sich nicht viel tun.
 
Jemand der keine Grafikkarte kauft wird auch kein Geld haben für großen Arbeitsspeicher vermutlich.

Der dedizierte Grafikkartenspeicher, Encoder und Decoder einer dedizierten Grafikkarte sind schon wichtig.
 
Heißt also minimum 7900 GRE (die kleinste Navi 31 iirc) Leistung ab 400-500 USD, und trotzdem noch kein Verlustgeschäft.

Also die GRE bekommt man aktuell auch ca. 600€. Das große Fragezeichen ist hier aber der wirkliche Preis und die Leistung die man dann bekommt. Wenn es eine Karte wird die 100W weniger braucht, die Leistung meiner XTX hat und dann so um die 700€ kostet, dann geht die Rechnung auf. Alles andere ist für mich Humbuck, sorry.
Aber wie so oft ist das alles aktuell lesen in der Glaskugel :alien:
 
Mir erschließt sich das Ganze nicht wirklich, da steht im Artikel "... dass die Navi 48-GPUs mit dem Navi 31-Silizium vergleichbar sein werden,". Eine neue GPU Generation macht doch nur dann Sinn wenn sie leistungstechnisch ÜBER der aktuellen liegt, oder sehe ich das falsch? Warum sollte sich jemand eine eine neue GPU holen wenn die vorgehende Generation genauso leistungsfähig ist, aber dann vermutlich sogar noch billiger wird / ist?

Wo ist mein Denkfehler?
Für den Nutzer relevant sind meist: Performance per Watt und Performance per (purchase-)Price
Für den Hersteller des eigentlichen Chips ist relevant: Performance per Watt und Performance per (chip-)Area. Je kleiner der Chip desto günstiger zu fertigen, insbesondere da ja mit abnehmender Fläche auch Fertigungsausfälle durch Herstellungsfehler exponentiell abnehmen.
Effizienz ohne Beiwort kann also ein Teil dieser Elemente oder eine Zusammenführung von Vorteilen auf allen diesen Ebenen meinen.

Beispielsweise waren Navi 31 und 32 durch ihre Chiplet-Architektur günstiger in der Herstellung des Haupt-Compute DIEs. Jedoch war es genauso immer noch ein wenig Neuland in der Fertigung, da der Speichercontroller auf die Cache-Chiplets ausgegliedert wurde. Also munkelte man überall, daß RDNA 7900er und 7800er günstiger herzustellen gingen als die nVIDIA Konkurrenz ähnlicher Leistung (4070er und 4080er), die immer noch komplett "monolithisch" sind. MLID hatte sogar gemutmaßt, daß navi 33 (7600er) teurere Gestehungskosten ausweisen könnte als die 7800er navi 32 - Karten. Wenn wir nur von den "GPU-packages" reden.

Aber im Endprodukt braucht eine 250W-Karte eben auch mehr PCB-Fläche und unterstützende Komponenten als eine ~160W-Karte und die Paketierung eines Chiplet-Designs in der 1 Generation könnte auch viel Lehrgeld bedeuten - also für den Endverbraucher ist das dann nicht unbedingt relevant.

Summa-Summarum: Einstiegsgrafikkarten werden auch weiterhin als Multi-Bildschirm-enabler gebraucht werden. Zumindest solange APUs nicht mit mehr als 2 hochauflösenden display-streams umgehen lernen und mainboard-Hersteller hier die Durchführungen nach außen bereitstellen. Wird das nicht bald/ ist das nicht sochn der Einsatzbereich von Thunderbolt/usb4 und evtl. auch eGPUs ?
 
Es steht schon länger im Raum, dass die RDNA 4 Gerneration effizienter und günstiger werden sollen. Leistungstechnisch soll sich nicht viel tun.
Naja, wenn man für einen Mittelklassepreis problemlos in 4k spielen kann ist das schon ein Leistungssprung.
 
Du meinst sicherlich den Bereich 86€ bis 149€.
(bisher RX550+6400+6500xt vs. GTX1650+730)

Lohnen sich da überhaupt diskrete Grakas für Entry-OEM-PC´s noch,
wenn die APU´s inzwischen so stark sind?
Wenn ich eine schnelle und moderne APU im System hätte, würde ich mir eine Entry GPU auf jeden Fall sparen und die ~ € 150 extra
lieber in mehr und etwas schnellerem RAM anlegen.
Wenn man aber einen Desktop Setup mit eher klassischer CPU (mit kleiner iGPU, wenn überhaupt vorhanden) hat oder auch Anwendungen mit etwas Bedarf für Grafik Leistung einsetzen will, führt an einer dGPU ja kein Weg vorbei *. In der Situation würde ich mich aber nicht auf die derzeitig erhältlichen Entry dGPUs beschränken wollen, und zumindest etwas Leistung und mindestens 8 GB VRAM (oder mehr) sollten es dann schon sein.
Zum Beispiel ein Build mit einer neuen Zen 5 9700 oder auch einer 7800 X3D (die X3D für spätere Aufrüstung 😄).
Daher mein Kommentar zur Situation in der dGPU Mittelklasse, die ich bei ca. € 250 bis maximal € 400 und Leistungsaufnahme bis maximal 250 W sehe.

*Mac Studio oder Pro mit Apples Top M APUs ausgenommen, aber die sind hier auch vom Preis her nicht vergleichbar, und dGPUs sind bei Macs "by design" sowieso außen vor.
 
Jemand der keine Grafikkarte kauft wird auch kein Geld haben für großen Arbeitsspeicher vermutlich.

Der dedizierte Grafikkartenspeicher, Encoder und Decoder einer dedizierten Grafikkarte sind schon wichtig.
Kommt aber ganz auf den User und seine Bedürfnisse und Vorlieben an. Außerdem sind zwei einigermaßen schnelle 32 oder 48 GB RAM Riegel nicht so viel mehr Geld extra als die Minimalausstattung sowieso kostet. Gerade mit einer neuen und schnellen APU macht das IMHO mehr Sinn als noch € 150 in eine Entry dGPU zu investieren, die eben momentan alle 2-3 Generationen zurück liegen, und zB die Encoder in denen sind unterirdisch schlecht verglichen mit den ASICs in neuen APUs.
 
Oben Unten