AMD Radeon RX 8000: RDNA 4-GPUs mit Navi 48 und Navi 44 im Anmarsch – Starttermin 2025

Die Karten waren jeweils parallel erhältlich. Die 7000er Radeons gab es noch nicht, die 40X0er Nvidias bereits mehr als ein halbes Jahr. Und zum Preis: Ich habe für beide Karten den gleichen Preis bezahlt - Krypto-Scheiße dies das.
Da liegt nicht nur ein höherer Preis dazwischen sondern auch eine deutlich höhere Leistung und deutlich bessere Effizienz, während die 6900XT knapp 4Watt/ FPS zieht, macht die 4080 das mit 2,6Watt / FPS
Und mit RT liefert die 4080 in 4k fast dopplet so hoch wie die 6900XT, im Schnitt liegt sie bei 25% mehr FPS 4k ohne RT

und ja real liegen rund 300€ zwischen den Karten, aber der Mehrwert durch Mehrleistung und bessere Effizienz ist auch ein Thema.
Auch die reale Durchschnittliche Aufnahme liegt bei der 4080 im Schnitt 35 Watt niedriger, bei deutlich höherer Leistung und im Idle sogar deutlich besser.

Und für ne in etwa vergleichbarew 7900XT hättest auch in jedem Fall 1200€ hingelegt zu der Zeit, dazu wäre sie immer noch 25% schwächer mit RT 4k und runde 10% schwächer im Schnitt 4k ohne RT und würde auch im Schnitt etwas über 300W ziehen, das Verhältnis W/FPS wäre aber etwas besser
 
Zuletzt bearbeitet :
Bei den Nvidia-Fanbois kannst du doch nicht mit harten Fakten kommen (schon gar nicht, wenn mal das vRAM nicht ausreicht) :p
Ich hab es mir anders überlegt, feuer frei !

So lang es kein Nachweiß gibt, dass Nvidia 30MByte große Einzel Bilder Rendern kann, bleibt AMD Effizienter auch mit mehr Verbrauch.

Bsp. für 30 MByte benötigt meine RX 6950 XT: 346W, wenn Nvidia 3 MByte Große Bilder erzeugt sind das Hochgerechnet x10.
Ich glaube kaum, dass irgendeine NVidia GPU mehr als 3KW erreicht. ;)
 
Habt ihr eine Quelle bzw. eine Einordnung zum Thema Bildgröße?
 
Die Megabyte Angaben. AMD 30 MByte, NV 3Mbyte.
Die 30 Mbyte sind nur im .jxr Format Möglich, da selbst .png nicht genug Meta Daten Speichern kann.

HDR10+ muss zwingend von beiden Parteien unterstütz werden, GPU & Display.
 
Zuletzt bearbeitet :
Die 30 Mbyte sind nur im .jxr Format Möglich, da selbst .png nicht genug Meta Daten Speichern kann.

HDR10+ muss zwingend von beiden Parteien unterstütz werden, GPU & Display.
Ich kann euch hier nicht folgen. Ihr behauptet doch, dass AMD mehr Bildinformationen ("30MByte") rendert.
 
Ich kann euch hier nicht folgen. Ihr behauptet doch, dass AMD mehr Bildinformationen ("30MByte") rendert.
Wie oft passen 16,7 Millionen Farben, in 1.07 Milliarden "Trans-sport-stream" ?

RT ist cool, aber ich möchte Real Time. 🥰
 
Der Artikel klingt ja schon ein wenig nach "Vorfreudedämpfung", da redet man von Zielgruppe 1080p und 1400p, wahrscheinlich also von 8600XT bis 8800XT, von 8 GB DDR7 und besserer Effizienz!
Wenn ich das mal frei übersetzen heißt das, der Fokus liegt auf Günstig, in der Top Klasse 4k wollen wir nicht mehr mitspielen!?
Hast du überhaupt gelesen, was da steht? Da steht, dass sich die N44 GPU an den Einsteigermarkt richtet, der Nachfolger von N33 wird und vermutlich 8GB Speicher hat. Das ist also im Preisbereich von 250€-300€, irgendwas im Bereich 5060 oder so. Gegenüber der 5080 und 5090 wird AMD nichts bringen, das wird doch schon länger diskutiert.
 
1080p = 266 FPS Minimum:

2nd.png
 
Wie oft passen 16,7 Millionen Farben, in 1.07 Milliarden "Trans-sport-stream" ?

RT ist cool, aber ich möchte Real Time. 🥰
Ich verstehe es immer noch nicht.
Raytracing = RT
DLSS / Frame Generation = KI generierte Bilder / Upscaling
Warum soll die Echtzeit Berechnung von Lichtstrahlen und Reflektionen nicht "Real Time" sein?
Selbst Realtime Pathtracing (CP2077) kann ich ohne DLSS mit meiner 4080 aktivieren und in WQHD mit > 60 FPS daddeln.
 
Ich hatte mir DLSS mit der 2080S in Metro Exodus angeschaut. Das hatte ziemliche Fehler, Artefakte... produziert. Wenn man das deaktiviert, hat man native Rastergrafik und die Qualität war prima. Da gab es keinen Unterschied im Look zu meiner vorherigen 5700XT - bis auf deutlich mehr Frames, weil stärkere Karte.
 
Hier sieht man doch ganz gut, dass die Rasterleistung der Positionierung entspricht.
Ich hab bei 90 FPS nen Framelimit drin, damit ich nicht unnötig Strom verbrate.
Das Game rennt auf den Radeons ebenfalls richtig gut, obgleich die Shader Kompilation manchmal Probleme bereitet hat, so das Fazit der Tester. Und jetzt?
 

Anhänge

  • Screenshot_20240710-231440.png
    Screenshot_20240710-231440.png
    339,3 KB · Aufrufe : 6
Scherz-Keks ! :)

Edit 3840 Pixel, sind keine 4K !

5K Display here.
Und Du glaubst wirklich, wenn ein Game/Bench in 3840 ausgefürhrt wird, deine Karte trotzdem in 5K rendert weil Du einen 5k Bildschirm hast?
Alleine das man glaubt ein Screenshot, dessen Format und die dadurch entstandene Größe, hat was mit der Spieleleistung zu tun sagt schon alles.
 
Zuletzt bearbeitet :
Ich sehe den Sinn und die Aufgabenstellung auch gar nicht.
Ich habe mit D5 ein Bild mit 344 MB gerendert das entspricht 43Mbytes, und zwar mit einer 4070 Super während Anno 1800 lief und und die Karte quasi nur knapp 20% freie Leistung nutzen kann, da hat sie immer noch 56FPS fürs Rendering erzeugt, nebenher, etwas über eine 43 Sekunden gebraucht.

Und wenn man sich mal die Empfehlungen der bekannten Rendering Softwaren Anschaut, finden sich in der TOP Ten der empfohlenen GPUs nur RTX4000 Modelle.
Keine einzige AMD in den Top Ten.
Meine PNY 4500 PRO ist im CAD Programm deutlich schneller als meine W7800 Pro, obwohl die Nvidia nur 24GB statt 32GB und 50 Watt weniger Aufnahme hat.
Und in Blender etc, also GPU Rendering liegt sie quasi mit der W7800 gleichauf.
Was übrigens auch Igor bestätigt hat.
Im Professionellen GPU Rendering findet an der Spitze nur Nvidia statt.
Natürlich kann man sich eine völlig Absurde Aufgabenstellung ausdenken, die vielleicht ein bestimmtes GPU Modell aus unerfindlichen Gründen besser kann, die aber auch von 99% der Nutzer nur in 0,01% der Fälle irgendeine Relevanz hat und daraus ableiten, dass die generell schlechter GPU toootal super ist.

Das ist so ein wenig wie " ich habe im Lada Vesta einen klimatisierten Kofferraum" , da kannste dann zwar im Sommer ne Leiche ein bis zwei Tage länger drinnen liegen lassen, zumindest wenn der Motor läuft, leider passen nur Leichen bis 1,64m und 50kg rein.
Tolles Argument aber nur für 0,01% der Weltbevölkerung relevant.
 
Zuletzt bearbeitet :
Ach wenn RDNA4 wird wie RDNA1, welche nach anfänglichen Treiberproblemen (die mir seit dem nie wieder untergekommen sind) der 2070 das Leben schwer gemacht hat, und RDNA5 wie RDNA2 wird soll es mir recht sein.

Im Vergleich war die 30er zur RDNA2 furchtbar ineffizient.
 
Wenn man mal in D5 Benchmarks schaut, reines GPU Rendering da liegt vorne nur Nvidia, die 4070Super hat bei mir 00:00:33 geschafft, alle 6950XT lagen bei 00:00:42 -00:00:58
 
Ach wenn RDNA4 wird wie RDNA1, welche nach anfänglichen Treiberproblemen (die mir seit dem nie wieder untergekommen sind) der 2070 das Leben schwer gemacht hat, und RDNA5 wie RDNA2 wird soll es mir recht sein.

Im Vergleich war die 30er zur RDNA2 furchtbar ineffizient.
Ne 30X0er Karte hätte ich mir auch nie gekauft. Seit der 5X00er Gen sind die AMDs eigentlich sehr empfehlenswerte Produkte. Darüber besteht aber - glaube ich - Konsens.
 
Oben Unten