AMD Radeon RX 8000: RDNA 4-GPUs mit Navi 48 und Navi 44 im Anmarsch – Starttermin 2025

Ne 30X0er Karte hätte ich mir auch nie gekauft. Seit der 5X00er Gen sind die AMDs eigentlich sehr empfehlenswerte Produkte. Darüber besteht aber - glaube ich - Konsens.
Über die 3070 OC und 3080ti habe ich mich nur grün geärgert.
 
und ja real liegen rund 300€ zwischen den Karten, aber der Mehrwert durch Mehrleistung und bessere Effizienz ist auch ein Thema.
Auch die reale Durchschnittliche Aufnahme liegt bei der 4080 im Schnitt 35 Watt niedriger, bei deutlich höherer Leistung und im Idle sogar deutlich besser.
Vor allem liegen zwischen 2020 und 2022 zwei Jahre Technikfortschritt, was früher mal zwei Generationen waren.
Ansosten kann man auch die 6900xt mit einer 980 vergleichen, bin sicher dass die AMD viiiiel besser ist, besonders in Raytracing - total schlecht diese Nvidia Karten, schlimm!
Und für ne in etwa vergleichbarew 7900XT hättest auch in jedem Fall 1200€ hingelegt zu der Zeit, dazu wäre sie immer noch 25% schwächer mit RT 4k und runde 10% schwächer im Schnitt 4k ohne RT und würde auch im Schnitt etwas über 300W ziehen, das Verhältnis W/FPS wäre aber etwas besser
Die 7900XT ist mit 899€ UVP nochmal 100€ günstiger als die Vorgängergeneration. Ja, genau: günstiger. Von wegen die Preise gehen überall hoch - DAS ist nur bei Nvidia passiert. Objektive Tatsachen halt, kein Bauchgefühl und Whataboutism.
 
Mir ist das eigentlich zu doof, aber habt ihr oben nicht die Argumentation gefahren, dass die AMDs die Nvidias in Rasterizing in die Tasche stecken?
 
Vor allem liegen zwischen 2020 und 2022 zwei Jahre Technikfortschritt, was früher mal zwei Generationen waren.
Ansosten kann man auch die 6900xt mit einer 980 vergleichen, bin sicher dass die AMD viiiiel besser ist, besonders in Raytracing - total schlecht diese Nvidia Karten, schlimm!

Die 7900XT ist mit 899€ UVP nochmal 100€ günstiger als die Vorgängergeneration. Ja, genau: günstiger. Von wegen die Preise gehen überall hoch - DAS ist nur bei Nvidia passiert. Objektive Tatsachen halt, kein Bauchgefühl und Whataboutism.
Die Preise bei Nvidia sind hochgegangen!? Nicht gemerkt
die 3080ti die minimal unter einer 4070Super einzuordnen ist hat im Schnitt damals zwischen 1300 und 1100€ gekostet, eine 4070S oder die noch stärkere 4070ti dagegen haben 600-700€ (4070S ) und 900-750€ ( 4070ti ) auf dem Preisschild im Schnitt
Mehrleistung einer 4070ti zur 3080ti liegt bei 15-20% bei gleichzeitig massiv besserer Effizienz.

Und jetzt schauen wir uns 6950XT vs 7900XT an, Leistungszuwach 5-10% , ist aber 25% teurer.


Die 6950XT hat bis Anfang 24 rund 1100-1200€ gekostet, im Schnitt 800-900€ Angebote mitberechnet und wenn man das gleiche Modell eines Namhaften Herstellers und nicht billigpreise einzelner Hersteller in Relation setzt, ist die 7900XT deutlich teurer geworden.

Also ist Deine Ausführung das Nvidia teuer wurde völliger NONSENS, sie wurden in Realtion Leistung und effizienz sogar deutlich billiger, viel billiger sogar.
Nur hat sich da die Bezeichnung der Leistungsklassen verschoben.
 
Sage nur Fine Whine
Die 7900XT ist nun um die 15 bis 20% schneller als eine 6950XT
und auch eben weil die 6950XT nicht mehr tot optimiert wird.
 
Die Preise bei Nvidia sind hochgegangen!? Nicht gemerkt
die 3080ti die minimal unter einer 4070Super einzuordnen ist hat im Schnitt damals zwischen 1300 und 1100€ gekostet, eine 4070S oder die noch stärkere 4070ti dagegen haben 600-700€ (4070S ) und 900-750€ ( 4070ti ) auf dem Preisschild im Schnitt
Mehrleistung einer 4070ti zur 3080ti liegt bei 15-20% bei gleichzeitig massiv besserer Effizienz.
Zum UVP konnte man auch direkt bei AMD kaufen, man muss natürlich mit der "Standardkarte" dann zufrieden sein.
Die UVP bestimmt idR auch die Verkaufspreise der Chips/vRAMs an die Hersteller und wird gegebenenfalls angepasst wenn sich da etwas ändert.
Bitte also beim Preis sachlich bleiben - wenn der Händler/Scalper dich mit hohen Preisen abzocken will hat da nichts mit AMD/Nvidia zu tun, die geben nicht ohne Grund einen UVP an.
Und jetzt schauen wir uns 6950XT vs 7900XT an, Leistungszuwach 5-10% , ist aber 25% teurer.
Korrekter wäre hier 7900xtx vs 6950XT oder 7900xt vs 6900xt.
Wie schon geschrieben kann man auch die 6900xt mit der GTX980 vergleichen und rumposaunen wie schlecht doch Nvidia ist, vor allem beim Raytracig. Vergleiche sind immer schwer, aber Karten mit zwei ( ! ) Jahren Unterschied zu vergleichen und/oder Fantasie-Preise zu nehmen ist vollkommen unseriös wenn man qualitative Aussagen über den aktuellen Stand machen will.
Üblich für den Endkunden ist es, Karten im gleichen Preissegment zu vergleichen, denn der hat nur ein bestimmtes Budget.
Die Endkundenkarten werden idR auch entsprechend geplant (abseits der Enthusiast Kategorie) - die Profikarten gibt es ja auch noch, dort ist üblicherweise nur die Leistung/Anwendung relevant.
 
Mir ist das eigentlich zu doof, aber habt ihr oben nicht die Argumentation gefahren, dass die AMDs die Nvidias in Rasterizing in die Tasche stecken?
Dem wurde ja "wiedersprochen" - man muss nur genügend alte AMD Karten mit aktuellen Nvidias vergleichen oder entsprechend teurere Nvidia Karten nehmen - die 4090 gewinnt im Ernstfall (fast) immer. Oh Mann!
 
Ich verstehe es immer noch nicht.
Raytracing = RT
DLSS / Frame Generation = KI generierte Bilder / Upscaling
Warum soll die Echtzeit Berechnung von Lichtstrahlen und Reflektionen nicht "Real Time" sein?
Selbst Realtime Pathtracing (CP2077) kann ich ohne DLSS mit meiner 4080 aktivieren und in WQHD mit > 60 FPS daddeln.
Beim Ray Tracing ist die Farb Welt eher auf Comic Style getrimmt.
Ich mag aber eher die Unreal Engine, also das Foto Realistische mit echten Farben.

Der Raster Vergleich zählt nicht, weil da nicht Durchgehend HDR10+ genutzt wurde sondern eher Standard 8 Bit Farbtiefe.

Eine RX 6950 XT OC säuft richtig Strom, allerdings ist mir das Feature HDR10+ wichtig, das gibt es nur bei AMD mit FreeSync Premium Pro. ;)
 
Da leidet jemand wirklich am „ I wan't to believe Syndrom“ :D
So viele realitätsfremde „Fakten“, hört man ja in allen Bereichen immer öfter :)

Make AMD great again ?
 
@ipat66

Fakten sind immer gut, aber Bitte mit Quelle:


Edit:
Sonst artet es hier zu einem Stammtisch Gespräch aus.
Das ist das letzte was eine Zertifizierung erreichen will. ;)
 
Zuletzt bearbeitet :
Schau dir nochmal die Tabelle mit den Ergebnissen zu Forbidden West an. Ordentliche Rasterleistung hier wie da.
Dann schau dir die RT Leistung in Hogwarts oder CP2077 und den Stromverbrauch an und du kommst unter Umständen auf die Idee, dass das einen Preisunterschied rationalisiert.
Und ich klammere DLSS und FSR explizit aus. Nur Raster und RT.

Es ist eine objektive Einordnung auf Datenbasis. Kein Fan-Gehampel.
 
Beim Ray Tracing ist die Farb Welt eher auf Comic Style getrimmt.
Ich mag aber eher die Unreal Engine, also das Foto Realistische mit echten Farben.
Das ist Quatsch. Ich bin von 6900XT auf 4080 umgestiegen - außer den Lichteffekten und Reflexionen hat sich an der Farbgebung absolut nichts geändert. Ich hab das sogar hier im Forum gepostet. Die 4080 wär ansonsten direkt zurück gegangen.
Der Raster Vergleich zählt nicht, weil da nicht Durchgehend HDR10+ genutzt wurde sondern eher Standard 8 Bit Farbtiefe.
Was machen User ohne HDR Screen?
Bei mir ist HDR aktiviert und trotzdem läuft die 4080 wie oben beschrieben. Auch da wirst du irgendeinen Punkt finden, der NV "begünstigt".

Aktuell müssen User tief in die Tasche greifen, wenn sie mit hohen FPS Zahlen und max Details zocken wollen. Bei AMD ein bisschen weniger, dafür haperts bei RT und die Wattzahlen liegen deutlich höher.

Das ist eigentlich Konsens. Deshalb bin ich jetzt hier raus.
 
Zuletzt bearbeitet :
Das ist Quatsch. Ich bin von 6900XT auf 4080 umgestiegen - außer den Lichteffekten und Reflexionen hat sich an der Farbgebung absolut nichts geändert. Ich hab das sogar hier im Forum gepostet. Die 4080 wär ansonsten direkt zurück gegangen.

Was machen User ohne HDR Screen?
Bei mir ist HDR aktiviert und trotzdem läuft die 4080 wie oben beschrieben. Auch da wirst du irgendeinen Punkt finden, der NV "begünstigt".

Aktuell müssen User tief in die Tasche greifen, wenn sie mit hohen FPS Zahlen und max Details zocken wollen. Bei AMD ein bisschen weniger, dafür haperts bei RT und die Wattzahlen liegen deutlich höher.

Das ist eigentlich Konsens. Deshalb bin ich jetzt hier raus.
Jetzt lass doch mal den Quatsch weg, dann könne wir uns wie Erwachsene Menschen Unterhalten.

Die Ignoranz mancher Individuen geht mir langsam auf den Sack.

Klar ändert sich nichts am Bild, wenn der selbe Monitor, Display, TV, Hand-Held, what ever, genutzt wird.

Plug & Play ?
Viel Spaß....
 
Jetzt lass doch mal den Quatsch weg, dann könne wir uns wie Erwachsene Menschen Unterhalten.

Die Ignoranz mancher Individuen geht mir langsam auf den Sack.

Klar ändert sich nichts am Bild, wenn der selbe Monitor, Display, TV, Hand-Held, what ever, genutzt wird.

Plug & Play ?
Viel Spaß....
Also hätte ich nicht nur die Grafikkarte sondern auch den Monitor wechseln sollen, um die Comic-Grafik, die du kritisierst, nachzubilden?

Ich kann weder dir noch @Yumiko argumentativ folgen. Ich weiß nicht, worauf ihr hinaus wollt, ahne aber, dass es mit den Buchstaben B, Y, F, O, N und A zu tun hat. Wichtiger als grün, blau oder rot ist doch, dass du zufrieden bist.
 
Ich kann weder dir noch @Yumiko argumentativ folgen. Ich weiß nicht, worauf ihr hinaus wollt, ahne aber, dass es mit den Buchstaben B, Y, F, O, N und A zu tun hat. Wichtiger als grün, blau oder rot ist doch, dass du zufrieden bist.
Ich kann nur für mich sprechen/schreiben und da hat sich nichts geändert: Leute sagen/posten Benchmarks (selbst Durchschnitt über dutzende Spiele) um falsche Aussage zu widerlegen (hier soll ja was gelernt werden) und es kommt nur: "aber gefühlt habe ich alternative Fakten" oder "aber die zig Jahre ältere AMD kann nicht mit den modernen Nvidias mithalten" oder "ich habe mich beim GPU Kauf scammen lassen, daher ist AMD doof überteuert" oder "die viel teurere Nvidia ist aber trotzdem noch schneller". DAS klingt doch total dämlich nach Whataboutism.
 
Ich kann nur für mich sprechen/schreiben und da hat sich nichts geändert: Leute sagen/posten Benchmarks (selbst Durchschnitt über dutzende Spiele) um falsche Aussage zu widerlegen (hier soll ja was gelernt werden) und es kommt nur: "aber gefühlt habe ich alternative Fakten" oder "aber die zig Jahre ältere AMD kann nicht mit den modernen Nvidias mithalten" oder "ich habe mich beim GPU Kauf scammen lassen, daher ist AMD doof überteuert" oder "die viel teurere Nvidia ist aber trotzdem noch schneller". DAS klingt doch total dämlich nach Whataboutism.
Deshalb spreche ich nicht über "Leute" sondern über meine eigenen Erfahrungen. Und ich habe auf den letzten zwei Seiten auch nur Posts gelesen, die eigene Erfahrungen schildern - vor allem im professionellen Bereich, zu dem ich aber nix sagen kann mit meiner Daddelkiste. Parallel werde ich mit Behauptungen konfrontiert wie "AMD rastert 30 MB, NV maximal 3MB", "Comic-Grafik wegen Raytracing", dann wird RT mit Upscaling / DLSS durcheinandergebracht ... Dazu wird kein einziger Beleg geliefert vielmehr wird das Thema gewechselt: "Klar ändert sich nichts am Bild, wenn derselbe Monitor, (..) genutzt wird".

Ich habe genau einen Benchmark zum Thema Rasterleistung gepostet, der zeigt, was die jeweilige Karte leistet. Das Ergebnis deckt sich mit meinen Erfahrungen und deinen Behauptungen. Ich sehe nicht mal ein Problem. Bezogen auf den Preis hatte ich angemerkt, dass man bei NV die höhere Effizienz und damit am Ende auch Leistung kriegt. Dafür zahlt man, aber das ist doch jedem/jeder selbst überlassen.

Der Schritt von der 2080S auf die 6900XT hat einen riesigen Leistungssprung gebracht. Ich dachte, die Karte sei für die nächsten drei Jahre safe. Dann hat wirklich jeder Test die RT-Features der aktuellen Games über den Klee gelobt und irgendwann wollte ich sehen, was ich verpasse. Das war immerhin soviel, dass ich umgestiegen bin und es bisher nicht bereut habe. Wenn die nächsten AMDs mit NV gleichziehen oder ein Feature liefern, das ich haben will, steige ich wieder um. Die Marke ist mir bums.
 
Also hätte ich nicht nur die Grafikkarte sondern auch den Monitor wechseln sollen, um die Comic-Grafik, die du kritisierst, nachzubilden?

Ich kann weder dir noch @Yumiko argumentativ folgen. Ich weiß nicht, worauf ihr hinaus wollt, ahne aber, dass es mit den Buchstaben B, Y, F, O, N und A zu tun hat. Wichtiger als grün, blau oder rot ist doch, dass du zufrieden bist.
Verstehe mich Bitte nicht Falsch, Ray Tracing die Technik finde ich cool, aber nicht die Art wie es Nvidia Implementiert (TensorRT)
Wenn Nvidia Proprietäre Technik anbietet, kann AMD das ebenso mit Zertifizierten TV & Monitore. (FreeSync Premium Pro)

Und ja, mit HDR10+ sieht auch Ray Tracing Farblich korrekt aus, einfach real.
 
Oben Unten