AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Entscheiden ist was die Customs kosten werden heute. Sollten die zu dicht bei der 4080er sein, ist die am Ende das rundere Produkt. Zwar dürften die AMD Karten noch zulegen durch neue Treiber, die Arch ist ja schon sehr speziell, aber das kann man höchstens als Bonus sehen.
Wenn sie den Idle Verbrauch hinkriegen und die Preise vernünftig werden denk ich vielleicht auch noch mal drüber nach. Bis dahin wird in aller Ruhe lieber in Punsch investiert :D
 
Geht mir ähnlich. Ich will eigentlich nur CP2077 mit RT in WQHD spielen. Simples Ziel, ich weiß, aber so ist es nun einmal.
Meine 6800XT hat dafür zu wenig Saft, denn ab FSR Balanced gibts Unschärfe bzw. Ghosting ohne Ende und FSR Quality reicht nicht für flüssiges Spielen (und kämpft auch mit Ghosting).

Also bleibt eigentlich nur folgende Wahl:
Will man RT --> 4080 oder sogar 4090
Ist einem RT egal ---> 7900XTX

Preislich beides ein (Ultra)Hammer, aber der Markt ist nun einmal, wie er ist. Es gibt zwar viele die sagen "Darf maximal 800 € kosten" und da haben sie auch nicht Unrecht. Aber die Realität ist nun einmal, dass Highend-Grafikkarten auf längere Sicht nicht mehr so "billig" sein werden, deal with it.

Und da ist die Entscheidung dann halt: Seine Ansprüche runterschrauben oder mehr Geld ausgeben.
  • Nvidia GeForce RTX 4090 FE
    • 100 %
  • Nvidia GeForce RTX 4080 FE
    94 %
  • AMD Radeon RX 7900 XTX
    93 %
Also da ist die 7900 XTX nur 1 % langsamer als die 4080.
Fazit, auf einer 7900XTX kann man nicht mit RT spielen. Ironie off
 
  • Nvidia GeForce RTX 4090 FE
    • 100 %
  • Nvidia GeForce RTX 4080 FE
    94 %
  • AMD Radeon RX 7900 XTX
    93 %
Also da ist die 7900 XTX nur 1 % langsamer als die 4080.
Fazit, auf einer 7900XTX kann man nicht mit RT spielen. Ironie off
Etwas mehr Info, welche Einstellungen du dort vorgenommen hast, wären hilfreich.
Wenn ich WQHD und RT AVG-FPS wähle, sieht es so aus:
4090 100 %
4080 83 %
7900XTX 67 %.

Wenn man nur CP2077 mit RT nimmt:
4090 100 %
4080 76 %
7900XTX 47 %
 
Etwas mehr Info, welche Einstellungen du dort vorgenommen hast, wären hilfreich.
Wenn ich WQHD und RT AVG-FPS wähle, sieht es so aus:
4090 100 %
4080 83 %
7900XTX 67 %.

Wenn man nur CP2077 mit RT nimmt:
4090 100 %
4080 76 %
7900XTX 47 %
So richtig verstehe ich dich auch nicht - wenn du "nur CP 2077 mit RT on" spielen willst, kommst du an ner GeForce nicht vorbei. RT ist deren Parade-Disziplin. Da musst du hier nicht jammern, das steht in wirklich jedem Artikel und ist auch hier im Forum (zumindest bei 99% der User) Konsens.

Davon ab: Ab 7900XTX sieht es in Ultra mit RT on in WQHD so aus, als ob sämtliche Karten >60FPS liefern (1% Percentil). Ansonsten kauf dir ne 3080Ti/3090, die sind (noch) erhältlich, liegen nochmal drüber (>80 FPS) und befinden sich auch preislich im vergleichbaren Rahmen mit der neuen Gen von AMD.
 
Wann kommen denn Tests von Partner Karten? Hat noch keiner eine bekommen oder durften nur die Referenz Modelle veröffentlicht werden?
 
Wann kommen denn Tests von Partner Karten? Hat noch keiner eine bekommen oder durften nur die Referenz Modelle veröffentlicht werden?
Selbst wenn dürfte vermutlich die Zeit eher nicht gereicht haben wenn man sich die Tests der Referenzen ansieht und was da eventuell noch kommen wird.
Andererseits, was erwartet man sich von den Partnerkarten.. Auf der Habenseite vermutlich bessere Verteilung der Leistungsaufnahme über die 3 Stecker und einen entlasteten PCIE Slot + etwas besserer Kühlung.

Negativerweise:
Effizienz vermutlich noch etwas schlechter.
Am viel zu hohen Verbrauch in diversen Desktop bzw Idle Szenarieren werden die vorerst auch nicht vorbei kommen. Somit dürfte sich der Unterschied zu den Customs in erwartbaren Grenzen halten. Also da werden wohl keine großen Überraschungen kommen.
 
Selbst wenn dürfte vermutlich die Zeit eher nicht gereicht haben wenn man sich die Tests der Referenzen ansieht und was da eventuell noch kommen wird.
Andererseits, was erwartet man sich von den Partnerkarten.. Auf der Habenseite vermutlich bessere Verteilung der Leistungsaufnahme über die 3 Stecker und einen entlasteten PCIE Slot + etwas besserer Kühlung.

Negativerweise:
Effizienz vermutlich noch etwas schlechter.
Am viel zu hohen Verbrauch in diversen Desktop bzw Idle Szenarieren werden die vorerst auch nicht vorbei kommen. Somit dürfte sich der Unterschied zu den Customs in erwartbaren Grenzen halten. Also da werden wohl keine großen Überraschungen kommen.
Ich möchte eine Karte die nicht ständig vom Powerlimit gebremst wird. Effizienz ist zwar schon wichtig aber nicht an erster oder zweiter Stelle. Das mit dem idle Verbrauch wird ja nicht so bleiben.
 
So richtig verstehe ich dich auch nicht - wenn du "nur CP 2077 mit RT on" spielen willst, kommst du an ner GeForce nicht vorbei. RT ist deren Parade-Disziplin. Da musst du hier nicht jammern, das steht in wirklich jedem Artikel und ist auch hier im Forum (zumindest bei 99% der User) Konsens.
Ist vielleicht falsch rübergekommen, ich jammere hier nicht, sondern stelle die simplen Fakten dar. Und natürlich ist letzteres Konsens, weil es da ja auch so gut wie keinen Spielraum für Interpretationen gibt ;)

Die Balken lügen nun einmal nicht:
1670921920986.png
 
Ich möchte eine Karte die nicht ständig vom Powerlimit gebremst wird. Effizienz ist zwar schon wichtig aber nicht an erster oder zweiter Stelle. Das mit dem idle Verbrauch wird ja nicht so bleiben.
Was ist so schlimm daran,so gehen wenigstens die Spannungsspitzen nicht so hoch.
 
Diverse custom Modelle wurden von chinesen Seiten geleaked

 
Ist vielleicht falsch rübergekommen, ich jammere hier nicht, sondern stelle die simplen Fakten dar. Und natürlich ist letzteres Konsens, weil es da ja auch so gut wie keinen Spielraum für Interpretationen gibt ;)

Die Balken lügen nun einmal nicht:
Anhang anzeigen 22062
Diese "Gesamtübersichten" von Ergebnissen sind leider irreführend. Viele Games (die offiziell auf RT setzen) setzen in tatsächlicher Hinsicht nur sehr sporadisch auf Raytracing und werden zu größten Teilen durch Rasterization ihre Bildergebnisse erzielen - hier stürzt dann AMD nur wenig ab und kann "gute" Ergebnisse erzielen, weil es eben kaum RT zu berechnen gibt.

Sobald aber ein Game stark auf Raytracing setzt - und dementsprechend die Grafikqualität auch stark ansteigt - verliert AMD gewaltige Performance und befindet sich etwa bei 50% der Leistung einer 4090 (sofern das überhaupt geschafft wird).

Beispiel:

Starkes Raytracing:

1670922476759.png
1670922629945.png
1670922653588.png

Schwaches Raytracing:

1670922494758.png

Solche Ergebnisse in Games, in denen es kaum Raytracing gibt, verzerren das Bild stark - da Menschen hier denken könnten "hey, AMD ist auch in Raytracing gut" - nein, sind sie nicht. Das sind eben Games, in denen es quasi kein RT gibt - auf Papier jedoch schon. Das ist am Ende einfach nur irreführend und könnte Menschen dazu bringen, sich eine 7900 XTX zu kaufen "ist ja zukunftssicher in Games mit RT" - nein, ist sie nicht. Zukünftige Games, die zB auf die Unreal Engine 5.1 setzen, werden noch viel mehr auf RT setzen - AMD wird hier noch stärker abstürzen.
 
Zuletzt bearbeitet :
Denke der Run auf die Karten wird aus bleiben
und das Scenario wie bei der RDNA 2 Karten Generation wird komplett ausbleiben.
Gut möglich dass die Karten heute über Stunden verfügbar sein sollten.

849 und 979 Euro müssten die Karten kosten um alles ins Grüne Licht zu rücken
und um die Mehrperformance P/L Mässig hinzubekommen.
 
Cool. Hier sieht man schoen wie nutzlos RT ist.
Unspielbare Frameraten selbst bei einer 2000€ 4090.
Das ist totaler Blödsinn. Mit DLSS Quali alleine kommt man locker an 60-70 FPS (alles ab 40 FPS ist auf einem OLED in VRR/G-Sync gut spielbar - wer das Gegenteil behauptet, hat noch nie auf einem OLED in VRR gezockt ;) ), mit FG kratzt man dann bei 100-120 FPS rum (wenn man das denn benutzen möchte, auf einem OLED in VRR sind 60-70 FPS mehr als genug).

Und das bei vollkommen überragender Bildqualität... sofern ein Spiel das denn tatsächlich auch richtig umsetzt.
 
Das ist totaler Blödsinn. Mit DLSS Quali alleine kommt man locker an 60-70 FPS (alles ab 40 FPS ist auf einem OLED in VRR gut spielbar), mit FG kratzt man dann bei 100-120 FPS rum.
Das ist kein "Bloedsinn" sondern FAKT.
DLSS = nicht mehr natives 4k.
Und 60fps in einem Shooter ist noch immer laecherlich und zuwenig. Ist ja kein Strategiespiel :rolleyes:

Also ich hab lieber RT abgedreht, und mit nativer Aufloesung und anstaendig viel fps gespielt. Als mit marginal besserer BQ durch RT.
 
Als AMD-Käufer aus Gewohnheit käme ich mir schon verarscht vor. Erst kaufe ich mir einen 7700X, der beim Spielen hinterherhängt, in einem überteuerten System, um dann im Sommer nochmal einen 7700X3D zu kaufen, um up to date zu sein. Dann jetzt eine Grafikkarte, bei der ich auf die 3. oder 4. Treibergeneration warten muss, bevor alles rund läuft und nicht mehr so säuft und die dank knapper Verfügbarkeit so teuer wie eine rundere 4080 sein wird.
 
DLSS = nicht mehr natives 4k.
Und 60fps in einem Shooter ist noch immer laecherlich und zuwenig. Ist ja kein Strategiespiel :rolleyes:
Hast Du jemals auf einer NVIDIA GPU auf einem OLED in VRR/-G-Sync gezockt? 60 FPS "fühlen" sich hier wie 100-120 FPS an. Das läuft alles butterweich. Subjektiv würde ich das mit einem 144 Hz non OLED, non VRR Display vergleichen.

Ich habe damals Cyberpunk mit RT im Anschlag auf meiner 3090 mit knapp 40 FPS auf einem OLED in VRR gezockt (und gleichzeitig für meinen YouTube Channel aufgenommen) - subjektiv war das Gameplay absolut butterweich, keinerlei Probleme. Die "aufgenomme" nicht VRR Datei am Ende war dann teilweise beim Anschauen jedoch arg ruckelig - da hat sich der Unterschied zwischen "nativ OLED mit VRR" erleben und "aufgenommen" gezeigt. Das war damals für mich unerwartet, da ich davon überrascht wurde und dieses "Erlebnis" nicht aufnehmen konnte.

VRR auf einem OLED ist ein absoluter Gamechanger. Da "verdoppelt" man gefühlt seine eigenen FPS.

Das kann man auf YouTube nicht zeigen, das muss man selbst erlebt haben. Extrem niedriger Inputlag (OLED) mit VRR kombiniert ist total genial.

Mal ganz abgesehen davon, dass es genug Tests gibt, die zeigen, dass häufig DLSS 2.X eine bessere Bildqualität als nativ ermöglicht - dementsprechend ist das Argument "kein echtes 4K" quasi irrelevant.

Über FG kann man sich natürlich unterhalten - die Technik hat (noch) Schwächen und sollte mit Vorsicht genossen werden. Die ist aber überhaupt nicht nötig (s.o.).
 
Zuletzt bearbeitet :
Diese "Gesamtübersichten" von Ergebnissen sind leider irreführend. Viele Games (die offiziell auf RT setzen) setzen in tatsächlicher Hinsicht nur sehr sporadisch auf Raytracing und werden zu größten Teilen durch Rasterization ihre Bildergebnisse erzielen - hier stürzt dann AMD nur wenig ab und kann "gute" Ergebnisse erzielen, weil es eben kaum RT zu berechnen gibt.

Solche Ergebnisse in Games, in denen es kaum Raytracing gibt, verzerren das Bild stark - da Menschen hier denken könnten "hey, AMD ist auch in Raytracing gut" - nein, sind sie nicht. Das sind eben Games, in denen es quasi kein RT gibt - auf Papier jedoch schon. Das ist am Ende einfach nur irreführend und könnte Menschen dazu bringen, sich eine 7900 XTX zu kaufen "ist ja zukunftssicher in Games mit RT" - nein, ist sie nicht. Zukünftige Games, die zB auf die Unreal Engine 5.1 setzen, werden noch viel mehr auf RT setzen - AMD wird hier noch stärker abstürzen.
Genau das meinte ich mit dem Beispiel CP2077 weiter oben - wir sind uns da glaube ich absolut einig (y)
 
Oben Unten