AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Tiptop...prüf deine Lieblingsgames und wenn auch da ~100% FPS Zuwachs sind ist doch alles schicki (y)
 
Wohl wiedermal der Preis der Early Adopter, den 4090er Besitzer in anderer Form mit Ihren Kabeln erlebt haben. Hoffentlich wird das schnell gefixt
Weils ein Problem mit Oculus Link auf dem einen Rechner gab konnten wir den Bench am Ende leider nur mit Reverb vs Quest 2 screen shotten..
Aber das sagt eh alles und ja.. das mit den 40fps ist die 7900XT ^^

6900xt.jpg7900xt.jpg
 
Nunja. du hast ja ein Markennetzteil und wenn Igor es empfiehlt, sollte es wohl passen. Die Frage ist ja auch, was zieht wieviel Strom sonst noch aus dem Netzteil. Ich hab einfach keine Lust mehr mir darüber Gedanken zu machen. Darum sind meine Netzteile ziemlich overdosed.
Hätte ich damals beim PC Bau die Vorstellung gehabt, dass Grafikkarten bald ab Werk mit 450W ausgeliefert werden (NVIDIA hat´s jetzt leider etabliert)... dann hätte ich sicherlich ein größeres Netzteil verbaut. Wollte jetzt auch nicht extra wegen der aktuellen Grafikkarten-Generation wieder 250€ und mehr ausgeben für nen 850W Markennetzteil.

Zum Glück ist der Ryzen 5800X3D sehr genügsam bei Games... bislang hat der sich etwa max. 70W gegönnt, meistens läuft der so zwischen 40-50W (beobachtet in GTA V). Außer dem nackten Mainboard, 4x8GiB RAM, 2 SSD´s und einer klassischen HDD muss das Netzteil auch nix weiter versorgen. Übertaktet ist bei mir auch nix.

Ich hoffe das läuft dauerhaft dann auch so stabil wie jetzt... ich erinnere mich noch, wie das bei den Vega Karten war die ja auch mal gerne Lastspitzen verursacht haben. Aber auch hier hat sich @Igor Wallossek ja im Artikel dazu geäußert.

Aber wenns dann anfängt problematisch zu werden kommt ein größeres Netzteil in den PC... denn Cyberpunk wollte ich schon noch mit ordentlicher Grafik genießen :cool:
 
Zuletzt bearbeitet :
Aber das sagt eh alles und ja.. das mit den 40fps ist die 7900XT ^^
Wahrlich hat AMD den VR-Sektor sehr vernachlässigt...momentan ist man da bei Nvidia besser aufgehoben.MSFS 2020 VR zeigt ja ganz gut wie die Karten performen.
 
Tiptop...prüf deine Lieblingsgames und wenn auch da ~100% FPS Zuwachs sind ist doch alles schicki (y)
Mich hatten bei der Vega 56 in Assassin’s Creed Odyssey vor allem die Min FPS und die Frametimes gestört. Denn trotz teils hoher FPS hats im Benchmark auch schon geruckelt. Der Ryzen 5800X3D hat auch die Frametimes ordentlich verbessert... hatte vorher einen Ryzen 2700 ohne X. Die Frametimes sind jetzt konstant niedrig und die Min FPS sind jetzt 3x so hoch wie zuvor.

Da ich die Max FPS in der Regel eh beschränke, haben die nur ihre Prestige-Berechtigung in Benchmarks bei mir 🙃
 
Dabei sollte das mit der RDNA3 und dem En/DeCoder docj jetzt besser mit der Quest laufen.
 
Weils ein Problem mit Oculus Link auf dem einen Rechner gab konnten wir den Bench am Ende leider nur mit Reverb vs Quest 2 screen shotten..
Aber das sagt eh alles und ja.. das mit den 40fps ist die 7900XT ^^

Anhang anzeigen 22225 Anhang anzeigen 22226
Ich weiss nicht warum aus Bananensoftware nun unbedingt auch noch Bananenhardware werden musste. Den Scheiss erleben mittlerweile alle Kunden beim Kauf von frisch geleasten Produkten. Ich hatte das bei meiner 3090, der im Prinzip ein Stromanschluss fehlt, dann mit der 4090 und jetzt erleben es die AMD Kunden. Wäre doch keinem eine Zacken aus der Krone gebrochen, wenn man der ganzen Sache sowohl bei NViDIA als auch bei AMD noch ein paar Monate mehr Zeit gegeben hätte.

Normalerweise bin ich auch nicht so dämlich und kaufe bei Release, aber letztes mal war es dem Markt und der vermuteten Preisentwicklung geschuldet und dieses mal der Erfahrung vom letztenmal.

Aber Fuck off, mit einer 4090 im Rücken schaue ich mir den nächsten Release erstmal in Ruhe an!
 
Zuletzt bearbeitet :
Wahrlich hat AMD den VR-Sektor sehr vernachlässigt...momentan ist man da bei Nvidia besser aufgehoben.MSFS 2020 VR zeigt ja ganz gut wie die Karten performen.
RDNA2 performt nicht so schlecht in VR, da ist es dann wirklich oft titelabhängig. Bei F1 22 zb sieht Nivida kein Land in VR , da geht Preset Ultra mit der 6900xt ganz leicht wo die 3090 knapp über mittel schon nicht mehr kann.
Aber da ich micht fast ausschließlich im Simracing Sektor bewege kann ich zum Flightsimulator nichts sagen.
Fakt ist aber mit RDNA3 geht halt im Moment gar nicht viel in der Hinsicht oder nichts...
 
RDNA2 performt nicht so schlecht in VR, da ist es dann wirklich oft titelabhängig. Bei F1 22 zb sieht Nivida kein Land in VR , da geht Preset Ultra mit der 6900xt ganz leicht wo die 3090 knapp über mittel schon nicht mehr kann.
Aber da ich micht fast ausschließlich im Simracing Sektor bewege kann ich zum Flightsimulator nichts sagen.
Fakt ist aber mit RDNA3 geht halt im Moment gar nicht viel in der Hinsicht.
Ich hab ebenfalls vor Simracing in VR zu betreiben, aber ich hab noch keine VR Hardware angeschafft. Hoffentlich reift der Treiber der RX 7000er Generation schneller als der von Vega⏳

Ich hab auch in Assetto Corsa Competizione bislang einen komischen Effekt mit klassischem Monitor und der RX 7900 XT bemerkt... die Kurve 1-2 in Monza (Variante del Rettifilo) verursacht bei mir "Helligkeitsflackern", welche nicht vom Monitor kommen. Es ist nur diese Kurve in Monza und ich sehe es auch nur bei Renngeschwindigkeit (Tageszeit im Spiel: 16Uhr).

Hab die RX 7900 XT erst seit heute morgen im PC und daher noch nicht alles testen können was Games angeht, welche ich praktisch auswendig vom Verhalten her kenne.
 
Das VR Defizit kann ich leider bestätigen :(
In AC mit OculusVR und SteamVR nur 36 statt 72 FPS bei 120% (Oculus) und 190% (Steam) Workload. Da haut was gewaltig nicht hin.
ACC hingegen läuft mit der OculusVR Runtime gefühlt ganz ok, aber das ist nicht meine bevorzugte Sim.
 
Wenn ich das richtig deute, ist der Verbrauch im Vergleich zu 3090ti und 6950xt immer hin deutlich gesunken. Aber immer noch viel VIEL zu hoch! Und im direkten Vergleich zu NVidia zieht AMD leider deutlich den Kürzeren bei dieser Generation. Schade.

Spulengereusche und Betriebsgereusche sind leider ein ausschluß Kriterium :(.
Wenn man wie ich außer dem PC keine Geräuschquellen im Raum hat, dann ist ne Boind 747 unterm Tisch nen no-go! Zumal ich von sowas mörder Tinitus-Pfeifen bekomm, wenn ich das 8+ Stunden am Tag hätte.
Nö Danke.

Danke für den Test @Igor.
Sorry @AMD, Generation Failed.
 
Spulengereusche und Betriebsgereusche sind leider ein ausschluß Kriterium :(.
Das ist wohl auch bei Team grün nicht viel besser...
Soweit man das hört, gibt es da auch kaum eine Karte, welche kein Spulenfiepen hat.
Ansonsten verstehe ih dein Problem.
Ich habe meinen Rechner in ~Kopfhöhe, in einem offenen Gehäuse an, an der Wand hängen.
 
Das ist wohl auch bei Team grün nicht viel besser...
Soweit man das hört, gibt es da auch kaum eine Karte, welche kein Spulenfiepen hat.
Ansonsten verstehe ih dein Problem.
Ich habe meinen Rechner in ~Kopfhöhe, in einem offenen Gehäuse an, an der Wand hängen.
Ich hab mit meiner 4090 definitiv kein Spulenfiepen.
 
Ich auch nicht. FE und Suprim / Suprim Liquid sind quasi lautlos. Die 4080 FE ist ganz leise mit dabei, die 4080 Suprim wiederum fast lautlos.
 
Ich kann bisher nur von diversen Videos von Der8auer und anderen sprechen...
egal.
Nächste Woche kommt die MSI 4080 Suprim für meinen Bruder..
Und ich bestelle mir eine, sobald ich mir eine zweite bei Mindfactory bestellen kann.
(Habe nen kompletten Rechner für meinen Bruder bestellt 13900k+4080)

Ich wollte mir eigentlich eine xtx zulegen.. aber die ist ja nicht verfügbar.
+ Die Treiber scheinen ja eher mistig zu sein.
 
Ich hab mit meiner 4090 definitiv kein Spulenfiepen.
Ich auch nicht. FE und Suprim / Suprim Liquid sind quasi lautlos. Die 4080 FE ist ganz leise mit dabei, die 4080 Suprim wiederum fast lautlos.
Selbst meine 4090 von Inno3D hat null Fiepen und die Lüfter sind auch wirklich sehr silent. Hat sich gelohnt. Bezüglich Kühlleistung und Geräuschentwicklung gab es noch nie breitgefächert so gute Karten, vielleicht hatten die Hersteller etwas mehr Spielraum bei der Marge oder nur engere Vorgaben von Nvidia.
 
Oben Unten