AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Das du dich damit selber ins Abseits führst ist dir nicht aufgefallen? Du hebst RT in den Olymp und es gibt eigentlich kaum Spiele dafür in Zukunft vllt. Ich führe mal nur Witcher 3 Hairworks an xD also bitte erzähl nichts von gesunder Kaufentscheidung. Wären die enscheidungen gesund hätten wir alle FHD Monitore und 3060ti Karten oder 6700xt´s.
RT war für mich kein entscheidendes Kaufkriterium. Das ändert nichts daran, dass RT geil ist - aber ja, mehr als ~6 Games (die das richtig umsetzen) gibt es aktuell nicht. Das zu loben ist für mich (dennoch) nur richtig, da es viele gibt, die hier aus Unwissen (oder Unwollen) falsch Zeugnis geben ("ist schlecht, Gimmick, sieht man kaum, braucht keiner") - RT ist die natürliche Evolution von Grafik in PC Games und wird in wenigen Jahren standart sein - dann freut mich sich nur noch darüber. Da AMD aber aktuell hier nicht liefern kann (und die erste RTX 20er Generation nur mickrige RT Leistung liefern konnte), gibt es eine Breite Masse an Menschen, die den Sinn darin nicht sehen (weil sie das Feature quasi nicht nutzen können).

Hinzu kommt, dass ein "echtes", "vernünftiges" RT Erlebnis am Ende scheiße viel Geld kostet. Machen wir mal plakativ eine Rechnung

PC mit gutem Prozessor inkl. GPU: 2500 € (Minimum).
Ordentlicher Monitor/TV mit OLED/Mini-LED: 1000 €.
Peripherie: 400 €.
Soundanlage/ordentliche Soundbar: 500 € (Minimum).

Sind wir locker mal bei ~4500 € - das ist also eine gewaltige Einstiegshürde. Und die Games sind da natürlich noch nicht dabei...

Entscheidendes Kaufkriterium für meine 4090 waren

a) überragender neuer Dual-AV1 En-/Decoder (meine Videodateien sind statt 30 GB nun ~ 12 GB groß, bei ähnlicher Bildqualität).
b) Lächerlicher Leistungsgewinn im Rendering und AI-Workloads (komme im Vergleich zur 3090 ca. auf 50% der vorherigen Zeit).
c) NVIDIA Omniverse
c) Gewaltiger Leistungssprung in Games, sodass ich mittlerweile safe mit 60 FPS im Low aufnehmen kann, mit meiner 3090 war ich beim 4K HDR aufnehmen häufiger in die 40-50er lows abgerutscht, und dementsprechend hat dann YouTube die gesamte Datei "abgewertet".

Für mich als Content Creator ist die Karte also Gold wert. Wäre ich nur "Zocker", würde ich wohl mit ner 3080 TI vorlieb nehmen und hätte meine Ruhe.
 
Zuletzt bearbeitet :
👆This.
 
@Igor Wallossek

Würde mit einem 5800X3D und der Referenz 7900XTX ein BeQuiet Dark Power Pro 11 zu 650 Watt sicherlich ausreichen
oder muss es dann schon mindestens die 7900XT werden.
Untervolting bringt bitte Lautstärke Mässig und Performance EinBusenmässig wieviel bei den beiden Karten.
 
Ja RT ist (wird) wichtig aber für die große Maße der verkauften Nvidia GPUs stehen in erster linie die OEMs und das sich NVIDIA
hier halt in 20 -30 jahren als Platzhirsch auch von der Bekanntheit her etabliert hat.

Da hat Nvidia sicher auch die besseren Konditionen bzw Verfügbarkeit, man darf am Ende nicht vergessen das AMD Millionen von Konsolen mitversorgt und daraus vom Endkundenfeeling her trotzdem nichts gewinnt weil der Großteil eh keine Ahnung was in der Plastikschachtel drinnen ist oder es schlicht nicht interessiert...

Das ist in etwa so wie Intel im CPU Sektor.. die haben auch über Jahrzehnte die Maße verkauft egal ob das Produkt gut oder schlecht war.
Der Großteil der Endkunden kennt halt nichts anderes bzw kauft das was er gewohnt ist bzw immer gekauft hat.
Jetzt von den NV Verkaufszahlen auf den RT Nutzen zu schließen halte ich daher noch für gewagt..
 
Zuletzt bearbeitet :
DLSS = nicht mehr natives 4k.

Stimmt, aber teilweise sogar schärfer und besser als natives 4K.

Und 60fps in einem Shooter ist noch immer laecherlich und zuwenig. Ist ja kein Strategiespiel :rolleyes:

Strategiespiele kann man schon mit 30 FPS spielen. Für Shooter reichen auch 60 FPS, das ist alles andere als zu wenig. Vielleicht zu wenig für den Counterstrikespieler. In Far Cry 6, Division 2 oder Ghost Recon Breakpoint bieten 120 FPS kaum einen Mehrwert und dann auch nur in Kombination mit einem 120 Hz Monitor, ansonsten ist das total sinnlos. Außerdem hängt das auch stark vom Inputlag des Monitor ab. Dann lieber 60 FPS und RT.


Also ich hab lieber RT abgedreht, und mit nativer Aufloesung und anstaendig viel fps gespielt. Als mit marginal besserer BQ durch RT.

RT ist auf jeden Fall sinnvoller als 120 FPS. Für den Counterstrikespieler natürlich nicht, die habe auch keine Ansprüche an die Grafik. Aber es ist jeden selbst überlassen RT auszuschalten und die Regler auf Minimum zu stellen und dann mit seinen lächerlichen 120 oder 240 FPS zu spielen, wer das unbedingt braucht.
 
Zuletzt bearbeitet :
Ich betreibe immer mindestens 3 Monitore an meine Karte. Da muss ich mir Morgens den Scheitel mit dem Hammer ziehen um eine aktuelle AMD Karte zu erwerben. Ehrlicherweise erwarte ich seit Jahren von AMD nicht mehr viel im Bereich Grafikkarten, aber das ist doch ein völliges Desaster und ein ökölogischer Offenbarungseid.

Zumal die Meisten von uns mittlerweile mindenstens 2 Monitore betrieben und selbst Vielspieler sich oft im Non-Gamingmodus bewegen.

Wieviel macht sowas eigentlich in Cash bei einer täglichen Nutzungsdauer von 5 Stunden im Non-Gaming Betrieb?
Also wenn das Teil wirklich 103W anstatt der ~40W die meine 3080 12G zieht schnabuliert nur weil man einen 2. Monitor dran hat:

60 W * 5 h/Tag * 365 Tag = 109.500Wh = 109,5 KWh
Arbeitspreis bei meinem Stromanbieter = 38Ct/KWh

109,5 KWh * 0,38 €/KWh = 41,61 € pro Jahr.

Jetzt keine Katastrophe wie es manche hinstellen aber schon iwie unnötig.
 
Sorry aber wo bitte ist DLSS scharf xD Das musste dir schon schön saufen aber mehr geht da nicht. Es fühlt sich laggy an ghosting an allen ecken und kanten. DLSS ist aktuell nur aufm Papier gut.
 
  • Like
Bewertungen: mer
Sorry aber wo bitte ist DLSS scharf xD Das musste dir schon schön saufen aber mehr geht da nicht. Es fühlt sich laggy an ghosting an allen ecken und kanten. DLSS ist aktuell nur aufm Papier gut.
Ist das Hörensagen?
 
Sorry aber wo bitte ist DLSS scharf xD Das musste dir schon schön saufen aber mehr geht da nicht. Es fühlt sich laggy an ghosting an allen ecken und kanten. DLSS ist aktuell nur aufm Papier gut.

Dann hast Du wohl noch nie mit DLSS gespielt bzw. den aktuellen Benchmark mit DLSS gesehen. Mal einzelne Bilder vergleichen, die sind schärfer.
DLSS laggy? Ja wer mit 50 FPS inkl. DLSS spielt ja, ansonsten nicht. Bei 80 - 120 FPS ist das nicht mehr relevant.
 
Also die Verfügbarkeit scheint schon einmal mehr als dürftig zu sein. Meine letzte Info vom Distri ist, dass Sapphire, Karten vom Distri weg in Richtung NBB transferiert hat. Sprich, Sapphire hat hier scheinbar aufdiktiert, dass die Karten zum Endkundenhändler gehen müssen. Das ist mal ein Statement...
 
Das kommt ein wenig auf den Kontext an. Leider vergleichen viele Reviewer das P/L Verhältnis der 7900 XT(X) mit der 6950 XT - einem HALO Produkt mit starker Preiserhöhung zum Vorgängermodell.

Wenn wir "fairerweise" die 7900 XT(X)X gegen das "echte" Vorgängermodell (6900, 6800 XT) einordnen (MSRP 699, 649 €) und darüber nachdenken, dass die 7900 XTX hierzulande minimum 1000 € kosten wird (wir werden mehr heute Mittag wissen, ich schätze bei AMD MSRP auf 1200 €, "gute" Custommodelle 1300 aufwärts €), wird das Produkt wegen der verhältnismäßig niedrigen Mehrleistung stark unattraktiv.
Das stimmt sicher, gemessen an der letzten Generation ist der Preis zu hoch, aber dazwischen hatten wir sowieso starke Preissteigerungen für Endkunden bei Grafikkarten und jetzt zusätzlich noch Inflation.
Aber vergleichst du mit den 40XXern ist es im Rahmen, denke ich.
Ich bin aber gespannt, wie sich der Markt entwickelt. Bei Zen4 gab es ja auch schon Preissenkungen, vielleicht dann in 1 - 2 Monaten auch bei dem 7000ern.
 
Ich denke mal schon

Und Ghosting gibt es bei DLSS 3.0 nicht mehr. In einigen Titeln kann man es noch sehen, aber da liegt es daran das hier DLSS nicht richtig umgesetzt worden ist.

PCGH hat ein Blindtest Video Online mit DLSS 3.0 da sieht man genug Bildfehler und Ghosting ^^ Das sagt alles, keine weitere Fragen euer Ehren der Beschuldigte ist schuldig im Sinne der Anklage.
 
Jetzt mal Butter bei die Fischies :D

Ob RT nun ein Gimmick oder essenziell ist, liegt doch im Auge des Betrachters. Fakt ist, RT gibt es jetzt nicht mehr nur als Techdemo/Diashow. Darüber darf man sich sicherlich freuen - ebenso, was das für die nächsten GPU-Generationen bedeutet. Fakt scheint auch, dass der Großteil der weltweiten PC Spieler entweder nicht über die nötige Hardware verfügt oder die Spiele im E-Sportmodus spielt - also bewusst ohne RT (wenn denn RT überhaupt vorhanden ist). Bei Steam darf man sicherlich die ganzen Zweitaccounts (incl. gebannter Cheater) nicht vergessen, was die Statistik mit Sicherheit ein wenig verfälschen dürfte. #Techforenbubble

Fakt ist für mich, dass RT (bzw. die beste RT-Leistung) nicht der einzige Kaufgrund für nVidia ist und kein Totschlagargument gegen AMD. Beide haben ihre Vorzüge... aber zur Zeit ist das Meinungs- und Preis-/Leistungsspektrum seeeehr diskussionswürdig. Bei einer Sache sind wir bestimmt alle einig: im Vergleich zu früher ist da viel Luft nach oben, egal wohin man sieht ^^

Edit/PS: als Shader eingeführt wurden, war das Ergebnis im Übrigen mit der Einführung/Entwicklung von RT vergleichbar. Da gabs noch richtig Benchmarks für und heute findet man den Begriff schon garnicht mehr. Ähnliche Parallelen dürfte es auch bei DLSS/FSR geben. Lasst 1-2 Jahre vergehen, dann interessiert das niemanden mehr :p
 
Zuletzt bearbeitet :
bestätigt das der aktuelle Test nicht wieder? Wenn man einen Treiber Fix braucht um den Idle verbrauch in normale Gegenden zu drücken zähle ich das schon zu Treiber Problemen...
Bei Ada musste bereits schon zwei mal das Bios gefixt werden. Hier gab es Probleme mit schwarzen Bildschirmen beim ersten Start, teilweise gar kein Bild und nicht behebbare Bugs in NFS.
 
  • Like
Bewertungen: mer
Das du dich damit selber ins Abseits führst ist dir nicht aufgefallen? Du hebst RT in den Olymp und es gibt eigentlich kaum Spiele dafür in Zukunft vllt. Ich führe mal nur Witcher 3 Hairworks an xD also bitte erzähl nichts von gesunder Kaufentscheidung. Wären die enscheidungen gesund hätten wir alle FHD Monitore und 3060ti Karten oder 6700xt´s.
Es lassen sich hat viel von Werbung , tollen bunten Balken leiten.
Wenn man dann mal überlegt für welche Spiele RT überhaupt ist,dann wird schnell klar das es Spiele sind die mit 30FPS locker laufen.
 
Sry mir geht es am ende um die Effizienz und da wird Nvidia immer noch vorne liegen.
Klar entscheiden auch Balken und Zahlen mit.
Am ende denke ich an mich und nicht an eine Firma.

Ja das spielt mitlerweile eine größere Rolle , spätestens nach Anfang des Krieges.
Damals war es etwas , was man ignorieren konnte.
Der allg. Verbrauch der Karten steigt eh und wenn da eine effizienter ist , lohnt sich das ja.
Die 1080ti hab ich nun 5 Jahre.
Die nächste sollte mind 4 Jahre halten und da nehme ich Nvidia.
Nebenbei ist sie auch in RT besser was nett ist mitzunehmen.

Nur durch die Radeon plus die leicht niedrigeren Preise komme ich auf die Idee ne 4080 zu holen, da ich hiermit für 100€ mehr das bessere Gesamtpaket habe.
Hätte AMD zumindest mit Verbrauch gepunktet wäre mir RT egal aber so......
 
PCGH hat ein Blindtest Video Online mit DLSS 3.0 da sieht man genug Bildfehler und Ghosting ^^ Das sagt alles, keine weitere Fragen euer Ehren der Beschuldigte ist schuldig im Sinne der Anklage.

Also doch alles nur hören und sagen, anstatt selbst getestet und dann noch über HD per Youtube....
Ok alles klar.
 
Effizienz interessiert keinen sonst würde man auch nicht zu Intel greifen,die dicksten Karten kaufen,stromfressende Monitore,Soundanlagen........und wenn einer 14/7 Spielen kann läuft eh was falsch.Da Spielen ein paar Watt bei der Grafikkarte überhaupt keine Rolle mehr.
 
Oben Unten