Gaming Grafikkarten Testberichte VGA

AMD Radeon RX 7900XTX und RX 7900XT im Test – Ein riesiger Schritt nach vorn und einer zur Seite

Lastspitzen und Kappung

Schauen wir uns zunächst einmal die fließenden Ströme an. Gemessen wurde in gröberen 20-ms-Intervallen, also rund 50 Mal pro Sekunde, um die Last am Supervisor-Chip der Netzteile zu simulieren (Abschaltung). Wir sehen, dass ALLE Lastspitzen bei spätestens 35 A abgekappt werden. Die kleinere RX 7900XT arbeitet weniger restriktiv und erzeugt stellenweise sogar höhere Peaks bis 39 Ampere!

Trotzdem müssen wir noch einen Blick auf die Spannungen werfen, bzw. das Produkt aus Spannung und Stromfluss. Ich schrieb ja bereits, dass ich hier an drei verschiedenen Netzteilanschlüssen gemessen habe, auch wenn sich am Ende auf der Platine der Grafikkarte alle drei Anschlüsse wieder irgendwie treffen. Das, was wir hier jetzt als viel deutlichere Schwankungen und Spitzen erkennen können, liegt am partiell ein klein wenig übervoltenden Netzteil und somit an der Spannung und nicht den Strömen. Das ist technisch bedingt, jedoch kein Beinbruch. Wir sehen jedoch auch, dass die wenigen Spitze bei über 500 Watt nicht durch den fließenden Strom bedingt ist (Grafikkarte), sondern eigentlich vom Netzteil her resultiert! Das liegt auch an der Topologie und vor allem den Eingangsfiltern. Ich vermute, dass AMD hier mit einer etwas höheren Schaltfrequenz der Spannungsregler als NVIDIA arbeitet, was auch den zusätzlichen Frequenzmüll erklären könnte.

Beim Torture-Test sieht es kaum anders auch, auch wenn man hier die niedrigere TBP der RX 7900XT sieht. Doch die einzelnen Spannungsspitzen sehen eher uncool aus, übrigens bei beiden Karten.

Nimmt man jetzt wieder die Spannung mit hinzu, dann sieht man eine stärkere Welligkeit (Ripple), die sich wiederum aus der etwas hibbeligen Betriebsspannung ergibt. Allerdings muss man zur Ehrenrettung des Netzteils auch sagen, dass dies alle aktuellen Produkte aller Hersteller betrifft und sicher auch kaum zu vermeiden ist.

 

Weil ich es aber noch ganz genau wissen möchte, löse ich das Ganze einmal noch höher auf und nehme mir 20 ms als gesamte Laufzeit vor. Die Intervalle von 10 Mikrosekunden sind gerade noch sinnvoll messbar und wir sehen hier als graue Kurve auch einmal die Spannung, deren Mittelwert zwar bei knapp über 12 Volt liegt, die aber nichtsdestotrotz im Rahmen des Zulässigen noch etwas alterniert. Die beiden Radeons schalten deutlich öfter als die RTX 4080 und RTX 4090, während man nur beider 7900XTX eine echte Kappung bei rund 40 Ampere sehen kann. Bei der RX 7900XT geht das partiell sogar deutlich höher.

Rechnet man das dann auf die Leistungsaufnahme in Watt um, dann erhält man dieses Bild:

Das Ganze habe ich auch noch einmal für den Torture-Loop gemacht, bei dem wir die regelmäßigen Drops bewundern dürfen. Zunächst wieder die Ströme, die aber in jedem Anstieg noch jede Menge eigenartiger, sporadisch wiederkehrender Drops aufweisen. Das sieht aus wie ein heftiger Schluckauf, bevor die Leistung kurz darauf wieder richtig gedrosselt wird.

Hier mal zu Vergleich die GeForce RTX 4080, die ein deutlich besseres Last-Management aufweist:

Und dann wieder gesamte Watt-Zahl:

Netzteilempfehlung

Kommen wir nun zu dem Punkt, der die erwartete Sensation explodierender Netzteile komplett ad absurdum führt. Selbst WENN man die Karte hoffnungslos überpowert, braucht eigentlich kein Mensch ATX 3.0 Netzteile über 1000 Watt, es sei denn, die CPU frisst mehr als 300 Watt. Das ist wirklich eine reine Arbeitsbeschaffungsmaßnahme für die darbende Netzteilindustrie und befriedigt nur die kranke Phantasie einiger Normierungs-Fetischisten. Das muss man wirklich mal so hart formulieren. Man sollte also auch zusammen mit der CPU immer unter 600 bis 700 Watt bleiben, wenn man bis 10 ms mitrechnet. Denn es ist das, was die Netzteile noch “sehen”

 

Dahingehend formuliere ich auch meine Netzteilempfehlung, die bei beiden Modellen so lautet, dass man mit einem modernen 650-Watt Gold- oder Platin-Netzteil recht sicher hinkommen sollte. Wer übertakten möchte, sollte noch einmal 100 Watt mehr einplanen, was vor allem auch für die Boardpartner-Karten gilt.

be quiet!

Straight Power 11 650 Watt Gold
Straight Power 11 650 Watt Platin
Pure Power 11 700 Watt Gold

Sharkoon

Silent Storm Cool Zero 650 Watt

Corsair

RM 650 Gold 650 Watt

 

892 Antworten

Kommentar

Lade neue Kommentare

Najuno

Mitglied

16 Kommentare 12 Likes

Hallo Igor, vielen Dank für den Test :).

Ist wiedermal alles Drin und Dran, damit man sich endlich eine Übersicht machen kann, was die neuen AMD Karten nun wirklich können.

Jetzt auf jeden Fall erstmal schmökern :).

Antwort Gefällt mir

Igor Wallossek

1

10,566 Kommentare 19,829 Likes

Viel Spaß und Zeit :D

Antwort 8 Likes

Roland83

Urgestein

709 Kommentare 549 Likes

Die Runde geht wohl eindeutig an Nvidia, die Effizienz passt mir so gar nicht, vor allem der Idle Verbrauch ist unter aller S... Werd wohl wenn die Preise fallen eher zur 4080 oder 4090 schielen oder noch bis zu den nächsten Karten die 6900XT werkeln lassen :)

Antwort 3 Likes

K
Kobichief

Urgestein

673 Kommentare 204 Likes

mal schauen wann man 7800er bringt, das sieht schonmal ok aus, aber der Stromverbrauch dieser Top-Modelle ist mir zu viel.

Antwort Gefällt mir

M
Maklas

Mitglied

15 Kommentare 0 Likes

Moin,

danke schonmal für den Test, auch wenn ich gerade erst angefangen habe zu lesen.

Im zweiten Absatz auf Seite 2 hat sich Zen 3 eingeschlichen: "...nutze aber eine aktuelle AMD-CPU in Form des Ryzen 9 5950X..."

Antwort Gefällt mir

TheFanatic

Mitglied

10 Kommentare 5 Likes

Also das erklärt wieso es keinen direkten vergleiche bei der presentation gab....

Antwort 2 Likes

Z-AB

Neuling

7 Kommentare 3 Likes

Vielen Dank für die tolle Analyse, es wirkt wirklich so, als hat AMD ganz am Ende nochmal mit Gewalt ein paar Prozent mehr Leistung herausholen wollen.
Daher meine Frage @Igor Wallossek:
Gibt es schon Erkenntnisse zum Undervolting? Ist sicherlich interessant zu wissen, wie viel Leistung man bei 70-80% des Powertargets verliert.

Antwort 1 Like

FfFCMAD

Urgestein

693 Kommentare 199 Likes

Habe mir nur die Leistungsbalken vs. Energiebedarf in den Spielen angeschaut. Das war leider nichts um die 4080 im Preis zu druecken. Eher im Gegenteil. Ich lese mir das heute Abend noch mal ganz durch, aber das ist schon mal sehr enttaeuschend. Ich habe zwar die 4090 gekauft und haette das so oder so getan, bei der Mittelklasse haette ich den Leuten aber gewuenscht, das die Preis/ Leistung seitens Nvidia verbessert werden muss. Das wars wohl...

Antwort Gefällt mir

D
Daedalus

Veteran

160 Kommentare 139 Likes

Ich muss gestehen, ich bin auch etwas enttäuscht, vor allem wenn RT ins Spiel kommt. Da hätte ich gedacht, dass AMD doch mal deutlicher aufholen kann. P/L natürlich immer noch besser als nVidia, aber wenn die 4080 tatsächlich noch etwas günstiger wird, wird die 7900XTX an Attraktivität einbüßen.

Antwort Gefällt mir

grimm

Urgestein

3,203 Kommentare 2,134 Likes

@Igor Wallossek Hier in dem Absatz stimmt irgendwas nicht (unter WQHD Benchmarks):

"Das Bild sieht jetzt erst einmal so aus, dass in WQHD die Radeon RX 7900XT und die GeForce RTX 4080 quasi gleichauf liegen, während die RX 7900XT einen Rückstand von 10,6 Prozentpunkten aufweist. Das ist alles enger als erwartet, zeigt aber auch, dass man für WQHD eigentlich auch mit einer Radeon RX 7900XT reichen würde."

Antwort Gefällt mir

Sebarbar

Neuling

8 Kommentare 7 Likes

Danke für den tollen Test Igor.
Summa Summarum ist das irgendwie "Meh", was AMD da zum Launch liefert und nach dem großen Wurf sieht das wirklich nicht aus.
Aber als alt eingesessener AMD User weiss man ja, dass es gerne am Anfang an den Treibern hakt. Time will tell und so 🤣

Antwort 1 Like

M
Moeppel

Urgestein

884 Kommentare 315 Likes

Hm, doch recht enttäuschend.

Ob es nun an der Hardware, den Treibern oder einer Mischung liegt, hat AMD die Messlatte wohl selbst ein wenig zu hoch gesetzt. Von den 70% wären 50% immerhin schön gewesen, aber selbst die Marke verfehlt man meist und nicht knapp. Ob es hier ein Zen 1 Moment ist, steht dann wohl noch aus.

Als 6900XT Besitzer für 4K setzte ich diese Generation wohl aus, außer preislich wird es noch mal richtig attraktiv.

~30% für nen Taui sind nicht gerade attraktiv. Nun, generell ist ein Taui für eine Graka per se unattraktiv :D

Ein Glück (?), dass ich derzeit ohnehin mehr am Deck hänge.

Antwort Gefällt mir

Igor Wallossek

1

10,566 Kommentare 19,829 Likes

Ja, kleine Flüchtigkeitsfehler, ist gefixt. Danke. Overload halt :D

Antwort Gefällt mir

c
cunhell

Urgestein

565 Kommentare 536 Likes

Nö. es gab schlicht keine Benchmarks zur 4080 16GB. Und die 4090 wollten sie nach eigenen Angeben nicht als Konkurenzprodukt angreifen.

Meiner Meinung nach profitiert die 4080 genau wie die 4090 von dem besseren Prozess, der eine gringere Leistungsaufnahme als ursprünglich angenommen, benötigt.
Damit war AMD gezwungen, die Leistungsaufnahme nach oben zu schrauben, um ihr Ziel, der 4080 Paroli bieten zu können, zu erreichen.
Außerhalb des Sweetspots saufen halt fast alle Grafikkarten.

Ich sehe es so. Die Leistung passt soweit, der Stromverbrauch ist sowohl im Idle als auch unter Last ziemlich hoch.
Was ich allerdings als no-go sehe, sind die Spulengräusche. Das sollte heutzutage besser gehen. Die Frage ist allerdings, ob die Spulen nicht für eine gringere Leistungsaufnahme ausgelegt wurden und durch die vermutlich später höher angelegte Leistungsaufnahme eher an ihr Limit kommen.

Cunhell

edit: Vermutlich sind deshalb auch die Kühler lauter als nach der RX6000er Generation zu erwarten war. Sie müssen einfach mehr Wärme abführen als ursprünglich vorgesehen

Antwort 2 Likes

O
Oberst

Veteran

347 Kommentare 140 Likes

Jo, sehe ich auch so. RT hätte man durchaus näher an der 4080 sein dürfen und müssen. Gerade in dem Segment wäre das wichtig gewesen. Bei den kleineren Karten ist es dann vermutlich nicht mehr so wichtig und da reicht das. Aber wer über 1000€ für eine Grafikkarte zahlt, der will in RT nicht so Abstriche machen müssen. Da wird AMD wohl zügig an den Preisen drehen müssen. Vor allem, wenn die 4080 preislich fällt.

@Igor Wallossek : Den Multimonitor Verbrauch könnte man auch in's Diagramm aufnehmen. Der ist ja richtig schlecht, da kommt hoffentlich noch ein Treiber, der das behebt. Hast du dazu mal bei AMD nachgehakt?

Ansonsten war der Mehrverbrauch gegenüber Ada fast vorprogrammiert. NVidia hat mit der Gen hervorragend vorgelegt, nachdem Ampere ja nicht so toll war. Da wird AMD auch im Notebook Probleme bekommen.

Antwort Gefällt mir

b
butch111

Mitglied

57 Kommentare 19 Likes

Die AMD-Speerspitze wird in RTX 4k und trotz tolles FSR regelrecht von der 3080 verdroschen in Cyberpunk.......von Next Gen ganz zu schweigen

Antwort 2 Likes

A
Aasimar

Mitglied

37 Kommentare 12 Likes

Vielen vielen dank für diesen Test.
vor allem für die Netzteil empfehlung.
Ich hatte zwar noch ein klein wenig die Hoffung, das mein 550W reicht.. aber was solls.

Antwort Gefällt mir

grimm

Urgestein

3,203 Kommentare 2,134 Likes

Mit Blick auf die Leistung ein Schritt nach vorne, mit Blick auf Preis und Stromverbrauch fast schon einer zurück. Aber zumindest das Gejammer über den Preis trifft beide Hersteller. Wer sich die Benchmarks - vor allem die in WQHD - anschaut, kann bei sachlicher Betrachtung auch einfach folgern, dass die alte Generation hinreichend viele FPS liefert und sich entspannt zurück lehnen.

Was mich aber beeindruckt, ist die Tatsache, dass und in welchem Maße AMD in puncto Raytracing aufgeholt hat.

Antwort Gefällt mir

Kleine-Eule73

Mitglied

61 Kommentare 57 Likes

Vielen Dank für deinen ersten Test der neuen roten :)
Bin aber etwas enttäuscht was die Leistungsaufnahme betrifft besonders im Idle.
Ich hoffe das Amd das noch mit den Treibern in den Griff bekommt und schaue bzw warte mal auf die Referenzmodelle der anderen Hersteller wie das so handhaben werden. Grundsätzlich finde ich den Leistungssprung gegenüber der vorherigen Gen schon mal ganz gut

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung