Testreihe mit Karten von NVIDIA und AMD - Wenn plötzlich der Speicher der Grafikkarte nicht mehr reicht

Aber dass die Nutzung solcher Upscaler quasi zum Alltag werden soll, passt mir persönlich gar nicht. Ich möchte bitte das Spiel nativ,
Und niemand wird dich davon abhalten das Spiel genau so ein zustellen und geniessen. Und DLSS3 hilft z.B. auch nicht bei Speichermangel, eher im Gegenteil, die Zwischenframes müssen ja irgendwo gespeichert werden.
Gerade NVIDIA könnte da ihr Speichergeiz zusätzlich auf die Füsse fallen........
 
Stimmt alles, aber nur für Nvidia.
Bei AMD entspannt sich das beim Preis und Langlebigkeit. Z.B. eine 6800 mit 16GB vRAM für 399€ im Angebot oder eine 7900XT mit 20GB für 799€
Das kann man so oder so sehen. Erstens ist das ja erst seit neuestem so und wer eine 3090 hat, braucht weder eine 6800XT noch eine 7900XT.

Siehe Spielspaß, Nutzungsdauer und Wiederverkaufswert.

Und ob, (vorausgesetzt man kann und mag es zahlen) eine 7900Xt oder eine 4090 für das doppelte unter den Aspekten die bessere Wahl ist, lassen wir mal dahingestellt. Bei der 7900XT stimmt zwar der Ram und die Rohleistung, aber da muss FSR 3 mächtig nachlegen. Wann und ob das passiert bleibt abzuwarten.

Aktuell kaufst du mit einer 4090 wahrscheinlich jetzt schon mindestens die Leistung einer 8900XT. Eher mehr. Und das sollte man bei der Betrachtung auch nicht ausser acht lassen.
 
Zuletzt bearbeitet :
Was ich bedenklich finde, ist dass der Trend hin zu KI Zeugs geht wie DLSS und FSR, bis hin zu Frame Generation bei DLSS3. Dass man mit solchen Funktionen ein Manko an Leistung / Speicher puffern möchte, in Grenzfällen, wäre ja ok. Aber dass die Nutzung solcher Upscaler quasi zum Alltag werden soll, passt mir persönlich gar nicht. Ich möchte bitte das Spiel nativ, so wie es talentierte Designer erstellt haben. Keine hochgerechnete Auflösung, keine dazwischen gerechnete oder erfundene Details, oder gar eingeschobene Fake Frames. Anti Aliasing / Stabilität bekommt die KI sehr gut hin. Mehr möchte und brauche ich nicht. Der Druck hin zu KI beschönigt den Herstellern, dass ihre Karten den Games nicht mehr gewachsen sind. Und der Druck unterstützt die Game Hersteller quasi darin, schlechter zu optimieren, weil sie ja im Programm von Nvidia drin sind, und Unterstützung erhalten, weil DLSS integriert wird, und weil das neueste DLSS so zu Verkaufsargument wird. Es lenkt einfach von Problemen ab, zu wenig Leistung / VRAM, und/oder schlecht optimiertes Game.

KI "optimierte" Grafik ist für mich nicht wie ein Turbo/Kompressor, der wirklich mehr rohe Leistung bringt, sondern mehr wie aufgeklebte Lufteinlässe und Spoilerchen, die bessere rohe Leistung nur vorgaukeln.
Oder man konstatiert, das all diese richtigen Argumente dich immer zwangsläufig zur größten Karte führen. Genug Speicher, Rechenpower bis der Arzt kommt + DLSS 3.0 = 4090

Dann bisst du im Gaminghimmel. DLSS Spiele sehen ja Teilweise genausogut oder gar besser aus als ohne KI. Und dann hast du die Qual der Wahl.
Stromsparen durch ein Framelimt, selbst bei 144 HZ oder bis zum Anschlag an der Uhr drehen und 240 HZ Monis befeuern.

Ich möchte DLSS definitiv nicht missen.

Und das Hauptproblem, schlecht optimierte Spiele wirsd du niemals lösen. Die wird es immer geben Und tendenziell eher mehr als weniger.
 
Zuletzt bearbeitet :
Das ist mir schon klar, man muss nur bedenken, das ist dann eine aktive Userentscheidung, das er eben das Angebot so für sich nciht passend empfindet. Einige tun das ja, und sind glaube ich auch recht zufrieden mit den Karten, auch wenns erstmal "weh" getan haben mag.......

Hab ausser Spuhlenfiepen (vereinzelt, dazu kann man aber aber vor bestimmte Fiep und Rasselthreads besuchen und gucken, ob das Wunschmodell dabei ist) habe ich nach dem "Steckerhype" bzgl. der Leistung der Karten noch nie was anderes als "WOW" in den Kommentaren gelesen.
Diejenigen, denen es "weh" getan hat, haben solche Karten dann zumindest. In der aktuellen (Welt)Lage ist eine High End Grafikkarte für sehr viele schon ein Luxusgut, auf welches verzichtet werden muss. Dann muss man zwecks eigenem Budget etwas tiefer ins Regal greifen, und bekommt dafür einen Speicherkrüppel, der zwar brandneu, aber heute schon überholt ist.

Bezgl. Fiepen, etwas offtopic sorry, aber ich gehe davon aus, dass ein FPS Limiter für Dich keine Option ist, dem Fiepen entgegen zu wirken...?

Und niemand wird dich davon abhalten das Spiel genau so ein zustellen und geniessen. Und DLSS3 hilft z.B. auch nicht bei Speichermangel, eher im Gegenteil, die Zwischenframes müssen ja irgendwo gespeichert werden.
Gerade NVIDIA könnte da ihr Speichergeiz zusätzlich auf die Füsse fallen........
Mich nicht, ich kann ziemlich genau einschätzen, was wie wo welchen Einfluss hat. Normalos können und wissen das nicht.
 
Oder man konstatiert, das all diese richtigen Argumente dich immer zwangsläufig zur größten Karte führen. Genug Speicher, Rechenpower bis der Arzt kommt + DLSS 3.0 = 4090
Hm "führen" ist da eine originelle Schreibweise, ich würd's eher "zwingen" nennen ;)

DLSS Spiele sehen ja Teilweise genausogut oder gar besser aus als ohne KI.
Oh genau diese Aussage triggert mich immer auf CB und überall sonst wo. (Sorry meine folgende Meinung soll in keinster Weise auf Dich bezogen sein, es war lediglich der Trigger Deiner Aussage resp. Wortwahl.) "besser", was ist "besser"? Ist "besser" gleich schöner, hübscher, schneller, farbiger, schärfer, etc. etc.? Ich wünschte mir, dieses Wort würde nicht mehr verwendet und anstatt dessen die hübsche Maid auch beim Namen genannt, wie z.B. "DLSS bringt Stabilität ins Bild, wie man es von temporalem AA erwartet". "besser" ist mMn nicht aussagend genug.

DLSS ist meiner pers. Meinung und Erfahrung nach nie "besser" als nativ. Das ist schlicht nicht möglich. Aber das liegt wohl mMn wieder am Wörtchen "besser", welches zu generisch ist.
Ich nutze daher DLSS nur in Kombination mit DSR. Das ergibt eine verbesserte optische Darstellung - mehr Details dank DSR (Rendering mit dem mehrfachen der nativen Auflösung) und die Bildruhe dank DLSS (temporales AA). Dafür wird, je nach DLSS Modus, in etwa dieselbe Rohleistung wie für nativ benötigt (= mehr oder weniger gleiche FPS).
Dasselbe sollte auch mit DSR + FSR gehen. Bei AMD sollte das DSR-Pendant "VSR" sein, kombiniert mit FSR. Kann ich jedem wärmstens empfehlen, der es noch nie probiert und vor allem gesehen hat!

Stromsparen durch ein Framelimt, selbst bei 144 HZ oder bis zum Anschlag an der Uhr drehen und 240 HZ Monis befeuern.

Ich möchte DLSS definitiv nicht missen.
Ich auch nicht, aber nur solange es mit DSR (oder Äquivalent) eingesetzt werden kann (siehe oben) :) Da ich mit GSync + Framelimiter (3 FPS weniger als Wiederholungsrate vom Monitor) nutze, brauch ich keine solchen FPS Orgien. Das führt auch nur zu Spulenfiepen, und deutlich mehr Abwärme.

Wollte fast sagen, "hoffentlich werden die Spiele mal wieder besser optimiert", aber haha, wer's glaubt wird selig, solange Onkel Geld die Welt regiert, wird das nie mehr der Fall sein, never ever again.
 
Hm "führen" ist da eine originelle Schreibweise, ich würd's eher "zwingen" nennen ;)
Wo du Recht hast.
Oh genau diese Aussage triggert mich immer auf CB und überall sonst wo. (Sorry meine folgende Meinung soll in keinster Weise auf Dich bezogen sein, es war lediglich der Trigger Deiner Aussage resp. Wortwahl.) "besser", was ist "besser"? Ist "besser" gleich schöner, hübscher, schneller, farbiger, schärfer, etc. etc.? Ich wünschte mir, dieses Wort würde nicht mehr verwendet und anstatt dessen die hübsche Maid auch beim Namen genannt, wie z.B. "DLSS bringt Stabilität ins Bild, wie man es von temporalem AA erwartet". "besser" ist mMn nicht aussagend genug.

DLSS ist meiner pers. Meinung und Erfahrung nach nie "besser" als nativ. Das ist schlicht nicht möglich. Aber das liegt wohl mMn wieder am Wörtchen "besser", welches zu generisch ist.
Ich nutze daher DLSS nur in Kombination mit DSR. Das ergibt eine verbesserte optische Darstellung - mehr Details dank DSR (Rendering mit dem mehrfachen der nativen Auflösung) und die Bildruhe dank DLSS (temporales AA). Dafür wird, je nach DLSS Modus, in etwa dieselbe Rohleistung wie für nativ benötigt (= mehr oder weniger gleiche FPS).
Dasselbe sollte auch mit DSR + FSR gehen. Bei AMD sollte das DSR-Pendant "VSR" sein, kombiniert mit FSR. Kann ich jedem wärmstens empfehlen, der es noch nie probiert und vor allem gesehen hat!
Naja, Igor hat das mal so gesagt. Es ging so in die Richtung schärfer etc. Aber da will ich jetzt keine Haare Spalten. Ich seh meistens keinen Unterschied. Und der Leistungsunterschied ist ja enorm.
Ich auch nicht, aber nur solange es mit DSR (oder Äquivalent) eingesetzt werden kann (siehe oben) :) Da ich mit GSync + Framelimiter (3 FPS weniger als Wiederholungsrate vom Monitor) nutze, brauch ich keine solchen FPS Orgien. Das führt auch nur zu Spulenfiepen, und deutlich mehr Abwärme.
Jetzt sind wir wieder bei der 4090. Ich habe weder das eine noch das andere. Und FPS Orgien brauche ich auch nicht. Aber wenn die 4090 mit 40% Leistung in 3.440 x 1,440 in Ultra dank DLSS läuft ist das schon sehr cool.

Wollte fast sagen, "hoffentlich werden die Spiele mal wieder besser optimiert", aber haha, wer's glaubt wird selig, solange Onkel Geld die Welt regiert, wird das nie mehr der Fall sein, never ever again.
Das sehe ich genauso.
 
Bezgl. Fiepen, etwas offtopic sorry, aber ich gehe davon aus, dass ein FPS Limiter für Dich keine Option ist, dem Fiepen entgegen zu wirken...?
Zum Einen, ich habe nicht behauptet das meine Karte Fiept, ich bezog das rein auf die 4080 er und 4090 er die dem Vernehmen nach - wie ALLE neuen Hochleistungskarten, anfälliger (kein Muss!) für Fiepen ist. Und FPS sind schon rein wegen der Hitzeentwicklung auf 100 FPS gecapt, weil die Lüfter auf 83 Grad dann anfangen merklich zu arbeiten.
Unter diesen 83 Grad drunter ist die Karte wirklich leise, eigentlich unhörbar für meine Ohren. KFA2 wenns für jemand interessant ist. MAn hört bei extrem hohen FPS maximal ein leises seeeehr leises Surren, das mich bis zum Cappen nie gestört hat.

Witziger weise erreicht meine 3080ti die 83 Grad schon wenn ich eine Weile Gothic 2 mit Dx 11 Renderer Spiele...... Auflösung ist 1440p mit allen Details auf max.
Ich nutze daher DLSS nur in Kombination mit DSR. Das ergibt eine verbesserte optische Darstellung - mehr Details dank DSR (Rendering mit dem mehrfachen der nativen Auflösung) und die Bildruhe dank DLSS (temporales AA). Dafür wird, je nach DLSS Modus, in etwa dieselbe Rohleistung wie für nativ benötigt (= mehr oder weniger gleiche FPS).
Also du mischt Upsampling mit Downsampling? Da dürfte der Performance Unterschied zum nativen Rendering wohl verschwindend gering sein, oder? (echtes Interesse, weils für mich n bissi exotisch klingt).
Ach sry gesehen, haste ja gesagt.
 
Bedarf ist relativ... Ich kann in Maya auch 48 GB vollballern und ärgere mich dann noch über zu langsame SSDs beim Nachladen. Geht nicht, gibt´s nicht. :D
Hammer, was nicht passt, wird passend gemacht.

So läuft es weiter, der Kampf wird im Kopf entschieden, nicht im Ring ! :)
 
Und ob, (vorausgesetzt man kann und mag es zahlen) eine 7900Xt oder eine 4090 für das doppelte unter den Aspekten die bessere Wahl ist, lassen wir mal dahingestellt. Bei der 7900XT stimmt zwar der Ram und die Rohleistung, aber da muss FSR 3 mächtig nachlegen. Wann und ob das passiert bleibt abzuwarten.

Aktuell kaufst du mit einer 4090 wahrscheinlich jetzt schon mindestens die Leistung einer 8900XT. Eher mehr. Und das sollte man bei der Betrachtung auch nicht ausser acht lassen.
Ich hoffe wir sind uns alle einig, dass Leistung die echte Rohleistung ist und nicht irgendwelches latenzbehaftetes artefaktbeladenes Upscaling. Mit Verlust Upscalen geht seit Jahrzehneten und es finden sich immer Leute die (fast) keinen Unterschied sehen.
So gesehen macht dein Beitrag stellenweise wenig Sinn.
 
Ich hoffe wir sind uns alle einig, dass Leistung die echte Rohleistung ist und nicht irgendwelches latenzbehaftetes artefaktbeladenes Upscaling. Mit Verlust Upscalen geht seit Jahrzehneten und es finden sich immer Leute die (fast) keinen Unterschied sehen.
So gesehen macht dein Beitrag stellenweise wenig Sinn.
Ähem nur damit hier keine Missverständnisse aufkommen. In 4K Ultra liefert die 4090 im Schnitt 32.5% mehr Leistung und mit RT bis zu 60% als eine XTX. Das ganze ohne irgendwelches "latenzbehaftetes artefaktbeladenes Upscaling". Wir sprachen aber im Preisvergleich von einer XT.



Wobei ich mich ernsthaft Frage, wieviel aktuelle Titel du dir mit DLSS schon wirklich angeschaut hast. Dein "latenzbehaftetes artefaktbeladenes Upscaling". stammt aus den Anfängen, und das kontinuierliche Wiederholen dieser Geschichten macht sie definitiv nicht wahrer. Das ist die gleiche Geschichte, die von diversen Spezialisten wiederholt wird, RT bestünde nur aus ein paar spiegelnden Pfützen.

Unabhängig davon möchten Millionen von NVIDIA Besitzern dieses "latenzbehaftetes artefaktbeladenes Upscaling" nicht missen.

Im Gegenteil, für die meisten ist genau das der Gamechanger und DLSS der Grund, wieso sie die überzogenen Preis in Kauf nehmen.

Und genau aus dem Grund prügelt sich eine 3090 mit RT und DLSS mit einer 7090TX bei RT und FSR2 und schlägt sie immer sowohl Bildmäßig als auch Främemässig.

Wobei das "latenzbehaftetes artefaktbeladenes Upscaling." sich bei FSR2 zuweilen zeigt. Aber auch hier kann bis auf Einzelfälle davon eigentlich keine Rede sein und die Technik entwickelt sich ständig weiter. Zumal dieses "latenzbehaftetes artefaktbeladenes Upscaling" sowohl von AMD als auch von NVIDIA vielen Karten eine deutlich verlängerte Lebenserwartung beschert.

So gesehen macht dein Beitrag wenig Sinn.
 
Zuletzt bearbeitet :
So Entwicklungskosten, Herstellungskosten schießen in die Höhe und es wird immer schwieriger die rein Rohleistung zu steigern, ohne dass man einen Atomreaktor im Haus haben muss und einen Chiller braucht um die Wärme Entwicklung irgendwo im Griff zu behalten. (gewollt übertrieben dargestellt)

Somit sehe ich solche Tricks wie DLSS, FSR, XeSS als die Zukunft und gerade DLSS hat hier riesen Fortschritte gemacht. Als ich meine RTX2080ti hatte, wurde DLSS eingeführt und war sehr durchwachsen. Manche Spiele brachten gute Ergebnisse andere absolut nicht brauchbar.

Heute DLSS3 (ohne FG, finde hier hat Nvidia Verwirrung verursacht, da viele DLSS3 mit FG assoziieren) gibt es keine Schlechte Resultate mehr und oft übertrifft DLSS die Bildqualität zu Nativ mit TAA.

Was jetzt den Speicherverbrauch angeht, so kann man auch die Zukunft optimistischer betrachten:
Die Nintendo Switch hat nur 4gb Ram für alles, nutzt aber ASTC für die Texturen. Ehe jemand aufschreit, dass diese Texturen eh match sind, sollte dennoch fertig lesen! Da keine Desktop GPU ASTC beherrscht mussten die Yuzu Entwickler auf das RGBA8 Format wechseln, was sogar 8gb VRam GPUs in die Knie zwingt!

Nvidia selbst in bei der Entwicklung von NTC, was den VRam verbrauch für Texturen drastisch senken kann

Mit DirectStorage steht eine weiter Technologie vor der Tür, welcher den VRam Verbrauch reduzieren kann. Klar dauert es, bis es richtig in Spielen eingesetzt wird/werden kann

Klar sind wir in einer Übergangsphase und Nvidia hätte nicht so knauserig mit dem VRam sein sollen und ja AMD kann hier sicher in Grenzbereichen einen Vorteil haben.

Möchte ich allerdings die Nvidia Features nutzen, welche immer besser werden, kann ich auf ein paar GB VRam verzichten und kaufe lieber in einem Jahr oder so, eine neue RTX5070 welche dann vielleicht 16gb Ram hat, als jetzt schon das Totschlagargument zu nutzen: ja aber AMD hat 16gb Ram das ist Zukunft sicherer... Wenn dann aber die Rohleistung nicht mehr reicht für Nativ und ich keinen Zugriff auf DLSS3+FG habe, hilft mir das dann auch nicht mehr Weiter und werde eine RX8000 kaufen.

Als ich meine im Moment noch verbaute RX6800XT gekauft hatte, gab es noch kein DLSS2.3+ drunter gab es mir wirklich zuviel Ghosting und ich konnte sehr gut darauf verzichten. Zudem waren die RTX3000der mit zu Stromhungrig im Vergleich zur gebotenen Leistung und noch teurer dabei...
 
Ähem nur damit hier keine Missverständnisse aufkommen. In 4K Ultra liefert die 4090 im Schnitt 32.5% mehr Leistung und mit RT bis zu 60% als eine XTX. Das ganze ohne irgendwelches "latenzbehaftetes artefaktbeladenes Upscaling". Wir sprachen aber im Preisvergleich von einer XT.


Wobei ich mich ernsthaft Frage, wieviel aktuelle Titel du dir mit DLSS schon wirklich angeschaut hast. Dein "latenzbehaftetes artefaktbeladenes Upscaling". stammt aus den Anfängen, und das kontinuierliche Wiederholen dieser Geschichten macht sie definitiv nicht wahrer. Das ist die gleiche Geschichte, die von diversen Spezialisten wiederholt wird, RT bestünde nur aus ein paar spiegelnden Pfützen.

Unabhängig davon möchten Millionen von NVIDIA Besitzern dieses "latenzbehaftetes artefaktbeladenes Upscaling" nicht missen.

Im Gegenteil, für die meisten ist genau das der Gamechanger und DLSS der Grund, wieso sie die überzogenen Preis in Kauf nehmen.

Und genau aus dem Grund prügelt sich eine 3090 mit RT und DLSS mit einer 7090TX bei RT und FSR2 und schlägt sie immer sowohl Bildmäßig als auch Främemässig.

Wobei das "latenzbehaftetes artefaktbeladenes Upscaling." sich bei FSR2 zuweilen zeigt. Aber auch hier kann bis auf Einzelfälle davon eigentlich keine Rede sein und die Technik entwickelt sich ständig weiter. Zumal dieses "latenzbehaftetes artefaktbeladenes Upscaling" sowohl von AMD als auch von NVIDIA vielen Karten eine deutlich verlängerte Lebenserwartung beschert.
Features sind immer gut - sie eröffnen Möglichkeiten, ob man sie nutzt ist dann jedem überlassen.
Wenn ich mich richtig an die Tests bei igorslab und allgemein bei anderen seriösen Medien erinnere, sind die 7900xt und xtx allen 30xx in RT allgemein überlegen.

Das die momentan doppelt so teure 4090 etwas schneller als die 7900xtx ist will ich doch hoffen - ist diese doch im Zweikamp mit der 4080 nur knapp überlegen.

Bei fast allen Spielen gibt es leider nur das "latenzbehaftete artefaktbeladenes Upscaling" von AMD (kann man im Controlcenter aktivieren) und nicht von Nvidia. Schade eigentlich, aber die Kunden von Nvidia wollen das wohl so, zumal Nvidia schon eine rein treiberseitige Lösung vorgstellt hatte - so läßt sich aber der von dir als "Vorteil" gepriesene höhere Preis der neuen Karten wohl nicht so gut rechtfertigen.
 
Ich habe Heute meine 4070 eingebaut und kann einen direkten Vergleich zu einer 6800XT ziehen. Natürlich ist es für eine Endgültiges Ergebnis noch zu früh. Meine ersten Beobachtungen sind allerdings:
-ohne DLS bietet die 6800XT definitiv mehr Leistung
-sobald aber DLSS 2.3+ hinzukommt steht die 6800XT auf verlorenem Posten
-die 4070 verbraucht ohne Optimierungen über 100W weniger, bei gleicher Leistung sind es dennoch etwa 100W Ersparnis, da der Leistungsunterschied doch nicht so enorm ist
-Unter DX12 sind die Leistungsunterschiede deutlich geringer als unter DX11

Meine etwa 1,5 Jahre Erfahrung mit der 6800XT haben gezeigt, hier eher die Rohleistung nicht mehr Reicht als dass der VRam ausgeht. Allerdings reichte mir hier die Leistung schon nicht mehr immer. Ray Tracing? Bräuchte gar nicht bei der 6000er Generation zu existieren, da absolut unbrauchbar.

The Witcher 3 4K mit RT max, DLSS Balanced und Frame Generation, bring ein wirklich sauberes Bild und ich bekommen zwischen 50-60fps. Als Gamepad User merke ich keine Verschlechterung der Latenz. Ohne Montioring glaube ich, würde ich die fps Schwankungen nicht mal wahrnehmen.

Hier will ich AMD keine Schuld geben, da ich keinen guten Vergleich habe, aber mein Monitor eine LG 32Zoll IPS 40-60hz Freesync arbeitet unter G-Sync besser als mit Freesync, dabei ist er nicht mal offiziell G-Sync kompatibel...

Hat sich an meiner Meinung nun etwas geändert? Nein. Wenn die Rohleistung der AMD reicht und man auf AI und RT verzichten kann, kann ich AMD sehr empfehlen. Wer aber die modernen Features nutzen möchte führt kein Weg an Nvidia vorbei.

Aber mal mehr Topic Leistung 4070 mit den 12gb Ram sehe ich nicht, dass der VRam ein Problem darstellt, die Rohleistung ist einfach zu niedrig.
Die 4070ti sehr grenzwertig. Der Leistungssprung der 4080 ist so gross, dass hier die Rohleistung durch VRam Mangel in Gefahr sehen könnte.
Bei der 4090 sehr ich wieder keine Probleme mehr.

In der Leistungsklasse der 4080 wäre ich wirklich zwischen AMD mit etwas mehr VRam und Nvidia mit dem Plus an Features sehr hin und her gerissen. Wäre sehr abhängig von den Spielen welche gespielt werden sollen.
 
Ich habe Heute meine 4070 eingebaut und kann einen direkten Vergleich zu einer 6800XT ziehen. Natürlich ist es für eine Endgültiges Ergebnis noch zu früh. Meine ersten Beobachtungen sind allerdings:
-ohne DLS bietet die 6800XT definitiv mehr Leistung
-sobald aber DLSS 2.3+ hinzukommt steht die 6800XT auf verlorenem Posten
-die 4070 verbraucht ohne Optimierungen über 100W weniger, bei gleicher Leistung sind es dennoch etwa 100W Ersparnis, da der Leistungsunterschied doch nicht so enorm ist
-Unter DX12 sind die Leistungsunterschiede deutlich geringer als unter DX11

Meine etwa 1,5 Jahre Erfahrung mit der 6800XT haben gezeigt, hier eher die Rohleistung nicht mehr Reicht als dass der VRam ausgeht. Allerdings reichte mir hier die Leistung schon nicht mehr immer. Ray Tracing? Bräuchte gar nicht bei der 6000er Generation zu existieren, da absolut unbrauchbar.

The Witcher 3 4K mit RT max, DLSS Balanced und Frame Generation, bring ein wirklich sauberes Bild und ich bekommen zwischen 50-60fps. Als Gamepad User merke ich keine Verschlechterung der Latenz. Ohne Montioring glaube ich, würde ich die fps Schwankungen nicht mal wahrnehmen.

Hier will ich AMD keine Schuld geben, da ich keinen guten Vergleich habe, aber mein Monitor eine LG 32Zoll IPS 40-60hz Freesync arbeitet unter G-Sync besser als mit Freesync, dabei ist er nicht mal offiziell G-Sync kompatibel...

Hat sich an meiner Meinung nun etwas geändert? Nein. Wenn die Rohleistung der AMD reicht und man auf AI und RT verzichten kann, kann ich AMD sehr empfehlen. Wer aber die modernen Features nutzen möchte führt kein Weg an Nvidia vorbei.

Aber mal mehr Topic Leistung 4070 mit den 12gb Ram sehe ich nicht, dass der VRam ein Problem darstellt, die Rohleistung ist einfach zu niedrig.
Die 4070ti sehr grenzwertig. Der Leistungssprung der 4080 ist so gross, dass hier die Rohleistung durch VRam Mangel in Gefahr sehen könnte.
Bei der 4090 sehr ich wieder keine Probleme mehr.

In der Leistungsklasse der 4080 wäre ich wirklich zwischen AMD mit etwas mehr VRam und Nvidia mit dem Plus an Features sehr hin und her gerissen. Wäre sehr abhängig von den Spielen welche gespielt werden sollen.
Danke dass du so genau deine Erfahrungen mit uns teilst.
Mich überrascht jetzt nicht, das eine Karte der Vorgängergeneration etwas schlechter darsteht als eine aktuelle - trotzdem hier sieht man den Unterschied zwischen 7er und 8er Klassifizierung noch in der Rohleistung und vRAM.
 
Features sind immer gut - sie eröffnen Möglichkeiten, ob man sie nutzt ist dann jedem überlassen.
Wenn ich mich richtig an die Tests bei igorslab und allgemein bei anderen seriösen Medien erinnere, sind die 7900xt und xtx allen 30xx in RT allgemein überlegen.
Das ist leider auch nur die halbe Wahrheit. AMD kann immer dann gut mithalten, wenn im Spiel nur wenige Raytracing Effekte implementiert sind. Je aufwendiger das Game, desto mehr gerät die Karte ins Hintertreffen. Darum auch das schlechte abschneiden bei CP 2077. Das ist aber allgemein bekannt. Wobei oft DLSS Quality mit FSR 2 Quality verglichen wird. Die DLSS Optik aber in meisten deutlich über der aktuellen vergleichbaren FSR 2 Qualität liegt. Der FSR Performance Mode ist kaum zu gebrauche. Nachzulesen bei Igor. Nicht umsonst hoffen ja viele auf FSR 3.

Das die momentan doppelt so teure 4090 etwas schneller als die 7900xtx ist will ich doch hoffen - ist diese doch im Zweikamp mit der 4080 nur knapp überlegen.
Etwas schneller ist hier auch wohl leicht untertrieben. Der Leistungsunterschied im 4K zu einer 7900 XTX liegt knapp über dem einer durchnittlichen Grafikkartengeneration.

Deswegen wurde die 4080 auch als sehr teuer empfunden, weil der Leistunsunterschied zu einer 4090 so groß ist.

Bei fast allen Spielen gibt es leider nur das "latenzbehaftete artefaktbeladenes Upscaling" von AMD (kann man im Controlcenter aktivieren) und nicht von Nvidia. Schade eigentlich, aber die Kunden von Nvidia wollen das wohl so, zumal Nvidia schon eine rein treiberseitige Lösung vorgstellt hatte - so läßt sich aber der von dir als "Vorteil" gepriesene höhere Preis der neuen Karten wohl nicht so gut rechtfertigen.
Hier verdrehst mir das Wort im Munde und wirsd ohne Not polemisch. Ein höherer Preis ist nie von Vorteil. Es wird aber offenkundig von der Mehrzahl der Käufer akzeptiert. Und dafür wird es ja einen Grund geben. Es sei denn, man unterstellt, das diese sich Morgens alle den Scheitel mit dem Hammer ziehen.

Wobei ich gerade auch nicht weiss, woher deine Agressivität rührt. Wer für sich entscheidet, das eine AMD Karte für sein Gusto das bessere P/L verhältnis bietet, kann die doch gerne kaufen. Solche Leute sind extrem wichtig. Würden alle nur NV Karten kaufen, gäbe es gar keinen Wettbewerb und die Karten wären noch teurer.

Nur in dem Zusammenhang irgendwas von "latenzbehaftetes artefaktbeladenes Upscaling" zum besten zu geben, trifft es halt nicht so ganz.
 
Zuletzt bearbeitet :
Bei fast allen Spielen gibt es leider nur das "latenzbehaftete artefaktbeladenes Upscaling" von AMD (kann man im Controlcenter aktivieren) und nicht von Nvidia. Schade eigentlich, aber die Kunden von Nvidia wollen das wohl so, zumal Nvidia schon eine rein treiberseitige Lösung vorgstellt hatte - so läßt sich aber der von dir als "Vorteil" gepriesene höhere Preis der neuen Karten wohl nicht so gut rechtfertigen.
???

Wenn du es in den RADEON Einstellungen fokusierst, es aber das Spiel nicht kennt (FSR2.0)
Was erwartest du dann, saubere Bilder, weil alle Spiele nur noch von AMD Entwickelt werden ?

nvidia RT ist NICHT = DirectX RT

Daran wird AMD nichts ändern, aber Nvidia muss zuerst mal alle Spiele mit DLSS anbieten, tun sie auch nicht.
 
Daran wird AMD nichts ändern, aber Nvidia muss zuerst mal alle Spiele mit DLSS anbieten, tun sie auch nicht.
Das ist in der Tat ein ernstzunehmdes Argument. Wobei die Zahl aber ständig steigt und auch ältere zum Teil noch angepasst werden.
 
Zuletzt bearbeitet :
Das ist in der Tat ein ernstzunehmdes Argument. Wobei die Zahl aber ständig stellt steigt und auch ältere zum Teil noch angepasst werden.
Es würde mich nicht wundern, wenn Jensen selbst in die Tasten haut.

Falls AMD das ROCm als CUDA gegenpart rausbringt, wird er es spätestens müssen.

Wenn es Recht werden soll, muss man es selbst machen! :)
 
Also du mischt Upsampling mit Downsampling? Da dürfte der Performance Unterschied zum nativen Rendering wohl verschwindend gering sein, oder? (echtes Interesse, weils für mich n bissi exotisch klingt).
Ach sry gesehen, haste ja gesagt.
Ja, Downsampling (DSR) erfordert erstmal mehr Rohleistung, weil intern mit höherer Auflösung gerendert wird, als nativ. Aktueller Stand, DSR bis zu 4-fach ggü. nativ, DLDSR bis zu 2.25x). Schärfe kann auch eingestellt werden. Wobei auch hier DLDSR gegenüber DSR das jeweils weniger scharfe Bild produziert, genau wie nativ vs. DLSS.
Downsampling funktioniert bestens wo genügen Rohleistung verfügbar ist. Aus älteren Spielen kann man so richtige Perlen machen auf Grund von bis zu 4x so vielen Details.
Wenn die Rohleistung für reines Downsampling nicht da ist, kann man Upsampling nutzen, um wieder etwa in den bereich der FPS bei nativer Auflösung zu gelangen - und dennoch von Bildverbesserungen wie z.B. Stabilität (aufgrund von TAA) profitieren.
Eine Alternative wäre z.B. ReShade, das kann sehr viel, unter anderem auch TAA, wo das Spiel selbst ein unruhiges Bild liefert trotz AA, und ist Hersteller-unabhängig.
Ist eine Sache von etwas experimentieren, bis man die Technologie, deren Settings und Auswirkungen kennt. Wen's genau interessiert, kann Screenshots Pixel-genau vergleichen, am besten von genau derselben Stelle per Savegame. Screenshots deckungsgleich übereinander legen und per Slider vergleichen (ich nutze iCat, funktioniert sehr gut dafür).
So kann man quasi in Eigenregie mittels Kombination verschiedener Techniken, mit ein Bisschen Aufwand, ein nach eigenem Geschmack verbessertes Bild kreiren.
 
Oben Unten