Testreihe mit Karten von NVIDIA und AMD - Wenn plötzlich der Speicher der Grafikkarte nicht mehr reicht

Also ich jetzt die 4070 gekauft habe, dacht ich eher nur an DLSS. DSR hatte ich gar nicht mehr auf dem Plan... Normales Down Sampling ist ja auch mit AMD Möglich allerdings kostet es sowie DSR enorm viel Leistung und wirklich nur in alten Spielen zu gebrauchen.

Aber DLDSR ist ja eine Offenbarung, gutes Down Sampling fast für lau. Das Hauch Spielen vielen Spielen neues Leben ein. Bei alten Spielen mag ich MSAA gar nicht, FXAA ist auch nicht die Lösung für alles aber Down Sampling geht in fast jedem Spiel und bringt super Resultate. Es stabilisiert die Darstellung enorm.
 
@arcDaniel sehe ich genau so, darum nutze ich DSR wirklich sehr gerne (einzige Bedingung ist, dass man im Spiel die DSR Auflösung wählen/einstellen kann, damit es funktioniert).
Gilt auch für andere Sachen, da ich gerne experimentiere.
Braucht alles seine Zeit, aber wenn man mal was einzusetzen weiss, hat man noch mehr Freude. :) Ich bin da ein richtiger Geniesser.
 
Beim Downsampling berechnet die GPU intern eine höhere Auflösung.
Beim Herunter berechnen auf die Ausgangs Auflösung, wird dann OGSSAA angewendet:

Das ist je nach GPU Hardware dann sehr scharf oder etwas noisy.

 
Zuletzt bearbeitet :
Beim Downsampling berechnet die GPU intern eine höhere Auflösung.
Beim Herunter berechnen auf die Ausgangs Auflösung, wird dann OGSSAA angewendet:

Das ist je nach GPU Hardware dann sehr scharf oder etwas noisy.
GTA sah damit super aus, das AA muss man aus lassen, das beißt sich sonnst, und man braucht es auch nicht mehr.
 
Zuletzt bearbeitet :
GTA sah damit super aus, das AA muss man aus lassen das beist sich sonnst und man braucht es auch nicht mehr.
Translation for 2nd speak Language: Denglisch.

InGame AA deaktivieren, sonst kann der Treiber nicht Zaubern.
Aber InGame FPS Limit unbedingt setzen ! (das ist nicht Vsync)
 
Das ist je nach GPU Hardware dann sehr scharf oder etwas noisy.
Hab bisher nur gute Erfahrungen damit gemacht, deshalb kann ich's empfehlen. DSR bietet einen Schärfe-Regler, mit welchem man einen sehr grossen Bereich an Schärfe resp. Unschärfe selbst einstellen kann (NV Control Panel).

Gerade feine Details kommen so besser zur Geltung, weil die native Auflösung diese "vernachlässigen" würde, weil sie z.B. zu klein, oder zu weit weg sind. Mit Downscaling kommt es so zu mehr Details.
 
So Geschichte wenn der VRam nicht mehr reicht:

Ich habe nun Diablo 4 gekauft und was soll ich sagen. Ultra Texturen rechtfertigen auf gar keinen Fall den VRam Verbrauch. High ist richtig match.

Was aber sofort auffällt, wechsel ich zu high Texturen sinkt der VRam sofort auf um die 7GB Belegung und füllt sich allmählich auf die verfügbaren 12GB. Wechsel ich auf ultra, sinkt die Belegung wieder um die 9GB und füllt sich wieder. Jedesmal wenn ich die Einstellung ändere sinkt der Verbrauch ohne dass in Texturen im Bild fehlen, füllt sich danach und wird nicht mehr leer.

Was schliesse ich daraus?
-Die Basis Texturen sind miserabel optimiert
-Das Texture Streaming funktioniert nicht richtig

Ich sehe es zwar positiv dass D4 den ganzen VRam belagert, es wird aber nicht frühzeitig Ballast abgeworfen und Platz für neue Assets zu machen.

Gerade bei diesem Spiel, welches ja mittlerweile für ein MUSS von 16gb herhalten muss und 12GB absolut nicht mehr im Jahr 2023 reichen, herhalten muss, ist klar und deutlich die Software schult.

Übrigens, würde ich die Frame-times nicht beobachten und die mini-spikes optisch erkennen, würde ich sie gar nicht bemerken.
 
@arcDaniel
Im VRAM liegen ja nicht nur die Spiele Daten sondern auch der Frame Buffer.
Dieser füllt sich wieder neu mit den neu geladenen Texturen & Details.

Soweit mein letzter Kenntnisstand.
Wenn man DirectStorage nutzt werden weitere 2 GByte reserviert, das Spiel würde dann bei dir nur noch 10GByte VRAM erreichen. (je nach Spiel ich beziehe mich auf Forspoken)
 
Daran wird AMD nichts ändern, aber Nvidia muss zuerst mal alle Spiele mit DLSS anbieten, tun sie auch nicht.
Ja, is auch meine Einschätzung im Post. Etliche Spiele setzen wegen gleicher Codebasis wohl auch nur auf eine Upscaling Technik - wegen AMD, Intel und Konsolen ist das halt das offene FSR, was ja deshalb auch auf Nvidia läuft. Die müssen DLSS für alle (auch Konsolen) umsetzen, um aus der Niesche zu kommen und für die Spiele-Industrie interessant zu werden..
 
Wobei oft DLSS Quality mit FSR 2 Quality verglichen wird. Die DLSS Optik aber in meisten deutlich über der aktuellen vergleichbaren FSR 2 Qualität liegt.
Nö, eher andersherum: Ghosting und Artefakte sind objektive (!) Kriterien einer schlechten Qualität - die Verallgemeinerung deines individuellen Wunschdenkens hilft da wenig.
Nur in dem Zusammenhang irgendwas von "latenzbehaftetes artefaktbeladenes Upscaling" zum besten zu geben, trifft es halt nicht so ganz.
Naja, der Begriff stammt ja nicht von mir - Eigentor :p
 
Nö, eher andersherum: Ghosting und Artefakte sind objektive (!) Kriterien einer schlechten Qualität - die Verallgemeinerung deines individuellen Wunschdenkens hilft da wenig.
Wer hier an Wunschdenken leidet lässt sich ja relativ leicht feststellen.

Ich erlaube mir hier mal Igor zu zitieren.

"Jetzt zur letzten und wohl entscheidenden Frage: Ist FSR 2.0 ein DLSS Killer? Aus meiner Sicht gibt es hier ein ganz klares – NEIN! Und das aus zwei Gründen. Erstens gerade in niedrigeren Auflösungen wie 1080p oder auch 1440p Performance ist DLSS 2.3 einfach noch ne Schippe besser. Und zweitens, gibt es aktuell nur ein Spiel was ich testen konnte! (Spoiler: Landwirtschaftssimulator 22 kann jetzt auch FSR 2.0) Wer noch immer die klare DLSS 2.3 Vorherrschaft in Deathloop anzweifelt? Hier nochmal zum Genießen!


Ich will dich an dieser Stelle nicht völlig demoralisieren, aber im Vergleich wurde DLSS 2 mit FSR 2 verglichen. Das DLSS3 an dieser Stelle noch mal ein ganz anderes Kaliber ist, brauchen wir ja nicht wirklich ernsthaft zu diskutieren.

Aber falls dich ja noch Zweifel plagen.


oder auch hier.


Ich zitiere:

"DLSS ist aber nicht nur ein Hilfsmittel zur Wiederherstellung oder simple für mehr FPS. Einige Anti-Aliasing-Umsetzungen in Spielen bieten eine schlechtere Bildqualität und hier kann DLSS (oder nur DLAA) bereits eine Hilfe sein. Das Versprechen eine bessere Bildqualität als im nativen Rendering zu liefern, kann NVIDIA inzwischen größtenteils abliefern."

Und zum Thema Spiele:

Bei der CES 2023 verkündete Nvidia, dass sich die Zahl der Spiele mit DLSS 3.0 in Kürze von bislang 17 auf 50 erhöhen soll. Generationsübergreifend unterstützen bereits 250 Spiele die DLSS-Technologie. Durch ein 2021 vorgestelltes Plugin unterstützt die Unreal Engine 4 außerdem eine sehr einfache DLSS-Implementation.

Nachzulesen in Artikel 2. Schauen wir mal wie groß oder klein die Nische in in 1 oder 2 Jahren sein wird bei einem Marktanteil von deutlich über 80% von NVIDIA.
 
Zuletzt bearbeitet :
Gosthing wird leider sehr oft, zu oft, falsch getestet. Und hier scheint Igor auch nicht allwissend zu sein, da FSR1.0 z.B. gar kein Ghosting von sich aus produzieren kann, da es keine Temporale Komponente besitzt (dafür mag ich es sogar und nutze es gerne, wenn kein DLSS zur Verfügung seht).
FSR1.0 macht nichts anderes als das gerenderte Bild, vor der Benutzeroberflöhe (wenn vom Spiel implementiert, also nicht die Treiberlösung) auf eine Native Auflösung hoch zu rechnen. Somit bleibt die Benutzeroberfläche gestochen Scharf und das gerenderte Bild wird schärfer (durch Nachschärfen und andere Tricks) als wenn der Bildschirm die Skalierung erledigen würde. Und das Geschied Frame für Frame ohne, dass Informationen Vor- und Nachher benutzt werden. Wie soll also hier Ghosting entstehen? Gar nicht, das Ghosting besteht schon Nativ, durch die Geringere Renderauflösung wird es nur verstärkt.

TAA verursacht oft starkes Ghosting, was aber nie wirklich bemängelt wurde (jedenfalls sind mir keine Häufenden Berichte aufgefallen)

So also kann man DLSS nur mit FSR2.x vergleichen und da zieht FSR immer den kürzeren. Seit DLSS2.3 sind die Resultate so gut, dass DLSS Quality gegenüber Nativ mit TAA zu bevorzugen ist. Besseres Bild mit weniger Leistung.

Als FSR2.0 vorgestellt wurde, war ich echt begeistert, bei dem Resultat aber sehr enttäuscht.

So FSR3.0 wird mit sehr grosser Wahrscheinlichkeit auf DirectML basieren was auch von Nvidia unterstützt wird. Dann kann es spannender werden.

Stand Heute ist DLSS aber Nummer 1 bei den Upscalern für PC-Spiele und auch dank dem Geldbeutel, ups sorry, dem freundlichen Support von Nvidia auch sehr einfach zu implementieren. Bei UE4+ Spielen sind es nur ein paar clicks...

Hier ein kleiner Seitenhieb, zum Thema AMD verhindert DLSS implementierung bei Spielen wo sie als Partner fungieren. Star Wars Survivor ist eine UE5 Spiel wo, wahrscheinloch sogar das Häckchen bei DLSS ausgemacht werden muss, damit es nicht im Spiel ist.

Damit will ich das Vorgehen von Nvidia nicht besser Reden, sondern nur, dass AMD seit ZEN3 und RDNA2 nicht mehr der Freundliche Nachbar von Nebenan ist und auch nur unser Geld wollen und nicht vor üblen Tricks zurückscheuen. Zu Bulldozer und Vega Zeiten, konnten sie sich nur kein solchen Vorgehen erlauben.
 
Gosthing wird leider sehr oft, zu oft, falsch getestet. Und hier scheint Igor auch nicht allwissend zu sein, da FSR1.0 z.B. gar kein Ghosting von sich aus produzieren kann, da es keine Temporale Komponente besitzt (dafür mag ich es sogar und nutze es gerne, wenn kein DLSS zur Verfügung seht).
FSR1.0 macht nichts anderes als das gerenderte Bild, vor der Benutzeroberflöhe (wenn vom Spiel implementiert, also nicht die Treiberlösung) auf eine Native Auflösung hoch zu rechnen. Somit bleibt die Benutzeroberfläche gestochen Scharf und das gerenderte Bild wird schärfer (durch Nachschärfen und andere Tricks) als wenn der Bildschirm die Skalierung erledigen würde. Und das Geschied Frame für Frame ohne, dass Informationen Vor- und Nachher benutzt werden. Wie soll also hier Ghosting entstehen? Gar nicht, das Ghosting besteht schon Nativ, durch die Geringere Renderauflösung wird es nur verstärkt.

TAA verursacht oft starkes Ghosting, was aber nie wirklich bemängelt wurde (jedenfalls sind mir keine Häufenden Berichte aufgefallen)

So also kann man DLSS nur mit FSR2.x vergleichen und da zieht FSR immer den kürzeren. Seit DLSS2.3 sind die Resultate so gut, dass DLSS Quality gegenüber Nativ mit TAA zu bevorzugen ist. Besseres Bild mit weniger Leistung.

Als FSR2.0 vorgestellt wurde, war ich echt begeistert, bei dem Resultat aber sehr enttäuscht.

So FSR3.0 wird mit sehr grosser Wahrscheinlichkeit auf DirectML basieren was auch von Nvidia unterstützt wird. Dann kann es spannender werden.

Stand Heute ist DLSS aber Nummer 1 bei den Upscalern für PC-Spiele und auch dank dem Geldbeutel, ups sorry, dem freundlichen Support von Nvidia auch sehr einfach zu implementieren. Bei UE4+ Spielen sind es nur ein paar clicks...

Hier ein kleiner Seitenhieb, zum Thema AMD verhindert DLSS implementierung bei Spielen wo sie als Partner fungieren. Star Wars Survivor ist eine UE5 Spiel wo, wahrscheinloch sogar das Häckchen bei DLSS ausgemacht werden muss, damit es nicht im Spiel ist.

Damit will ich das Vorgehen von Nvidia nicht besser Reden, sondern nur, dass AMD seit ZEN3 und RDNA2 nicht mehr der Freundliche Nachbar von Nebenan ist und auch nur unser Geld wollen und nicht vor üblen Tricks zurückscheuen. Zu Bulldozer und Vega Zeiten, konnten sie sich nur kein solchen Vorgehen erlauben.
Danke für die Zusammenfassung. Schauen wir einfach mal, was FSR 3 kann. Prinzipiell ist jeder Fortschritt begrüßenswert.
 
Bezüglich FSR3:

We’ve just released FSR 2.2.1, a hotfix for FidelityFX Super Resolution 2. This small update fixes several reported issues:
  • Documentation inconsistency in the fsr2.h comments.
  • A luma internal resource was too large at creation.
  • A resource needed to be cleared on first use to resolve corruption on some platforms.
  • Potential for flashing lights to introduce corruption (fixed with a small change to the luma instability logic).

There is also an updated set of Unreal Engine plugins. Changes we’ve made to the UE plugin include:
  • Added support for Unreal Engine 5.2.
  • Added debug API checking/logging for Debug and Development builds.
  • Fixed frameTimeDelta conversion.
  • Fixed camera plane settings.
  • Fixed an issue where a resource transition prevented resource cleanup in Unreal Engine 5.1.

If you are actively running FSR 2.2, we recommend that you upgrade to FSR 2.2.1 – especially if you’re using Unreal Engine.

:cool:
 
Nachzulesen in Artikel 2. Schauen wir mal wie groß oder klein die Nische in in 1 oder 2 Jahren sein wird bei einem Marktanteil von deutlich über 80% von NVIDIA.
Beim Marktanteil die Konsolen (da die Spiele teilweise auch FSR verwenden, da Nvidia nichts liefert) nicht vergessen.
Halten wir Fest:
Marktanteil FSR: amd, intel, nvidia Karten, Xbox und Playstation.
Marktanteil DLSS 2: alle RTX Nvidia Karten

Da erklärt sich, warum etliche Spiele nur FSR implementieren - nur ein Verfahren in der Codebasis ist günstiger (Erstellung, Pflege, QA).
 
Beim Marktanteil die Konsolen (da die Spiele teilweise auch FSR verwenden, da Nvidia nichts liefert) nicht vergessen.
Halten wir Fest:
Marktanteil FSR: amd, intel, nvidia Karten, Xbox und Playstation.
Marktanteil DLSS 2: alle RTX Nvidia Karten

Da erklärt sich, warum etliche Spiele nur FSR implementieren - nur ein Verfahren in der Codebasis ist günstiger (Erstellung, Pflege, QA).
Sorry, aber wir sind jetzt wieder beim Thema Wunschdenken. Zähl mal die Anzahl der Spiele durch, die FSR unterstützen und die die DLSS unterstützen.

Da liegt AMD immer noch ganzes Stück zurück. Wir können, aber wie schon geschrieben, das ganze uns gerne nochmal in 1- 2 Jahren anschauen.
 
@8j0ern
Was hat dies nun mit FSR3 zu tun?

FSR3 wurde angekündigt und seither herrscht stille.

FSR2.2 ist in SW Survivor integriert und bringt noch immer keine zufriedenstellende Ergebnisse.

Dann haben wir XeSS, welches z.b. ich in The Witcher 3 schon testen konnte und hier sind die Ergebnisse überraschend gut. Hier Respekt an Intel, was für eine Mühe sie sich geben, bei XeSS und auch den Treibern. Eigentlich ein Wunder, wenn man den Gerüchten glaubt, dass die Intel dGPU Sparte begraben ist.

@Yumiko
Ich denke, dass deine Brille bereits so rot ist, dass du die Wahrheit ausblendest.
FSR wird nicht durchgängig auf der XBox oder Playstation eingesetzt. Nur weil in diesen Konsolen AMD GPUs werkeln, heisst das nicht, das nur deren Technologie eingesetzt wird. Zum Beispiel TSR von Epic!

Wie schon mehrmals erwähnt, ist der Aufwand für die Implementierung und Pflege von DLSS quasi 0. Die meisten Game Engine unterstürzen es von Haus aus.

Und ich erwähne halt nochmals Star Wars Survivor, wo DLSS absolut keinen Aufwand gewesen wäre, da AMD aber Partner ist, gibt es kein DLSS.
Anders Baldur's Gate 3, wenn ich dies Starte bekommen ich sofort das Nvidia Logo in XXXL präsentiert, dennoch ist FSR enthalten.

Wie @Megaone schreibt, kann man dies in ein paar Jahren nochmal betrachten und hierzu ist meine Meinung, dass mit der Zeit, ähnlich wie mit PhysX so in den Spielen integriert ist, dass keiner es mehr mitbekommt. Da denke ich an einen DirectML Upscaler, welcher die Dedizierten Hardwareeinheiten von GPUs auch nutzen kann.
Bei Ray Tracing ging dies ja auch ganz Schnell, beim Launch von Turing gab es games wo man explizit RTX ein/aus geschaltet hat. Heute ist es nur noch ganz Simple Ray Tracing.
 
@8j0ern
Was hat dies nun mit FSR3 zu tun?

FSR3 wurde angekündigt und seither herrscht stille.

FSR2.2 ist in SW Survivor integriert und bringt noch immer keine zufriedenstellende Ergebnisse.

Dann haben wir XeSS, welches z.b. ich in The Witcher 3 schon testen konnte und hier sind die Ergebnisse überraschend gut. Hier Respekt an Intel, was für eine Mühe sie sich geben, bei XeSS und auch den Treibern. Eigentlich ein Wunder, wenn man den Gerüchten glaubt, dass die Intel dGPU Sparte begraben ist.

@Yumiko
Ich denke, dass deine Brille bereits so rot ist, dass du die Wahrheit ausblendest.
FSR wird nicht durchgängig auf der XBox oder Playstation eingesetzt. Nur weil in diesen Konsolen AMD GPUs werkeln, heisst das nicht, das nur deren Technologie eingesetzt wird. Zum Beispiel TSR von Epic!

Wie schon mehrmals erwähnt, ist der Aufwand für die Implementierung und Pflege von DLSS quasi 0. Die meisten Game Engine unterstürzen es von Haus aus.

Und ich erwähne halt nochmals Star Wars Survivor, wo DLSS absolut keinen Aufwand gewesen wäre, da AMD aber Partner ist, gibt es kein DLSS.
Anders Baldur's Gate 3, wenn ich dies Starte bekommen ich sofort das Nvidia Logo in XXXL präsentiert, dennoch ist FSR enthalten.

Wie @Megaone schreibt, kann man dies in ein paar Jahren nochmal betrachten und hierzu ist meine Meinung, dass mit der Zeit, ähnlich wie mit PhysX so in den Spielen integriert ist, dass keiner es mehr mitbekommt. Da denke ich an einen DirectML Upscaler, welcher die Dedizierten Hardwareeinheiten von GPUs auch nutzen kann.
Bei Ray Tracing ging dies ja auch ganz Schnell, beim Launch von Turing gab es games wo man explizit RTX ein/aus geschaltet hat. Heute ist es nur noch ganz Simple Ray Tracing.
Darüberhinaus kann man erstmal feststellen, das jede Weitentwicklung dieser Technologien, egal von wem für uns Gamer erstmal von Nutzen ist. Positiv ist sicher zu bewerten, das sowohl XESS als auch FSR von allen Konsumenten Herstellerunabhängig genutzt werden kann.

Inwieweit NVIDIA aufgrund der Tensorkerne seinen technologischen Vorsprung ausbauen, oder durch intelligente Software diese obsolet werden, bleibt abzuwarten. Ich befürchte allerdings das die Diskrepanz zu reinen Softwarelösungen größer wird. Wie ja auch DLSS 3 zeigt. Zumal diese spezielle Hardwarelösungen ja auch weiterentwickelt werden..
 
Zuletzt bearbeitet :
@Megaone

Bitte bergiss nicht, dass XeSS keine reine Softwarelösung ist. Intel hat auch ihre "Tensor" cores, nennen sie halt XMX Cores. Sprich sind XMX Cores vorhanden wird XeSS von der Hardware bearbeitet.

Und da sehe ich halt DirectML (wie DirectXR (DXR) für Ray Tracing) als gemeinsame Schnittstellen für diese AI Beschleuniger. Es ist keine Unmöglichkeit, dass DLSS auch mit diesen XMX Cores funktionieren kann. Das wird Nvidia aber nicht in ihrer Blackbox zulassen.

Interessant wird es wenn XeSS opensource wird (intel hat dies angekündigt) und vielleicht Nvidia ihre Tensor Cores für XeSS nutzen könnte.

AMD hat bis dato keine solche Einheiten in ihren GPUs, schade.
 
@Megaone

Bitte bergiss nicht, dass XeSS keine reine Softwarelösung ist. Intel hat auch ihre "Tensor" cores, nennen sie halt XMX Cores. Sprich sind XMX Cores vorhanden wird XeSS von der Hardware bearbeitet.
Wo du Recht hast. Hatte es anders in Erinnerung. Danke für die Korrektur.

Und da sehe ich halt DirectML (wie DirectXR (DXR) für Ray Tracing) als gemeinsame Schnittstellen für diese AI Beschleuniger. Es ist keine Unmöglichkeit, dass DLSS auch mit diesen XMX Cores funktionieren kann. Das wird Nvidia aber nicht in ihrer Blackbox zulassen.

Interessant wird es wenn XeSS opensource wird (intel hat dies angekündigt) und vielleicht Nvidia ihre Tensor Cores für XeSS nutzen könnte.

AMD hat bis dato keine solche Einheiten in ihren GPUs, schade.
Ich würde mir auch wünschen, das zumindest FSR3 ein richtiger Knaller wird. Ansonsten laufen, mit steigender DLSS 3 implementierungen, selbst die kleinen NViDIA Grafikkarten AMD auf und davon. Zumal AMD ja seine einstige Pool-Position im Bereich Effizienz in weiten Teilen ja schon verloren hat.
 
Zuletzt bearbeitet :
Oben Unten