Palit GeForce RTX 4070 Dual 12 GB im Ultrawide- und Latenz-Vergleich – Warum auch Speichemangel ein Thema werden könnte

Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(
Das würde mich echt freuen. Cooles Angebot von Igor😀
 
Dazu gibt es sogar einen Grundlagenartikel und ja, die Maus ist integriert.
Habe ich gerade nochmal gelesen, eine Sache dazu:

Ich habe dazu den Grafikausgang über die Grafikkarte gewählt und den Monitorausgang an LDAT angeschlossen.
Das Analoge Audio Signal, welches über HDMI / DP zum Monitor geht (Digital) ist immer mit sehr hohen Verzögerungen zum Bild Verbunden.
Man hört es sofort, wenn man z.B. ein Sub-Woofer über Chinch Kabel anschließt und gleichzeitig die Lautsprecher vom Monitor/TV nutzt.
 
Echt interessant zu sehen wie sehr gerade die alten 8GB Karten probleme machen hier. Was ich leider vermisse wäre die Frage wie sich eine 6800(x) hier schlägt mit ihren größeren Rammengen? Straßenpreis ist ja gerade sehr ähnlich zu 4070 so das es die direkte Konkurenz wäre. Mit den Antilag Probleme lässt sich aber schlecht sagen ob sinvoll,.
 
Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(
das wäre sehr sehr cool. Ich würde mich freuen.
 
Hmmm der Test macht mich echt nachdenklich..
Denn der Speichermangel der Nvidiakarten kann man durchaus als eine Art geplante Obsoleszenz bezeichnen, damit man ja wieder die nächste Generation kaufen (muss).
Und dazu die Dominanz von Nvidia auf dem Grakamarkt. AMD hat da nicht mehr so viel zu melden. Und so haben sie eine Art Quasi-Monopol dort.

Da kann man dann am Ende fast nur noch auf Intel hoffen. Das die ihre ARC´s so langsam aber sicher in den Griff bekommen.
Aber aktuell siehts echt lau aus.



 
Interessanter Artikel. Der Unterschied zwischen Reflex und AMDs Ansatz ist immer wieder frappierend.

Nur suggeriert für mich die Überschrift, dass Du schon an das Limit der 4070 stößt, was sich im Text nicht wiederfindet, so scheint mir.
 
Interessanter Artikel. Der Unterschied zwischen Reflex und AMDs Ansatz ist immer wieder frappierend.

Nur suggeriert für mich die Überschrift, dass Du schon an das Limit der 4070 stößt, was sich im Text nicht wiederfindet, so scheint mir.
Noch reicht es, in UHD geht auch der Karte die Luft aus!

Die Überschrift ist bewusst im Konjunktiv gehalten…
 
Sachlich korrekt, aber das Warum geht mir aber trotzdem ab.
Sonst, wie gesagt, gute Arbeit.
Um Fritz mal beizustehen: Die Überschrift habe ich geändert, weil die erste Variante mit den "8 GB reichen nicht" missverständlich war, weil es sich auf die anderen Karten bezog. Nur können Überschriften ja nicht endlos lang sein :D

Und ich gebe Euch mein Wort, die 12 GB sind in 1-2 Jahren das neue 8 GB, wenn das so weitergeht. Wenn ich im DX12 Pool sogar noch in 720p fette Ultra-HD Texturen finde, dann zeigt mir das doch nur, dass die emsigen Konsolenportierer und Ressourcenverschwender nichts dazugelernt haben :D
 
Um Fritz mal beizustehen: Die Überschrift habe ich geändert, weil die erste Variante mit den "8 GB reichen nicht" missverständlich war, weil es sich auf die anderen Karten bezog. Nur können Überschriften ja nicht endlos lang sein :D

Und ich gebe Euch mein Wort, die 12 GB sind in 1-2 Jahren das neue 8 GB, wenn das so weitergeht. Wenn ich im DX12 Pool sogar noch in 720p fette Ultra-HD Texturen finde, dann zeigt mir das doch nur, dass die emsigen Konsolenportierer und Ressourcenverschwender nichts dazugelernt haben :D
Da hätte die Überschrift von @FritzHunter01 tatsächlich den Inhalt gut widergespiegelt. Aber da sind wir im Bereich des persönlichen Geschmacks angekommen, dies schmälert sein Werk nicht. Aber klar, das letzte Wort obliegt Dir.

Und zum Thema Langlebigkeit: Klar hat die Karte ein Ablaufdatum. Aber mit etwas Glück verbiegt sie bis dahin ausreichend, wie manche Partnerkarte, um NV neue Einnahmen zu generieren.

Zum Thema Portierungen: Optimierung kostet halt Zeit und Geld. Und Entwickler haben schon oft reagiert mit: "Dann brauchst Du halt mehr...".

Hab ich in der Zeit, in der ich Kundensysteme dimensioniert und implementiert habe, oft genug erlebt. "Nein, Deine Anwendung muss nicht 10.000 Context Switches erzeugen und 2 Gig RAM pro User allokieren".
 
Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(
Das läßt darauf schliessen, dass man demnächst noch teurere Karten mit noch günstigeren Bauteilen sehen wird. Die Aussicht auf weniger quiekende Karten schwindet für mich daher immer mehr. Irgendwo muss ja der Profit für die Custom-Hersteller her kommen.
Da helfen dann auch keinen leisen Lüfter mehr.

Irgendwann gibt es dann fast nur noch die FE oder MBA-Karten im Referenzoutfit mit ggf. Custom-Farbdesign. Hatten wir ja schon damals z.B. bei den X1800XT/XL, X1900XT/XTX etc. etc. auch schon. Sparen die Hersteller zumindest die Platinen- und Kühlerentwicklung.

Schöne neue Welt.

Cunhell
 
VRAM wird von beiden Seiten her zerquetscht:
1) Nvidias Speichergeiz funktioniert nur auf Grund deren Marktdominanz (GPGPU und DLSS).
2) Spiele werden immer schlampiger entwickelt; keine Optimierung, schlechte Portierung etc. Stichwort "nutzt doch DLSS oder FSR wenn ihr euch keine 4090 leisten könnt"

1) und 2) liegt ausschliesslich Gewinnoptimierung und Geiz zugrunde.

20 USD sparen an VRAM und es sich noch leisten können, mehr dafür zu kassieren. No comment.
Ich würd mehr als die 20 Kröten für mehr VRAM bezahlen, viel mehr.

Mit x060 bis x090 jeweils normal, super oder TI wären 12 Karten drin. Mit VRAM Ansprüche für alle - und zu Preisen für alle!

Dann noch die Nomenklatur, AMD muss x800er gegen x070er von NV antreten lassen, um besser zu sein. Mit den x900er, xx50er und XTX hinken sie nur noch hinterher. Und Intel, Airbus 380, 770er. Wie sieht die Nummerierung langfristig aus? Damit man mit grün und rot vergleichen kann.
 
Zu DLSS/FSR/XeSS, Reflex/Antilag, Gsync/FreeSync und Co. Es wäre sehr wünschenswert, EINEN Standard zu haben. Zwei resp. drei Entwicklungen in Konkurrenz. Für Kunden von Hardware und Spielen ein Albtraum.

Schade dass da kartellrechtlich nichts drin zu liegen scheint. Oder Normierung. Bei Microsoft, Google, Apple und Co. geht das ja auch, zum Nutzen für uns Kunden.
 
Zu DLSS/FSR/XeSS, Reflex/Antilag, Gsync/FreeSync und Co. Es wäre sehr wünschenswert, EINEN Standard zu haben. Zwei resp. drei Entwicklungen in Konkurrenz. Für Kunden von Hardware und Spielen ein Albtraum.

Schade dass da kartellrechtlich nichts drin zu liegen scheint. Oder Normierung. Bei Microsoft, Google, Apple und Co. geht das ja auch, zum Nutzen für uns Kunden.
Es gibt ja mindestens einen freien Ansatz. FSR steht allen frei. In Grenzen meines Wissens auch XeSS. DLSS ist ja eine der Anwendungen im Heimbereich der Tensore Cores, die NV nunmal hatte und die man nutzbringend den Usern schmackhaft machen möchte.

Von daher erklärt sich der Istzustand von selbst.
 
Zu DLSS/FSR/XeSS, Reflex/Antilag, Gsync/FreeSync und Co. Es wäre sehr wünschenswert, EINEN Standard zu haben. Zwei resp. drei Entwicklungen in Konkurrenz. Für Kunden von Hardware und Spielen ein Albtraum.

Schade dass da kartellrechtlich nichts drin zu liegen scheint. Oder Normierung. Bei Microsoft, Google, Apple und Co. geht das ja auch, zum Nutzen für uns Kunden.
Schwierig, ich kann aus Unternehmenssicht den Ansatz von NVIDIA verstehen. Börsenunternehmen = Anleger geht vor Gamer und letztlich muss der Markt es regeln. Da AMD leider immer nur zweiter ist (Raytracing, Upscaling und Frame Generation) wird das schwierig. Intel könnte über den Preis gehen, wenn sie kein Minus machen —> Börsenunternehmen, das hatten wir ja bereits…

mich ärgert es nur, dass man der 3070 Ti keine 12 GB mitgegeben hat… na ja…

Die Spieleentwicklung geht hier auch die falsche Richtung, es kann nicht sein, dass man für 1080p 12 GB braucht. Lächerlich
 
Hi Igor,

wenn Du magst kann ich dir gern mal meine RX6800 zum testen zur verfügung stellen... 6700 ist schon fast estwas gemein an der Stelle...
Aber sehr interessanter Test, vor allem warum das Anti-Lag nicht zuverlässig funktioniert...
Das den NVIDIA Karten jetzt und in Zukunft der Speicher knapp wird war ja zu erwarten zumal die Konsolen ja alle mehr als die 8GB haben und die Spiele am PC eher schlechter optimiert sind... Somit wird man eher erst mit 16GB einigermaßen sicher sein.
 
Schwierig, ich kann aus Unternehmenssicht den Ansatz von NVIDIA verstehen. Börsenunternehmen = Anleger geht vor Gamer und letztlich muss der Markt es regeln. Da AMD leider immer nur zweiter ist (Raytracing, Upscaling und Frame Generation) wird das schwierig. Intel könnte über den Preis gehen, wenn sie kein Minus machen —> Börsenunternehmen, das hatten wir ja bereits…

mich ärgert es nur, dass man der 3070 Ti keine 12 GB mitgegeben hat… na ja…

Die Spieleentwicklung geht hier auch die falsche Richtung, es kann nicht sein, dass man für 1080p 12 GB braucht. Lächerlich
Man kann eigentlich erst mal froh sein, dass RT in DX12 als DXR implementiert wurde. Sonst würde jeder Hersteller sein eigenes properitäres Süppchen kochen. Bei der jetzigen Marktlage wäre es wohl sehr klar, wer dann die Regeln vorgeben würde.
Eine irgendwie geartete allgemeine "DLSS"-Version scheitert ja schon alleine an den Lizenzen. Weder Intel noch AMD können einfach die Hardware vewenden auf die Nvidia das Patent oder Lizenz hat. So muss jeder auf seine Weise versuchen, dass nachzubauen und damit kommt halt XeSS, FSR und so weiter parallel zu DLSS auf den Markt. Bei FSR kommt noch erschwerend dazu, dass AMD versucht, das Ganze hardwareoffen zu gestalten. Damit muss man zwangsläufig Kompromisse eingehen, die Nvidia z.B. mit DLSS 3 nicht eingehen muss, da es rein auf die 4000er zugeschnitten ist.

Und die Disskussion um den Speicher finde ich gelinde gesagt ein wenig lächerlich. Die 3060Ti und die 3070/3070Ti haben 8GB während die billigere 3060 12GB hat. Also kann es nicht nur allein am Preis liegen. Und die RX6700XT hatte obwohl im gleichen Preissegment auch 12GB.
Das das Ganze mMn. einfach nur marktpolitische Entscheidungen von Nvidia waren, zeigt ja schon die 4070Ti die ursprünglich deutlich teurer als 4080/12GB kommen sollte. Das wurde erst geändert, als Nvidia von allen Seiten Wind entgegengeweht ist. Würden die Kunden die zum Teil spärlichen Speicherausbauten der Karten ebenso mit Ablehnung quitieren, wäre damit schnell schluss. Da die Teile sich aber gut verkaufen, gibt es für den Hersteller keinerlei Grund umzudenken. Läuft ja. Warum also höher springen als man muss.

Selbst die Konsolen haben schon vergleichbar viel Speicher für die GPU zur Verfügung obwohl einige Spiele mit reduzierter Auflösung gerendert und dann nur hochskaliert werden. Und die Spieleentwicklung läuft zumindest oft genug für die Konsolen mit anpassungen für den PC.
Hier mit weniger Speicherverbrauch zu rechnen, wäre sehr blauäugig.
Das RT zusätzlich noch Speicher benötigt kommt noch dazu.

Cunhell

PS: Ich konnte mit meiner R9-280 noch reativ lange spielen, da sie 3GB VRAM hatte. Mit 2GB, die damals nicht unüblich waren, wäre früher schluss gewesen.
 
@Thomas2605 Diese Tests mach in der Regel ich…

Ich werde dennoch die RX 6700 XT mit einbeziehen. Denn ich habe gestern Abend nochmal in Hogwarts nachgestetet in Bezug Anti-Lag und war das Texturproblem nativ auch bei der Karte. Erst mit FSR Qualität lief es ohne Grafikprobleme.

Das könnte auf eine zu geringe Speicheranbindung hinweisen. Bzw. dass der GDDR 6 zu langsam ist.

Ich muss mir das mit RTTS (Afterburner) in Bezug auf tatsächlich Speicherauslastung nochmal anschauen.

Eine RX 6800 hat aktuell keine Problem, die 16 GB können max. in UHD zum Bottleneck werden. Aber nur, weil die Anbindung so gering ist. Das war schon damals das Problem 6900 XT vs 3090 usw. In UHD ging der Karte plötzlich die Luft aus
 
Man kann eigentlich erst mal froh sein, dass RT in DX12 als DXR implementiert wurde. Sonst würde jeder Hersteller sein eigenes properitäres Süppchen kochen. Bei der jetzigen Marktlage wäre es wohl sehr klar, wer dann die Regeln vorgeben würde.
Eine irgendwie geartete allgemeine "DLSS"-Version scheitert ja schon alleine an den Lizenzen. Weder Intel noch AMD können einfach die Hardware vewenden auf die Nvidia das Patent oder Lizenz hat. So muss jeder auf seine Weise versuchen, dass nachzubauen und damit kommt halt XeSS, FSR und so weiter parallel zu DLSS auf den Markt. Bei FSR kommt noch erschwerend dazu, dass AMD versucht, das Ganze hardwareoffen zu gestalten. Damit muss man zwangsläufig Kompromisse eingehen, die Nvidia z.B. mit DLSS 3 nicht eingehen muss, da es rein auf die 4000er zugeschnitten ist.

Und die Disskussion um den Speicher finde ich gelinde gesagt ein wenig lächerlich. Die 3060Ti und die 3070/3070Ti haben 8GB während die billigere 3060 12GB hat. Also kann es nicht nur allein am Preis liegen. Und die RX6700XT hatte obwohl im gleichen Preissegment auch 12GB.
Das das Ganze mMn. einfach nur marktpolitische Entscheidungen von Nvidia waren, zeigt ja schon die 4070Ti die ursprünglich deutlich teurer als 4080/12GB kommen sollte. Das wurde erst geändert, als Nvidia von allen Seiten Wind entgegengeweht ist. Würden die Kunden die zum Teil spärlichen Speicherausbauten der Karten ebenso mit Ablehnung quitieren, wäre damit schnell schluss. Da die Teile sich aber gut verkaufen, gibt es für den Hersteller keinerlei Grund umzudenken. Läuft ja. Warum also höher springen als man muss.

Selbst die Konsolen haben schon vergleichbar viel Speicher für die GPU zur Verfügung obwohl einige Spiele mit reduzierter Auflösung gerendert und dann nur hochskaliert werden. Und die Spieleentwicklung läuft zumindest oft genug für die Konsolen mit anpassungen für den PC.
Hier mit weniger Speicherverbrauch zu rechnen, wäre sehr blauäugig.
Das RT zusätzlich noch Speicher benötigt kommt noch dazu.

Cunhell

PS: Ich konnte mit meiner R9-280 noch reativ lange spielen, da sie 3GB VRAM hatte. Mit 2GB, die damals nicht unüblich waren, wäre früher schluss gewesen.
Du hast in allen Punkten Recht, am Ende regelt es der Markt. In dem Fall die Nachfrage und wenn es die Leute kaufen, dann kommt NVIDIA damit durch.

Unternehmerisch ist das doch perfekt…

Für den Endkunden… jeder ist seines Glückes Schmied.

Aus dem Grund bau ich für meine Familie in der Regel nur Systeme mit ausreichend GPU Speicher, sonst wird man arm…

Meiner Frau reicht die 3070 Ti, da ihr RTX on völlig egal ist. 🤪
 
@Thomas2605 Diese Tests mach in der Regel ich…

Ich werde dennoch die RX 6700 XT mit einbeziehen. Denn ich habe gestern Abend nochmal in Hogwarts nachgestetet in Bezug Anti-Lag und war das Texturproblem nativ auch bei der Karte. Erst mit FSR Qualität lief es ohne Grafikprobleme.

Das könnte auf eine zu geringe Speicheranbindung hinweisen. Bzw. dass der GDDR 6 zu langsam ist.

Ich muss mir das mit RTTS (Afterburner) in Bezug auf tatsächlich Speicherauslastung nochmal anschauen.

Eine RX 6800 hat aktuell keine Problem, die 16 GB können max. in UHD zum Bottleneck werden. Aber nur, weil die Anbindung so gering ist. Das war schon damals das Problem 6900 XT vs 3090 usw. In UHD ging der Karte plötzlich die Luft aus
Oder die RX6700XT hat in Deinen Testszenarien auch mit dem Cache Probleme. Der ist ja mit 96MB nochmal ne Ecke kleiner als die von den 6800/6900-Modellen und die Speicheranbindung mit 192 Bit ebenso.

Cunhell
 
Oben Unten