Palit GeForce RTX 4070 Dual 12 GB im Ultrawide- und Latenz-Vergleich – Warum auch Speichemangel ein Thema werden könnte

Gerade mal eine RTX 4070 für einen Test geordert, die für 649 Euro sogar 215 Watt und RGB mitbringt, dazu einen 3-Lüfter-Kühler und ein normales Design. Da ich denjenigen kenne, der sie entworfen und zu verantworten hat, wird das sicher kein Kühlungsdesaster. Stay tuned :)
 
Schwierig, ich kann aus Unternehmenssicht den Ansatz von NVIDIA verstehen. Börsenunternehmen = Anleger geht vor Gamer und letztlich muss der Markt es regeln. Da AMD leider immer nur zweiter ist (Raytracing, Upscaling und Frame Generation) wird das schwierig. Intel könnte über den Preis gehen, wenn sie kein Minus machen —> Börsenunternehmen, das hatten wir ja bereits…

mich ärgert es nur, dass man der 3070 Ti keine 12 GB mitgegeben hat… na ja…

Die Spieleentwicklung geht hier auch die falsche Richtung, es kann nicht sein, dass man für 1080p 12 GB braucht. Lächerlich
Ich frage mich auch schon länger, welche Hardware die Entwickler von Spielen dabei benutzen. Wenn man da mit 4090 oder 7900 XTX unterwegs ist, laufen auch richtige Resourcenfresser trotzdem noch rund. Und es würde mich auch nicht wundern, wenn sowas von NVIDIA und AMD durchaus aktiv unterstützt wird, denn so entstehen Anreize, sich dann doch die ganz großen und teuren Karten zu kaufen. Und wer es nicht kann oder will, hat Pech gehabt.
 
Du hast in allen Punkten Recht, am Ende regelt es der Markt. In dem Fall die Nachfrage und wenn es die Leute kaufen, dann kommt NVIDIA damit durch.

Unternehmerisch ist das doch perfekt…

Für den Endkunden… jeder ist seines Glückes Schmied.

Aus dem Grund bau ich für meine Familie in der Regel nur Systeme mit ausreichend GPU Speicher, sonst wird man arm…

Meiner Frau reicht die 3070 Ti, da ihr RTX on völlig egal ist. 🤪
Ich habe nicht gesagt, dass Nvidia es aus Herstellersicht falsch macht. ;)
Ich bin mit meiner MBA RX6700XT auch nicht unzufrieden. Leider ist sie halt für meinen UHD-Monitor (war ein Geschenk ;)) für einiges zu schwach bzw. schuftet eben am Limit. Hotspot 100°C und so. Leider habe ich damals mit der Jagd auf die MBA 6800XT kein Glück gehabt und ich brauchte endlich ein Upgrade von der R9-280.

Cunhell

PS: Überlege zumindest mal die Karte auf Wasser umzubauen. Scheue aber immer noch den Aufwand :)
 
Zuletzt bearbeitet :
Das läßt darauf schliessen, dass man demnächst noch teurere Karten mit noch günstigeren Bauteilen sehen wird. Die Aussicht auf weniger quiekende Karten schwindet für mich daher immer mehr.

Nun, das kann man evt. umgehen, in dem man im Abverkauf einer GPU-Generation ein Angebots-Topmodell sich holt, wenn einem die Komponenten bzw. das Boardpartnerdesign wichtig sind.

Das habe ich letztes Jahr (mit einer Powercolor Red Devil RX 6800XT) auch erstmalig gemacht (wenn man schon in den sauren Apfel der hohen Grafikkartenpreise beissen muss, dann wenigstens ein hoffentlich langlebiges Topmodell verhaeltnismaessig guenstig erwerben), sonst waere mir nie in den Sinn gekommen ein zum Marktstart teures Boardpartner-Topmodell einer Grafikkarte zu kaufen (zuvor waren fuer mich eher die soliden (nicht "billigst" und nicht Topdesign) Custom-Modelle der Boardpartner am interessantesten, wie bspw. eine Gigabyte Gaming OC).

Was die RTX 4070 angeht, so scheint wohl auch wegen des mageren Speicherausbaus das RDNA2 FLaggschiff (RX 6950XT mit 16GB und deutlich mehr Leistung, jedoch auch deutlich weniger Effizienz, aber untervoltbar) - aktuell fuer etwa den gleichen Preis erhaeltlich - zumindest bei ComputerBase mehr in der Gunst zu liegen (bei mir sowieso, denn kaum etwas waere fuer mich schlimmer als am Speicher einer sowieso schon ziemlich teuren Grafikkarte schon nach 2-3 Jahren zu verhungern).

Untitled.jpg
Vielleicht wird eine RTX 5070 mit 16 GB (hoffentlich eher auf dem Niveau einer RTX 4080Ti als einer RTX 4080) dann in ca. 2 Jahren deutlich interessanter (zumal die RTX 4070 innerhalb der Ada Lovelace dGPU-Generation relativ schwach daher kommt in Sachen Leistungszuwachs gegenueber der Vorgeneration, verglichen mit einer RTX 4080, geschweige denn einer RTX 4090) und der Speichermengenbedarf der Spieleentwickler pendelt sich dann bei 16 GB Mindestbedarf bei so gut wie allen Spieletiteln fuer einige Jahre ein, aber wer weiss das schon ;).

Die zu erwartende Grossvermarktung von RT-PT mit Einfuehrung der RTX 5000er Generation und dadurch noch mehr Ressourcenbedarf (fuer die schon erwaehnt wenig sparsam damit umgehenden Entwickler) suggeriert leider eine andere Entwicklung fuer den Speicherbedarf zukuenftiger Spieletitel.

Also mindestens 24 GB (idealer Weise 32 GB) duerften es bei mir dann schon gerne sein, wenn die naechste Desktop-dGPU in vermutlich 4-6 Jahren ansteht und ich habe den Verdacht, dass mich da AMD/RTG vermutlich wieder eher abholen wird als nVidia, aber wer weiss (vielleicht wird ja sogar Intel noch positiv ueberraschen bis dahin)?
 
Zuletzt bearbeitet :
langweilig. Ich bin durch mit Nvidia. Hab jetzt seit 2012 beobachtet, wie die GPUs sich entwickeln mit der Zeit. Und das hat nichtmal was mit VRAM zu tun, das kommt noch obendrauf, auch wenn ich das lange nicht so dramatisch sehe. Ich ärger mich schon, dass ich mir ne gebrauchte RTX 2070 besorgt hab anstatt einer RX 5700xt. Meine nächste wird 100% ne AMD.
 
langweilig. Ich bin durch mit Nvidia. Hab jetzt seit 2012 beobachtet, wie die GPUs sich entwickeln mit der Zeit. Und das hat nichtmal was mit VRAM zu tun, das kommt noch obendrauf, auch wenn ich das lange nicht so dramatisch sehe. Ich ärger mich schon, dass ich mir ne gebrauchte RTX 2070 besorgt hab anstatt einer RX 5700xt. Meine nächste wird 100% ne AMD.
Wieso, die 2070 ist doch für ihre Zeit eine brauchbare Karte gewesen. Bei den RX5000ern musst man damals Glück haben, dass sie gut liefen. Hatte mich damals davon abgehalten, eine zu holen. Und ich hatte seit der X1800XT nur AMD/ATI. Jetzt eben RX6700XT.

Cunhell
 
ich nutz GPUs immer sehr lange..hatte bis vor kurzem noch ne 980, die 2070 hab ich von nem Nachbarn gekauft. Mit der werd ich locker noch 3 jahre auskommen. Und der Abstand etwa zur RX5700xt oder auch der RX 6600xt wird erfahrungsgemäss nur noch weiter anwachsen in der zeit. Ich glaube es lässt sich sehr schwer dagegen argumentieren, dass man mehr von AMD hat, wenn man zu denen gehört, die nur alle 2 oder 3 generationen eine neue Karte kaufen.

Eigentlich sind es die Spieleentwickler, die Nvidia gerade richtig in der Zange haben, von denen hängt eine menge ab. Momentan gibts ja wieder ne VRAM-Hysterie, weil eine Handvoll Spiele nicht auf max. Texturen läuft mit 8GB, wenn die Programmierer das jetzt flächendeckend übernehmen würden, dass die höchsten Texturen mit 8GB nicht mehr laufen, wäre das ne echte Krise für Nvidia. Vor allem würde es den Machern keiner übel nehmen, denn den Ruf hat Nvidia ja schon lange mit dem kleinen Speicher. Plus es würde weniger Arbeit bedeuten, die grossen Spielemacher mit hohem Budget zeigen ja, dass es absolut möglich ist mit 8GB, aber das optimieren kostet Zeit und Aufwand.

Ich fänds ja irgendwie schön, aber ich befürchte sie werden es nicht in grosser Zahl durchziehen, weil der marktanteil, bzw. der Besitzeranteil der Leute einfach so niedrig ist mit mehr als 8GB.
 
Zuletzt bearbeitet :
ich nutz GPUs immer sehr lange..hatte bis vor kurzem noch ne 980, die 2070 hab ich von nem Nachbarn gekauft. Mit der werd ich locker noch 3 jahre auskommen. Und der Abstand etwa zur RX5700xt oder auch der RX 6600xt wird erfahrungsgemäss nur noch weiter anwachsen in der zeit. Ich glaube es lässt sich sehr schwer dagegen argumentieren, dass man mehr von AMD hat, wenn man zu denen gehört, die nur alle 2 oder 3 generationen eine neue Karte kaufen.

Eigentlich sind es die Spieleentwickler, die Nvidia gerade richtig in der Zange haben, von denen hängt eine menge ab. Momentan gibts ja wieder ne VRAM-Hysterie, weil eine Handvoll Spiele nicht auf max. Texturen läuft mit 8GB, wenn die Programmierer das jetzt flächendeckend übernehmen würden, dass die höchsten Texturen mit 8GB nicht mehr laufen, wäre das ne echte Krise für Nvidia. Vor allem würde es den Machern keiner übel nehmen, denn den Ruf hat Nvidia ja schon lange mit dem kleinen Speicher. Plus es würde weniger Arbeit bedeuten, die grossen Spielemacher mit hohem Budget zeigen ja, dass es absolut möglich ist mit 8GB, aber das optimieren kostet Zeit und Aufwand.

Ich fänds ja irgendwie schön, aber ich befürchte sie werden es nicht in grosser Zahl durchziehen, weil der marktanteil, bzw. der Besitzeranteil der Leute einfach so niedrig ist mit mehr als 8GB.
Nochmal, die 2070 ist ne gute Karte. Und das sag ich als AMD/ATI User. Der Ram ist für die Karte angemessen und es ist ja auch nicht so, dass die AMD-Karten um Welten davonziehen, auch wenn sie im Laufe der Zeit ggf. etwas weniger Leistung einbüßen. Meine R9-280 hat mit 3GB lange gut gedient.
Die aktuellen Disskussionen gehen um die neuen Karten ab den RTX 3000, bei denen die VRAM-Ausstattung im Kontext zur GPU-Leistung sehr kurz gehalten ist.
Freu Dich über Deine hoffentlich günstige 2070 und mach Dir erst wieder einen Kopf, wenn Du auf RTX3000/4000 gehst. Die 2070 ist mit 8GB adequat ausgestattet.

Cunhell
 
Das ist meine sehr geschätzte 2080 Ti zum Glück auch. Jetzt, wo gerade noch ausreichend Puste vorhanden ist, reichen dann auch die 11GB gerade noch aus.

Ich wage es irgendwie zu bezweifeln, dass ich sowas irgendwann über eine 4080 berichten könnte. Nvidia will uns zwingen diese Kleinwagen-Preise zu zahlen. Sehe ich rigendwie nicht ein, aber eine 3090(Ti) ist jetzt auch nicht so spannend. Weil ja auch nicht billig, und nur eine Generation weiter.
Nein, Radeon kauf ich weiterhin nur zum arbeiten, nicht zum zocken. Schon allein wegen dem Powerlimit bei minimal -6%, sorry, kann AMD behalten.

Ich halte also weiter durch. Bis es nicht mehr geht. Noch reicht der Hubraum, noch reicht der Speicher.. 🤠
 
Das ist meine sehr geschätzte 2080 Ti zum Glück auch. Jetzt, wo gerade noch ausreichend Puste vorhanden ist, reichen dann auch die 11GB gerade noch aus.

Ich wage es irgendwie zu bezweifeln, dass ich sowas irgendwann über eine 4080 berichten könnte. Nvidia will uns zwingen diese Kleinwagen-Preise zu zahlen. Sehe ich rigendwie nicht ein, aber eine 3090(Ti) ist jetzt auch nicht so spannend. Weil ja auch nicht billig, und nur eine Generation weiter.
Nein, Radeon kauf ich weiterhin nur zum arbeiten, nicht zum zocken. Schon allein wegen dem Powerlimit bei minimal -6%, sorry, kann AMD behalten.

Ich halte also weiter durch. Bis es nicht mehr geht. Noch reicht der Hubraum, noch reicht der Speicher.. 🤠
Das mit dem Powerlimit verstehe ich auch nicht so Recht - Klar, nach oben hin ist ne Begrenzung schon sinnvoll, aber warum nur -6.... da könnte man ruhig bis -50 Freigeben 🤔

AMD verhindert damit praktisch selbst, das die Karte zu effizient läuft xD
 
ist das nur bei der refferenzkarte oder bei allen Partnerkarten mit den 6%? Höre ich zum ersten mal. Würde mich auch nerven. Meine 2070 läuft mit gerade mal 140Watt eingestelltem Powertarget.
 
AMD verhindert damit praktisch selbst, das die Karte zu effizient läuft xD
Die Frage hatte ich mir auch schon mal gestellt, besonders wenn man bedenkt das mit CoreCtrl unter Linux die selbe Karte im Powerlimit von Max bis 1 einstellbar ist.

Und soweit ich weiß ist auch beim Freien Treiber AMD mit dabei.
:unsure:
 
Ja
 
An sich hätte ich gerne eine FE gehabt, aber da scheint die Verfügbarkeit eher schlecht zu sein. Bei den günstigen Custom-Modellen muss man wohl ziemlich aufpassen. MSI (ist wohl eine der Problemfälle hier) und Gigabyte (angeblich anfällige Gleitlagerlüfter) fallen man komplett weg. Die Asus Dual scheint da momentan noch die beste Wahl neben der FE zu sein. Die KFA2 wäre allerdings mit den 3 Lüftern sicher noch interessanter. Wird’s davon einen Test geben bzw. lässt sich schon sagen ob die Bauqualität der Karte auf dem Niveau der FE liegen wird?
 
Liest du mit oder schreibst du nur? Deine Frage wird direkt über deinem Beitrag beantwortet.
Geiler Nick...
 
Oben Unten