News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Das ist mir zu vage. Das fängt schon bei den Voraussetzungen an: du stellst dir einen durchschnittlichen Spieler vor, der lieber an seinem PC spielt, aber auch mindestens eine Konsole besitzt. Und ne Nvidiakarte im PC hat, was bei dem Marktanteil die am wenigsten zu diskutierende Annahme ist :)
Alles andere ist - wie gesagt - viel zu vage, jedenfalls aus meiner Sicht.
1.: Ich finde Leute, die einen Spiele-PC und zwei Konsolen besitzen, nicht durchschnittlich. Wenn es das ist: wo fängt dann bei dir Hardcore an?
2.: 499.- sind ne Menge Geld. Der 'sweet spot' liegt weit darunter. Die Mehrzahl spielt nach wie vor auf 1080p und dafür bedarf es keiner solchen Karte, das führt zu
3.: Alles bis etwa 300.- (plus/minus n bißchen was, je nach den Preisen an sich) sind aus meiner Sicht Preise, die ein durchschnittlicher Spieler zu zahlen bereit ist, wenn die Leistung stimmt.
Was zu 4.: führt: die unterschiedlichen Ansichten müßten erstmal geklärt werden, um hier überhaupt auf einen gemeinsamen Nenner zu kommen.
Ich mein: ich hab noch nen ollen Mega Drive, ne PS2 und eben den PC hier, aber ich bin 100Pro kein durchschnittlicher Spieler.
 
So kann den 17.09. ja kaum noch erwarten. Wobei erste Reviews ja vorher kommen werden. Vereinzelte Karten sind ja schon bei Reviewern. Gestern irgend ein Video gesehen - allerdings noch ohne wirkliche Testes. Aber er hatte eine 3080.

Schau mer mal was kommt und wie Cyberpunk auf der 2080Ti läuft in WQHD. Wenn das und die Zukunft gut gehen dann wirds eher die 4000er Serie.
 
Nochmal zu IO: der Verdacht drängt sich auf, dass einige nicht verstanden haben, wie die Technik funktioniert.

Daten in VRAM sind für die GPU MINDESTENS um den Faktor 100 schneller verfügbar, als von jedem beliebigen Speichermedium, sei es auch noch so schnell und noch so schnell angebunden. Das einzige, was hier passiert und auch nur passieren kann ist a) die vom Speichermedium zu lesende Datenmengen möglichst klein zu halten (daher Kompression von vor allem Texturen) und b) weitere Flaschenhälse zu adressieren. Liegen die Daten auf einer SSD ist das der Flaschenhals mit bestenfalls (!) 12GB/s. Zur Erinnerung: VRAM der 3090 wird mit >900GB (in Worten NEUNHUNDERT gigBYTE!) befeuert! VRAM ist daher nur zu ersetzen durch MEHR VRAM. Und am besten noch schnelleren.

Was man jetzt macht ist nichts Neues: eine andere lahme Krücke in der Gleichung auf die Ersatzbank schicken: die CPU. Die ist nämlich schon lange für sowas zu langsam bzw. deren Rechenkapazität ist vor allem quasi „zu teuer“, um sie für so Pillepalle wie IO(PS) zu verbrennen. Das ist im Bereich Netzwerk ein alter Hut und da heißt das RDMA: die Netzwerkkarten kommunizieren direkt mit RAM & Co. an der CPU vorbei. Dabei fällt auf: wer hat sich noch kürzlich einen der führenden Netzwerkspezialisten eingekauft, der bei IO, Next gen interconnects & Co. ganz vorne mit dabei ist...? Rischtisch...

Hab mir jetzt nicht die Mühe gemacht, mich genauer einzugraben, aber es würde mich nicht wundern bzw. muss eigentlich so sein, dass das Entpacken der Daten jetzt auch einfach von speziellen Einheiten (oder halt CUDA Cores) in der GPU erledigt wird. Alte Bauernregel: dedizierte Hardware ist immer deutlich besser als General Purpose Krempel (siehe allein schon die speziellen Video En- und Decoding Pipelines bei Nvidia und Intel - wenn die angesprochen werden können, pusten die andere Logiken für den gleichen Zweck vom Himmel).

Lange Rede, kurzer Sinn: VRAM rules supreme. Nvidia ebnet den Weg, dass man zukünftig nicht mehr bzw. gar nicht erst so viel Kohle für eine Kerne-Monster CPU (oder eben viel/schnellen Hauptspeicher/RAM als weiteres bremsendes Element) ausgeben muss. Und das jetzt ist bestimmt nur ein erster Vorgeschmack. Wunder darf man aber wohl nicht erwarten...
 
Das ist mir zu vage. Das fängt schon bei den Voraussetzungen an: du stellst dir einen durchschnittlichen Spieler vor, der lieber an seinem PC spielt, aber auch mindestens eine Konsole besitzt. Und ne Nvidiakarte im PC hat, was bei dem Marktanteil die am wenigsten zu diskutierende Annahme ist :)
Das ist mittlerweile recht egal, da immer mehr Konsolen Games Keyboard und Maus supporten.

Meine COD Community:
COD MW, COD BO, COD BO2 war die ganze Community auf dem PC zuhause ;),
seit MW 2019 ist jeder wirklich jeder in der Com auf PS4 oder PS4 Pro unterwegs natuerlich mit Maus und Keyboard.
Bin einer der Wenigen die mit dem PAD spielen und ohne Zielhilfe.


Einzig unsere Gilde bei FFXIV ist bunt durchgemischt vom:
Laptop mit einer HD 4850M(sic!) ueber einen mit GTX 1080ti bis zu PS4 und PS4 Pro
 
Zuletzt bearbeitet :
Ganz erlich wartet die 2 version der jeweiligen karten werden viel besser und billiger wahrscheinlich auch noch ^^ super and stuff. obwohl dann kann man auch auf dei 4000e rwarten ein jahr später. circle of gpu life^^

3080 10 gb reicht nichtmal in 1440p die konsolen werden vram using pushen af
 
Zuletzt bearbeitet :
Es gibt ja in allen Foren und Chat die VRAM Debatte der 3080 & 3070. Kennt ihr vernünftige Tests zur aktuellen VRAM Situation, also wie viel wirklich benötigt wird in moderneren Spielen? Ich weiß wohl, dass es Ausreißer wie Horizons PC Port gibt, aber das würde ich mal nicht dazu zählen.

Soweit ich das verstanden habe, ist ja auch ein Problem, dass in der Regel der VRAM nur "belegt" nicht aber unbedingt gebraucht wird, man also gar nicht sehen kann was man tatsächlich gerade benutzt. Stimmt das? Und wie könnte man dann einschätzen, was reicht und was nicht?
 
Ja, Adapter sind dabei 😁

1599079509041.png

Was wäre deine Laienhafteinschätzung diesbezüglich, zumindest im Bezug auf nicht 3090s? ;)

Finde das persönlich etwas erschreckend hoch, zumal Seasonic eigentlich für Qualität bekannt ist.

Lange Rede, kurzer Sinn: VRAM rules supreme. Nvidia ebnet den Weg, dass man zukünftig nicht mehr bzw. gar nicht erst so viel Kohle für eine Kerne-Monster CPU (oder eben viel/schnellen Hauptspeicher/RAM als weiteres bremsendes Element) ausgeben muss. Und das jetzt ist bestimmt nur ein erster Vorgeschmack. Wunder darf man aber wohl nicht erwarten...

Vielleicht geht die Reise Richtung GPUs mit dediziertem Nvme Slot ;)
 
Ganz erlich wartet die 2 version der jeweiligen karten werden viel besser und billiger wahrscheinlich auch noch ^^ super and stuff. obwohl dann kann man auch auf dei 4000e rwarten ein jahr später. circle of gpu life^^

3080 10 gb reicht nichtmal in 1440p die konsolen werden vram using pushen af
Ziemlich viel Indikativ dafür dass du eigentlich nichts davon wissen kannst.
 
ja zock alte games dasnn gehts vielleicht.lul

4k 10gb 2020 läuft lmfao
 
Anhang anzeigen 5350

Was wäre deine Laienhafteinschätzung diesbezüglich, zumindest im Bezug auf nicht 3090s? ;)

Finde das persönlich etwas erschreckend hoch, zumal Seasonic eigentlich für Qualität bekannt ist.



Vielleicht geht die Reise Richtung GPUs mit dediziertem Nvme Slot ;)
ach was steck ich auf 550 watt und wird halten. vega 64 mit 400 quali netrztiel hat gehalten......panikmache wie immer.
 
Eieiei, bei Ebay Kleinanzeigen mit Selbstabholung gibt es bereits blower RTX 2080 TI für 400€, einen Wasserblock bekommt man dann für 80€, da könnte man ja schon fast schwach werden 🥴

Mit dem ganzen Rest (Wakü Pumpe, Zubehör usw.) ist man dann aber wieder bei rund 700,-€ und spürbar schwächer wie mit einer RTX 3080 10GB inkl. Garantie. Gut mit Wasser ist dann leiser und man kann später immer noch was neues damit kombinieren.
 
...

Vielleicht geht die Reise Richtung GPUs mit dediziertem Nvme Slot ;)

Gabs ja in ähnlicher Form schon mit der Radeon Pro SSG aber die Preise...
Direkten Speicher Zugriff gibts bei nVidia ja schon länger, nur halt nicht unter Windows und wann das kommt, weiss auch noch keiner.

...

3080 10 gb reicht nichtmal in 1440p die konsolen werden vram using pushen af

Wenn man offensichtlich nicht gelernt hat Regler zu bedienen, dann wahrscheinlich nicht, nein.
 
[...]Und wie könnte man dann einschätzen, was reicht und was nicht?
Der freie VRAM wird als cache benutzt, um Ruckler beim Nachladen zu vermeiden. Bis WQHD sollten 8 GB reichen, bei 4k wären 10-12 ausreichend, so als Richtschnur. Einschätzen, was reicht und was nicht, dafür gibt es die Benchmarks. Such dir das Spiel raus und schaue bei der passenden Auflösung nach, welche Karte dir ausreichend FPS liefert. Sollten in 3-4 Jahren Spiele erscheinen, die mehr brauchen, wird es dafür Einstellungen geben, die den vram entlasten. DLSS wird die benötigte vram Menge zudem tendenziell senken, da die KI im Upsample Texturdetails hinzufügt. Beim GPU kauf nach den aktuellen Bedürfnissen kaufen und nicht danach, was in ein paar Jahren sein könnte. Zum einen weiß das niemand genau, zum zweiten wird man Spiele immer an seine Karte anpassen können, ist ja alles konfigurierbar und zum dritten wird es die in ein paar Jahren vielleicht benötigte Leistung preiswerter geben.
 
Der freie VRAM wird als cache benutzt, um Ruckler beim Nachladen zu vermeiden. Bis WQHD sollten 8 GB reichen, bei 4k wären 10-12 ausreichend, so als Richtschnur. Einschätzen, was reicht und was nicht, dafür gibt es die Benchmarks. Such dir das Spiel raus und schaue bei der passenden Auflösung nach, welche Karte dir ausreichend FPS liefert. Sollten in 3-4 Jahren Spiele erscheinen, die mehr brauchen, wird es dafür Einstellungen geben, die den vram entlasten. DLSS wird die benötigte vram Menge zudem tendenziell senken, da die KI im Upsample Texturdetails hinzufügt. Beim GPU kauf nach den aktuellen Bedürfnissen kaufen und nicht danach, was in ein paar Jahren sein könnte. Zum einen weiß das niemand genau, zum zweiten wird man Spiele immer an seine Karte anpassen können, ist ja alles konfigurierbar und zum dritten wird es die in ein paar Jahren vielleicht benötigte Leistung preiswerter geben.
Danke, hast mich bisschen beruhigt. Drehe hier schon am Rad, obwohl es nur noch 2 Wochen sind. Habe jetzt auch schon mit dem Gedanken gespielt die 3090 zu holen, aber das ist ein haufen Geld.
 
@Andy4906 Ich persönlich würde mich jetzt nicht auf solchen Aussagen stützen. Grundsätzlich ist die Auflösung nicht der Maßstab, wenn es um VRAM Größe geht. Da geht es mehr um Texturen usw.
Klar kann man nach aktuellen Bedürfnissen kaufen, aber was sind die Bedürfnisse? Möglichst günstiger Preis? Langer Nutzungszeitraum? Das es nicht unbedingt ne 3090 sein muss ist klar, aber eine langfristige Strategie, zahlt sich eher aus.
 
Der freie VRAM wird als cache benutzt, um Ruckler beim Nachladen zu vermeiden. Bis WQHD sollten 8 GB reichen, bei 4k wären 10-12 ausreichend, so als Richtschnur. Einschätzen, was reicht und was nicht, dafür gibt es die Benchmarks. Such dir das Spiel raus und schaue bei der passenden Auflösung nach, welche Karte dir ausreichend FPS liefert. Sollten in 3-4 Jahren Spiele erscheinen, die mehr brauchen, wird es dafür Einstellungen geben, die den vram entlasten. DLSS wird die benötigte vram Menge zudem tendenziell senken, da die KI im Upsample Texturdetails hinzufügt. Beim GPU kauf nach den aktuellen Bedürfnissen kaufen und nicht danach, was in ein paar Jahren sein könnte. Zum einen weiß das niemand genau, zum zweiten wird man Spiele immer an seine Karte anpassen können, ist ja alles konfigurierbar und zum dritten wird es die in ein paar Jahren vielleicht benötigte Leistung preiswerter geben.

Das Prinzipielle Prinzip verstehe ich schon, nur fehlen mir eben empirische Daten dazu, was aktuell der Standard ist. Die einen sagen "8GB reichen auch für UHD" die anderen "Die 11GB der 2080Ti stoßen schon an ihre Grenzen in UHD". Und dann sieht man auch Daten von z.B. dem MS Flugsimulator, der sich auf einer T-RTX seine 17GB VRAM genemigt laut RTSS. Aber hier ist halt eben wieder mein bedenken, dass das kein Aussagekräftiger wert ist, weil Zuweisung != Benötigt. Kann man das wirklich nicht anders auslesen?
 
Frag Igor? Da merkt man eben, das es keine pauschalen Aussagen dazu gibt.
 
Anhang anzeigen 5350

Was wäre deine Laienhafteinschätzung diesbezüglich, zumindest im Bezug auf nicht 3090s? ;)

Finde das persönlich etwas erschreckend hoch, zumal Seasonic eigentlich für Qualität bekannt ist.

Zu beachten ist bei den Leistungsangaben aber auch immer das restliche System. Nvidia gibt den Verbrauch mit einem Intel 10980XE an, der ja auch ein paar Watt zieht. Wer einen z.b. einen Ryzen 3600 hat wird mit einem 650W Netzteil bei der 3090 vermutlich problemlos zocken können, behaupte ich.
 

Anhänge

  • Screenshot_20200903-092031~2.png
    Screenshot_20200903-092031~2.png
    226,3 KB · Aufrufe : 4
Gabs ja in ähnlicher Form schon mit der Radeon Pro SSG aber die Preise...
Direkten Speicher Zugriff gibts bei nVidia ja schon länger, nur halt nicht unter Windows und wann das kommt, weiss auch noch keiner.



Wenn man offensichtlich nicht gelernt hat Regler zu bedienen, dann wahrscheinlich nicht, nein.
klar man kauft sich neu 700€ karte um texturen zu reduzieren. lmfao
 
Das lustige ist jetzt wo die ganzen überdimensionierten NTs mal endlich im Bereich von +50% arbeiten würden und damit je nach cert. der Wirkungsgrad auch erreicht wird , wird direkt auf 1kw+ upgegradet 🤣
 
Oben Unten