News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Ich würde eher sagen, das man aktuell, performancetechnisch in nem Tief steckt.
Solche Steigerungen wie zur 1080Ti, wird man lange nicht mehr sehen.
Deshalb wird DLSS gepusht!
 
Immer noch drei Tage...
 
Geil ein uraltes spiel das auf einem toaster läuft wird performanter gemacht.
 
Geil ein uraltes spiel das auf einem toaster läuft wird performanter gemacht.

Da fragt man sich, die Wolfenstein Serie ist zu Tode optimiert (im positiven Sinn), bei anderen Games dauerts oder geht gar nicht🙄

Jepp, definitiv März 2017.
 
Möglicherweise sind die einkommen dort höher, als hierzulande, falls nicht viel Vergnügen beim Konkurs.
 
Ich erwarte nicht, dass die 3080 deutlich schneller und deutlich günstiger als die 2080ti wird, da scheint sich mir das Spiel mit der 1080ti und 2080 zu wiederholen: die 3080 wird im Schnitt etwas schneller und ein bisschen günstiger, hat dafür aber etwas weniger RAM und das bedeutet dann, dass die 2080ti nicht mehr sehr viel günstiger wird und dass sich ein Upgrade von der 2080ti einzig zur 3090 lohnt, die dann aber wieder sehr viel teurer wird. Dadurch erspart sich Nvidia extreme Abverkäufe mit sehr großen Rabatten. Spannend wird die Raytracing-Leistung, hier glaube ich schon, dass die Ampere-Karten deutlich schneller sein werden, da könnte auch die 3070 an der 2080ti vorbeiziehen.

Die "Fehler" der Pascal-Ära scheint Nvidia nicht wiederholen zu wollen, zB. dass die 1070 die 980ti überflügelt hat und dass die 1080ti so sehr überpowert war, dass sie immer noch zu den 5 schnellsten Geforce GPUs (ohne Titan) gehört und von AMD immer noch nicht eingeholt werden konnte. Dabei ist das Teil schon 3,5 Jahre alt.
Du widersprichst dir z.T. die 3080 soll nicht deutlich schneller sein, als die 2080 ti, dann aber soll die 3070 an der 2080 ti vorbeiziehen, bezüglich RT und Tensor Leistung. Hier liegt insgesamt bei vielen Vergleichen etwas im Argen. Vergleiche, die RT und Tensorleistung nicht erfassen, sind für mich belanglos.
Mein Blickwinkel entspricht nicht dem der meisten Gamer. Zum einen halte ich die 3090 ti für den Nachfolger der Titan, zum anderen interessiert mich primär die RT und Tensorcore Leistung, weil viele Anwendungen außerhalb der Gaming-Branche davon besonders profitieren. Durch DLSS 2.0 aber auch langsam Spiele. Was die 2060 mit DLSS 2.0 auf die Beine stellt, bestätigt da meine Sichtweise. Schon bei Erscheinen der 2060 war meine Position, das bei neuen Technologien größere Leistungsreserven schlummern, die erst durch eine weitere Evolution der Software gehoben werden können und das die 2060 auch für RT geeignet ist, sobald diese Optimierungen weiter vorangeschritten sind. Ein DLSS 3.0 könnte hier mehr bringen, als 50% mehr Cudacores. Konsumenten im Gaming-Bereich sehen das weniger deutlich, weil hier über lange Jahre nur das Motto galt: Mehr Auflösung, mehr Shader, mehr FPS, mehr Takt, um jetzt in der Sackgasse zu stecken. 140 Hz auf 4k Monitoren, mit Biased-GameEngines, realisiert nur über Shader, da landet man mit der GPU halt im HPC-Bereich und muss Preise zahlen, die für Grafik-Workstations gelten. Der Markt ist da gnadenlos.
Das vergangene Produktaktualisierungen hier von derartiger Bedeutung sind, glaube ich nicht. Niedrige Abverkauf-preise resultieren aus falscher Lagerhaltung. nVidia hat die Produktion von Turing rechtzeitig gedrosselt, sehe da keine Probleme.

Den Rest erledigt ohnehin der Markt. nVidia setzt die Preise, der Markt akzeptiert das oder eben nicht, dann werden die Preise angepasst oder nicht usw. Es ist irgendwie müßig, das lange zu diskutieren. Ich habe ein Budget und kaufe mir dafür die jeweils gerade am Markt erhältliche Karte mit dem aus meiner Sicht besten P/L. Ob das nun Einsteiger, Mittelklasse, Enthusiasten oder sonstwas ist und völlig egal, wie früher Modellreihen bezeichnet oder bepreist wurden.
 
Ich trau dem Konstrukt noch nicht so ganz, mal gespannt ob da wieder Karten sterben in der ANfangsphase.
 
Ich würde eher sagen, das man aktuell, performancetechnisch in nem Tief steckt.
Solche Steigerungen wie zur 1080Ti, wird man lange nicht mehr sehen.
Deshalb wird DLSS gepusht!
DLSS ist eine Synergie aus der KI-Entwicklung. Die muss man nicht puschen, die befindet sich schon seit einigen Jahren im weltweiten Siegeszug. Ein Blick auf den GA100 sagt mehr als tausend Worte.
 
Du widersprichst dir z.T. die 3080 soll nicht deutlich schneller sein, als die 2080 ti, dann aber soll die 3070 an der 2080 ti vorbeiziehen, bezüglich RT und Tensor Leistung.
Deswegen hatte ich "im Schnitt" geschrieben und damit meinte ich im Durchschnitt der getesteten Spiele, die sind meistens ohne Raytracing. Bei der reinen Raytracingleistung glaube ich, dass die RTX 3000 Serie deutlich mehr Leistung bietet. Ich sehe darin keinen Widerspruch.

Mein Blickwinkel entspricht nicht dem der meisten Gamer.
Ist ja auch ok. Die meisten meiner Spiele können kein RT oder DLSS, deswegen interessiert mich die höchste Rasterization-Leistung. Abseits vom Zocken mache ich auch nichts anderes mit der Grafikkarte (vllt. irgendwann mal Videobearbeitung), daher sind auch KI oder HPC-Features für mich - abseits des reinen Technikinteresses - eher uninteressant. DLSS fand ich beim Start von Turing ein sehr interessantes Feature und mit DLSS 2.0 war auch die Qualität großartig, nur sind die Games, die es benutzen, leider spärlich gesäht.

Ich habe ein Budget und kaufe mir dafür die jeweils gerade am Markt erhältliche Karte mit dem aus meiner Sicht besten P/L.
Sicher. Nur gab es vor ein paar Jahren für das Budget noch die Spitzenklasse (980ti $649, 1080ti $699), jetzt reicht die Kohle wahrscheinlich nur noch für die Mittelklasse (RTX 3070) und das liegt nicht an der Inflation.
 
Das Vergleichen von Karten vor und nach der Raytracingimplementierung ist so ne Sache. Miener Meinung nach ist das falsch. Wenn, dann sollte man GTX mit GTX vergleichen. Da es aber keine schnellere als die GTX 1660 Ti gibt endet dort auch die Möglichkeit, alte mit neuen Karten zu vergleichen.
In dem Fall ist die 1660 ti von der Leistung her mit einer GTX 1070 zu vergleichen, wie hier getestet.
Der Preis für die schnellste 1660 ti im Feld, die MSI Gaming X, lag beim Marktstart bei 319 Euro. Die 1070 Gaming X kostete zu Beginn 499.-.
 
Deswegen hatte ich "im Schnitt" geschrieben und damit meinte ich im Durchschnitt der getesteten Spiele, die sind meistens ohne Raytracing. Bei der reinen Raytracingleistung glaube ich, dass die RTX 3000 Serie deutlich mehr Leistung bietet. Ich sehe darin keinen Widerspruch.
Es gibt nur noch eingeschränkte Möglichkeiten repräsentativer Leistungsvergleiche, wenn RT und Tensor für die Leistung der GPU bedeutsam sind.
Mit dem Erscheinen von Ampere wird man die Tests in Gruppen aufteilen müssen:
Games mit RT/DLSS und Games ohne RT/DLSS. Dann ließe sich wieder vergleichen und sich entsprechend den eigenen Bedürfnissen für eine Karte entscheiden.

Ist ja auch ok. Die meisten meiner Spiele können kein RT oder DLSS, deswegen interessiert mich die höchste Rasterization-Leistung. Abseits vom Zocken mache ich auch nichts anderes mit der Grafikkarte (vllt. irgendwann mal Videobearbeitung), daher sind auch KI oder HPC-Features für mich - abseits des reinen Technikinteresses - eher uninteressant. DLSS fand ich beim Start von Turing ein sehr interessantes Feature und mit DLSS 2.0 war auch die Qualität großartig, nur sind die Games, die es benutzen, leider spärlich gesäht.
Ist auch völlig ok. Dir wie mir kämen hier getrennte Tests entgegen. Und du hast recht, das es noch zu wenig Games gibt, die das nutzen.

Sicher. Nur gab es vor ein paar Jahren für das Budget noch die Spitzenklasse (980ti $649, 1080ti $699), jetzt reicht die Kohle wahrscheinlich nur noch für die Mittelklasse (RTX 3070) und das liegt nicht an der Inflation.
Das liegt an höheren Anforderungen der Gamer, 4k ist das Problem. Da braucht man dann so viele Shader, das die Chips sehr teuer werden. Oder man versucht es mit neuen Technologien. Mit reiner Rasterisierung/klassische Shader, das kann ich dir jetzt schon sagen, wird das nichts mehr mit preiswerten GPUs auf 4k/120 Hz.

Wenn, dann sollte man GTX mit GTX vergleichen. Da es aber keine schnellere als die GTX 1660 Ti gibt endet dort auch die Möglichkeit, alte mit neuen Karten zu vergleichen.[...]
Jepp, sehe ich genau so.
 
Zuletzt bearbeitet :
Mit dem Erscheinen von Ampere wird man die Tests in Gruppen aufteilen müssen:
Games mit RT/DLSS und Games ohne RT/DLSS.
Das werden die einschlägigen Testseiten (hallo @Igor Wallossek ;) ) sicherlich tun, bei Release der RTX 2000 Karten ging das ja noch nicht.

Das liegt an höheren Anforderungen der Gamer, 4k ist das Problem.
Ja, 4K/UHD ist das Problem, das scheint mit konventionellen Methoden nicht lösbar zu sein und beim nächsten Sprung auf 8K wird es noch viel anspruchsvoller.

Mit reiner Rasterisierung/klassische Shader, das kann ich dir jetzt schon sagen, wird das nichts mehr mit preiswerten GPUs auf 4k/120 Hz.
Ich denke mal, dass da mit Einführung des MCM-Designs wieder frischer Wind reinkommt.

Jepp, sehe ich genau so.
Ich nicht, weil die RTX-Karten ja auch Rasterization können müssen und gerade die Flaggschiffe müssen das richtig gut können, weil eben viele Spiele noch ohne RT/DLSS daherkommen, auch AAA-Titel wie RDR2 oder jetzt der neue Flugsimulator. Und Spiele wie Metro Exodus sehen nur mit Raytracing glaube ich auch ziemlich merkwürdig aus 😁
 
lol rechfertigungen für die preise ich kann net mehr 😂
 
Oben Unten