Auch gut möglich, dass man am Ende der Leistungs-Fahnenstange angelangt ist, neben DLSS wäre ja auch der MCM-Ansatz ein Indiz dafür.Ich würde eher sagen, das man aktuell, performancetechnisch in nem Tief steckt.
DLSS 2.1Ich würde eher sagen, das man aktuell, performancetechnisch in nem Tief steckt.
Solche Steigerungen wie zur 1080Ti, wird man lange nicht mehr sehen.
Deshalb wird DLSS gepusht!
so ein quatsch die karte wurde im mai oder märz 2017 vorgestellt bestimmt 2016 gekuaft was isn mit dirFauxpas, ja in Europa, mei Cousin der in die USA ausgewandert is, hatte sie im Dezember 2016, bei Bestbuy gekauft.
Geil ein uraltes spiel das auf einem toaster läuft wird performanter gemacht.
Nochmal Preise:
Wird ja immer schlimmer und Asus schießt mal wieder den Vogel ab...
Edit: das sind Preise aus China, wo Grafikkarten wohl teurer sind als hierzulande.
Du widersprichst dir z.T. die 3080 soll nicht deutlich schneller sein, als die 2080 ti, dann aber soll die 3070 an der 2080 ti vorbeiziehen, bezüglich RT und Tensor Leistung. Hier liegt insgesamt bei vielen Vergleichen etwas im Argen. Vergleiche, die RT und Tensorleistung nicht erfassen, sind für mich belanglos.Ich erwarte nicht, dass die 3080 deutlich schneller und deutlich günstiger als die 2080ti wird, da scheint sich mir das Spiel mit der 1080ti und 2080 zu wiederholen: die 3080 wird im Schnitt etwas schneller und ein bisschen günstiger, hat dafür aber etwas weniger RAM und das bedeutet dann, dass die 2080ti nicht mehr sehr viel günstiger wird und dass sich ein Upgrade von der 2080ti einzig zur 3090 lohnt, die dann aber wieder sehr viel teurer wird. Dadurch erspart sich Nvidia extreme Abverkäufe mit sehr großen Rabatten. Spannend wird die Raytracing-Leistung, hier glaube ich schon, dass die Ampere-Karten deutlich schneller sein werden, da könnte auch die 3070 an der 2080ti vorbeiziehen.
Die "Fehler" der Pascal-Ära scheint Nvidia nicht wiederholen zu wollen, zB. dass die 1070 die 980ti überflügelt hat und dass die 1080ti so sehr überpowert war, dass sie immer noch zu den 5 schnellsten Geforce GPUs (ohne Titan) gehört und von AMD immer noch nicht eingeholt werden konnte. Dabei ist das Teil schon 3,5 Jahre alt.
DLSS ist eine Synergie aus der KI-Entwicklung. Die muss man nicht puschen, die befindet sich schon seit einigen Jahren im weltweiten Siegeszug. Ein Blick auf den GA100 sagt mehr als tausend Worte.Ich würde eher sagen, das man aktuell, performancetechnisch in nem Tief steckt.
Solche Steigerungen wie zur 1080Ti, wird man lange nicht mehr sehen.
Deshalb wird DLSS gepusht!
Deswegen hatte ich "im Schnitt" geschrieben und damit meinte ich im Durchschnitt der getesteten Spiele, die sind meistens ohne Raytracing. Bei der reinen Raytracingleistung glaube ich, dass die RTX 3000 Serie deutlich mehr Leistung bietet. Ich sehe darin keinen Widerspruch.Du widersprichst dir z.T. die 3080 soll nicht deutlich schneller sein, als die 2080 ti, dann aber soll die 3070 an der 2080 ti vorbeiziehen, bezüglich RT und Tensor Leistung.
Ist ja auch ok. Die meisten meiner Spiele können kein RT oder DLSS, deswegen interessiert mich die höchste Rasterization-Leistung. Abseits vom Zocken mache ich auch nichts anderes mit der Grafikkarte (vllt. irgendwann mal Videobearbeitung), daher sind auch KI oder HPC-Features für mich - abseits des reinen Technikinteresses - eher uninteressant. DLSS fand ich beim Start von Turing ein sehr interessantes Feature und mit DLSS 2.0 war auch die Qualität großartig, nur sind die Games, die es benutzen, leider spärlich gesäht.Mein Blickwinkel entspricht nicht dem der meisten Gamer.
Sicher. Nur gab es vor ein paar Jahren für das Budget noch die Spitzenklasse (980ti $649, 1080ti $699), jetzt reicht die Kohle wahrscheinlich nur noch für die Mittelklasse (RTX 3070) und das liegt nicht an der Inflation.Ich habe ein Budget und kaufe mir dafür die jeweils gerade am Markt erhältliche Karte mit dem aus meiner Sicht besten P/L.
Es gibt nur noch eingeschränkte Möglichkeiten repräsentativer Leistungsvergleiche, wenn RT und Tensor für die Leistung der GPU bedeutsam sind.Deswegen hatte ich "im Schnitt" geschrieben und damit meinte ich im Durchschnitt der getesteten Spiele, die sind meistens ohne Raytracing. Bei der reinen Raytracingleistung glaube ich, dass die RTX 3000 Serie deutlich mehr Leistung bietet. Ich sehe darin keinen Widerspruch.
Ist auch völlig ok. Dir wie mir kämen hier getrennte Tests entgegen. Und du hast recht, das es noch zu wenig Games gibt, die das nutzen.Ist ja auch ok. Die meisten meiner Spiele können kein RT oder DLSS, deswegen interessiert mich die höchste Rasterization-Leistung. Abseits vom Zocken mache ich auch nichts anderes mit der Grafikkarte (vllt. irgendwann mal Videobearbeitung), daher sind auch KI oder HPC-Features für mich - abseits des reinen Technikinteresses - eher uninteressant. DLSS fand ich beim Start von Turing ein sehr interessantes Feature und mit DLSS 2.0 war auch die Qualität großartig, nur sind die Games, die es benutzen, leider spärlich gesäht.
Das liegt an höheren Anforderungen der Gamer, 4k ist das Problem. Da braucht man dann so viele Shader, das die Chips sehr teuer werden. Oder man versucht es mit neuen Technologien. Mit reiner Rasterisierung/klassische Shader, das kann ich dir jetzt schon sagen, wird das nichts mehr mit preiswerten GPUs auf 4k/120 Hz.Sicher. Nur gab es vor ein paar Jahren für das Budget noch die Spitzenklasse (980ti $649, 1080ti $699), jetzt reicht die Kohle wahrscheinlich nur noch für die Mittelklasse (RTX 3070) und das liegt nicht an der Inflation.
Jepp, sehe ich genau so.Wenn, dann sollte man GTX mit GTX vergleichen. Da es aber keine schnellere als die GTX 1660 Ti gibt endet dort auch die Möglichkeit, alte mit neuen Karten zu vergleichen.[...]
Das werden die einschlägigen Testseiten (hallo @Igor Wallossek ) sicherlich tun, bei Release der RTX 2000 Karten ging das ja noch nicht.Mit dem Erscheinen von Ampere wird man die Tests in Gruppen aufteilen müssen:
Games mit RT/DLSS und Games ohne RT/DLSS.
Ja, 4K/UHD ist das Problem, das scheint mit konventionellen Methoden nicht lösbar zu sein und beim nächsten Sprung auf 8K wird es noch viel anspruchsvoller.Das liegt an höheren Anforderungen der Gamer, 4k ist das Problem.
Ich denke mal, dass da mit Einführung des MCM-Designs wieder frischer Wind reinkommt.Mit reiner Rasterisierung/klassische Shader, das kann ich dir jetzt schon sagen, wird das nichts mehr mit preiswerten GPUs auf 4k/120 Hz.
Ich nicht, weil die RTX-Karten ja auch Rasterization können müssen und gerade die Flaggschiffe müssen das richtig gut können, weil eben viele Spiele noch ohne RT/DLSS daherkommen, auch AAA-Titel wie RDR2 oder jetzt der neue Flugsimulator. Und Spiele wie Metro Exodus sehen nur mit Raytracing glaube ich auch ziemlich merkwürdig ausJepp, sehe ich genau so.