Frage Preisfrage/Diskussion bezüglich der RTX4070

D

Duality

Guest
Seit die 4070 releast wurde wird überall gesagt(gejammert) das eine 70 Karte die 80 der Vorgeneration immer geschlagen hat und ungefähr 80TI Leistung brachte.

Was dabei aber nicht beachtet wird ist das eine 3080 auch keinen Ga104 Chip benutzt wie die meisten 80 Karten vorher. Sondern den GA102 Chip den sich alle Gpus ab 3080-3090TI teilen.

So wer liegt nun richtig oder male ich mir etwas schöner als es ist? Da ich doch mit der 4070 liebäugle und das auch in der Menschlichen Natur liegt.

Den laut dem passt das verhältnis es ist wie vorher. Ja in 4k federt sie wegen den 192 Bus aber wegen den paar %. In Full HD dann teilweise auf 3090 oder gar TI Niveau je nach spiel. Also von was reden wir hier. Ich brauche da jetzt Meinungen.
 
Meinungen sind wie Arschlöcher. Versuch mal Fakten.
Nenn doch mal die von dir verwendete Auflösung, ob du da ne Änderung planst und welche Karte zur Zeit von dir verwendet wird.
 
Ist doch einfach, 6900XT/6950XT wenn ich sehe das der 12GB VRam jetzt schon sehr knapp wird würd ich da kein Risiko eingehen.
 
Meinungen sind wie Arschlöcher. Versuch mal Fakten.
Nenn doch mal die von dir verwendete Auflösung, ob du da ne Änderung planst und welche Karte zur Zeit von dir verwendet wird.
Das hat nichts mit Meinungen zu tun sonder der Aussage das die 4070 so schlecht ist weil sie die 80 Karte der Vorgen nicht schlagen kann und immer mit der 80TI Version konkurriert hat. Jedoch hatten die 80 Karten der Vorgen auch keinen 102 Chip.
 
Lies deinen letzten Startpostsatz nochmal durch. Fertig? Gut. Ich habe dir zweieinhalb Fragen gestellt, meinetwegen zur Meinungsbildung. Sei so nett...
 
Ja meinungen geenüber das was ich geschrieben habe nicht das ein missvertsändnis vorliegt. Das soll keine Kaufberatung sein. Ich weiß was eine Karte kann wie wo und wann.

4k natürlich. Gar nichts kompletter Neubau. Mit Gpu Kauf warte ich bis Sommer. Der Rest steht schon bis auf das Mainboard.;)
 
So ein Quatsch...
 
Wow so kann man eine Diskussion führen. Was ein Argument davor kann ich mich gar nicht retten.
 
Du willst keine Argumente, du willst Meinungen. Und meiner Meinung nach ist das Quatsch.
 
1.) Die RTX4070 ist erstmal keine schlechte Karte
2.) Jahrelang wurde die reine Rasterleistung verglichen von Generation zu Generation, seit der RTX20** Serie musste auf dem Silizium aber noch Platz für Raytracing geschaffen werden.
3.) Machen wir einen schnellen Vergleich der **70iger Karten:

In Klammern % zum VorgängerRTX2070RTX3070RTX4070
Cuda-Cores23045888(+155%)5888(+0%)
Basis-Takt in Ghz1,411,50(+7%)1,92(+28%)
Cores x Ghz3.248,648.832(+172%)11.304,96(+28%)
TMU144184(+28%)184(+0%)
ROPS649664(-33%)

Sehen wir das auf dem Papier erstmal der Sprung von Generation zu Generation auf einmal recht mager ausschaut. In Game-Benchmarks sieht man meistens auch das der Unterschied zwischen 2070 vs 3070 höher ausfällt als zwischen 3070 vs 4070.

Von weit weg betrachtet, hat Nvidia Quasi erstmal das Vorgänger Modell genommen und ist von Samsung 8 nm auf TSMC 5 nm gewechselt und hat als Benefit damit den Takt erhöhen können.

Hier muss man keine Vergleiche zur RTX3080/RTX3080TI ziehen um zu verstehen warum viele jetzt eher enttäuscht sind, oder wie ich es ausdrücken würde "ernüchtert".

Das berücksichtigt zwar weder Sachen wie Raytracing, Tensor-Cores, VRAM, Bus-Speed, verbesserte Video-Encoder/Decoder noch die deutliche Preismarke, aber veranschaulicht gut was von vielen eher erwartet wurde.
Auf der anderen Seite muss man aber verstehen, das der Platz auf so einem kleinem Silizium-Scheibchen begrenzt ist. Wenn man da neue Technik mit unterbringen will, fehlt dann welcher für die klassischen Cores. Wenn Nvidia da zukünftig nicht auf ein Multi-Chiplet Design umsteigt oder es die Bahnbrechenden Sprünge in der Fertigungs-Industrie gibt, wird hier jetzt einfach ein slowdown bei den Zuwächsen von Generation zu Generation einsetzen. Ähnlich wie im CPU Markt.
 
War das nict klar wenn die TI Version schon da ist. Im boswst sind es halt über 40% mehr Takt.

Dqs die 3070 so viele cuda Kerne draufgelegt hat ist doch nur weil Ampere da halt spezieller ist als Turing und in Games wird das selten genutzt, sonst hätten die 30Tf radeons keine chance.....Ist halt nicht alles so einfach ^^

Bus bit hätte nicht sein müssen auf 192....aber gut hilft eh nicht
 
gerade in einem anderen Forum gelsen bringt es auf den Punkt das ist es was ich gemeint hätte nur viel besser formuliert^^:



Meine Meinung: Ich weiß nicht den Preis pro Wafer. Aber Nvidia hat schon den DIE der 4070 25% kleiner gemacht um ihn billiger zu machen. Von daher finde ICH es soweit nicht ganz verständlich, warum Nvidia den Preis zusätzlich angehoben hat. ABER Nvidia's Plan war ganz klar die Preise für ALLE Karten um 100$ anzuziehen.

Viele sagen ja auch, das sie eigentlich hätte 10-15% schneller sein sollen als eine 3080, damit sie wie auch die Vorgenerationen schneller ist als die letzte 80er.
Das man das denkt ist legitim, aber es steht auch nirgends fest das es auch sein MUSS.
Die 3080 hatte z.b. im Gegensatz auch einen GA102 DIE und nicht einen 104 DIE. Man könnte also behaupten die eigentliche 3080 ist die 3070Ti mit dem Vollausbau vom GA104 gewesen.
Und da die 4070 ca 23% schneller ist als die 3070Ti, würde das passen...
Die 3080 kam der 3070Ti zuvor als "Resteverwertung", weil Samsung eine schlechte Ausbeute hatte.

Und JA das hat sich bei den RTX4000 wiederholt. Die 4070Ti IST faktisch eine 4080...im Grunde war sie es ja auch, nämlich die 4080 12GB. Aber dann haben viele rumgemotzt und es wurde geändert.
Mit 799$ ist die 4070Ti bzw 4080 12GB AUCH 100$ teurer als die 3080 zum Release... seltsame Zufälle gibt es...
4090 ist 100$ teurer und die 4070 ist 100$ teurer...hmm.

Desweiteren hätte man die 4080 12GB nicht verschoben, hätte es womöglich einfach keine 4070Ti gegeben. Von daher kann keiner behaupten, die 4070 wäre dann die 4070Ti gewesen. Und eine angebliche 4060 erst recht nicht...duh...

AD103 oder 4080 16GB ist der Ausreißer in dem ganzen. Warum hat Nvidia das gemacht... Weil sie wussten wie stark AMD wird, um dann eine Karte auf dem selben Niveau zu haben? Keine Ahnung....
Kann gut sein das AD103 nur für Laptops gedacht war als 4090 "Mobile", er aber umfunktioniert worden ist.
Zudem, warum hat Nvidia die nicht einfach 4080Ti genannt?
Nun die 4080Ti ist von Jensen schon vorgemerkt für ein AD102 DIE der stärker beschnitten ist. Womöglich als AMD Konter in der Rückhand gehalten.
Preislich liegt die 4080 16GB jedenfalls auf derselben Stelle wie eine 2080Ti oder 3080Ti von 1199$, allerdings ohne den 100$ Zuschlag...der wird sicherlich mit der 4080Ti kommen.

Desweiteren will ich eine Prognose machen:
4080Ti mit AD102 und etwa ~12000 Cuda mit 20GB VRAM = 1299$
4060Ti mit AD106 und 8GB VRAM = 399$
4060 mit AD106 und 8GB VRAM = 299$

Warum 4060Ti und 4060 nicht 100$ teurer? Weil der Chip SOOO klein ist, das sie die 100$ bei der Produktion einsparen. Der DIE ist ja nur 190mm². Selbst die 3050 ist 50% größer.
Und den VRAM kann Nvidia nicht vergrößern. Der Memorybus lässt ja nur 4 Chips mit je 32bit zu.
Soweit ich weiß gibt es keine 4GB Chips, nur 1 und 2GB.
Man könnte die Stacken wie bei der 3090, aber das wird man bestimmt nicht für eine 399-499$ Karte machen.


Um auf die 4070 zurückzukommen. Warum sie heute trotz des Preises gut ist:
Im Vergleich zur 3080, welche lange Zeit ~800€ gekostet hat, ist sie ~100€ billiger, hat 2GB VRAM mehr und verbraucht ~40% weniger.
Im Vergleich zur "echten 3080", also der 3070Ti, ist sie 23% schneller, gleich teuer, hat 4GB VRAM mehr und verbraucht ~30% weniger.
Man bekommt also mehr für weniger, also das was man für next Gen erwartet... nur halt nicht SOVIEL mehr.
Und es gibt DLSS3, aber das sehe ich nur als Bonus und nicht als Feature das ich bezahlen würde. Weil es einfach noch ZU selten genutzt wird.

P.S. Wenn Nvidia so weiter macht, sollte es eigentlich leicht für AMD sein aufzuschließen im mittleren Segment.
Aber warum bringen sie dann nicht die 7800XT oder 7700XT JETZT raus und wischen mit Nvidia den Boden?
Angst davor den eigenen Karten Konkurrenz zu machen, nachdem sie so stark rabattiert wurden?
Vielleicht so wie einige behaupten, Probleme mit dem DIE selbst? Brauchen sie Zeit zum redesignen?
 
"25% kleiner gemacht um ihn billiger zu machen" wo haste das den her?
Schon mal daran gedacht, das ein Konvertieren einer so komplexen Schaltung von z.b.: Samsung Node 8nm auf TSMC 5nm, extrem aufwendig ist? Das mit kleinerem Node die Gefahr von Ausschuss Größer wird, und mit größeren DIE-Fläche ebenfalls. Hat schon seine Gründe warum die nicht einfach nur die DIE größer machen. Für ne A100 mit Monströsen 826mm² (TSMC 7nm) DIE zahlst halt auch mal 5-Stellig, da rechnet sich das anders wenn da die YIELD-Rate nicht so gut ausfällt. Und die wird nicht um sonst in "defects per square centimeter" gemessen, und nicht in "defects per chip".

"ABER Nvidia's Plan war ganz klar die Preise für ALLE Karten um 100$ anzuziehen." Fakten, Belege?
Nimms mir net übel, aber der Rest des Textest liest sich bissel wie mit Alu-Hut geschrieben.

Und das AMD/ATI ganz groß jetzt Aufholen wird, wenn das böse (Sarkasmus) Team Green weiter macht was es will, höre ich schon seit über 10 Jahren. Aber irgendwie dümpeln die auch seit 10 Jahren bei ~20% Marktanteil rum, seit 2017 eher Rückläufig.

Weder Intel, AMD noch Nvidia sind Gemeinnützige Vereine oder VEB's (Anm. Volks-Eigene-Betriebe). Als Gewinn-Orientierte Unternehmen sind diese in erster Linie erstmal eins: Gewinn-Orientiert. Welchen logischen, sinnvollen Grund sollten die haben, weniger zu verlangen als sie können?

Oder erklär mir bitte deine Argumentation anhand folgenden Bildes aus Sicht Nvidia's:
1681923501031.png
 
Eventuell ist der Aktienkurs der letzten 3 Jahre auch für den Laien verständlicher:

1681932301617.png1681932256119.png

Oder um es in einfacher Sprache auszudrücken:
Leder-Jacke: läuft
Lisa: läuft ein bissel
:ROFLMAO:
 
Dann können die verkäufe ja nicht so schlecht sein oder die realität das nvidia mit gaming nicht mehr soviel braucht wie früher.
 
Wie oben geschrieben und markiert: Nvidia kann sich die Preise im Gamingmarkt erlauben. Ob man das nun als deutscher Konsument gut findet oder nicht, mitmacht oder nicht. Nach Zahlen sind die auch nicht von AMD getrieben. Wenn NVIDIA sich jetzt ein gutes Polster aufbaut, könnten die eher noch zurück schießen, wenn die der Meinung sind das sich das wirtschaftlich für sie rentiert.
 
Wenn ich mir die 4070 amsehe ist das fast ein schnäppchen für das was die letzten paar jahre abging.^^ Ich weiß das es das nicht ist aber ja....könnte viel schlimmer sein.....und ob AI mining kack wieder angeht(wsnl panikmache von nvidia ^^) steht auch im Raum. Dann werden wir träumen von den preisen derzeit. Es ist halt witzig das man seinen Kauf timen muss. Da man sonst nicht weiß ob es extrem teuer wird oder nicht. Früher gabs nur einen weg nach unten.
 
Oben Unten