Was die Leaks zu NVIDIAs neue Karten taugen, was stimmt und warum kopite7kimi manchmal scheinbar „falsch“ liegt.

edit: an vorherigen Post angehängt
 
Bei Ada kann man das, weil die bei NV weiter sind und bereits Testkarten bei den Partnern werkeln, Da kann man schwerer den Deckel draufhalten. Und mein Plan stimmt ja recht genau.
 
Na, wenn ihr meint. Ob ihr wirklich richtig steht, seht ihr, wenn...
 
Ich weiß schon, dass es Leaks zu RDNA3 gibt, aber auf die kann man doch nichts geben. Da ist man sich ja noch nicht einmal beim Aufbau einig, sinds jetzt 2 Compute Dies und 1 Cache Die oder doch umgekehrt? Wenn selbst das nicht bekannt ist, kann man auf den Wahrheitsgehalt der restlichen Daten genau nichts geben

Bestes Beispiel, zwei ziemlich unterschiedliche Leaks:
1 Compute Die und 6 Cache/Speicheranbindungs Dies
 
Ich geh davon aus, dass dieser "Kopie7Kimi" eine art Marketing Account ist, den NVidia gezielt nutzt, um Hype zu generieren. Denn nichts wäre schlimmer, als eine neue GPU generation auf den Mark zu werfen ... und keiner weiß es ;).

Es sind also keine echten Leaks in dem eigendlichen Sinne sondern schlicht ... gezieltes Marketing.
Möglicher weise gepart mit Provokation/Panik bereiten/Desinformation in Richtung AMD & Intel.

Denn seit mal erlich. Bei den Preisen und dem Stromverbrauch würden die meisten (selbst hier) die komplette GPU Generation schlicht ignorieren ohne den ganzen Hype/Rummel durch unter anderem Kopie7Kimi.
 
Der Speicher ist Wurst, die 2GB Module nehmen nur ca. 15 Watt mehr auf Der Rest ist der Takt und der kleinere, aufgeblasene Chip. Die Zahlen stimmen laut meinen Quellen, weil die Karten dort schon laufen (und saufen)
Ja, dann wird bei der 4080 UV/Power Target Reduktion wohl zum Pflichtprogramm.

Aber wenn ich mir die 1080/2080 im Vergleich zum jeweiligen Top Modeell anschaue, dann war die 3080 tatsächlich die klare Ausnahme. Sonst war die 80er jeweils immer ein deutlich kleinerer Chip, der klar höher taktete.
In der 40er Generation scheint einfach das Verhältnis zwischen Performanceunterschied und Stromverbrauch bei der 4080 ziemlich traurig zu werden.
 
Das NV VRAM gerne "beschneidet", ist nun wahrlich nix Neues.
Aber für mich zum Verständnis:
- da ja DLSS/FSR2.0 in aller Munde ist, wirken sich da zu knapp bemessener VRAM, nach einiger Zeit, nicht negativ aus? > Caching der Texturen abschalten?
- Gerade die Nutzung von FSR und DLSS soll doch schwächeren GPUs zu höheren/spielbaren Auflösungen verhelfen. > zu wenig VRAM auch hier ein Problem?
Vllt. hab ich das ja iwi falsch verstanden???
Für "Nativ-Zocker" eine fortgeführte, unschöne Entwicklung
Gruß T.
 
Das NV VRAM gerne "beschneidet", ist nun wahrlich nix Neues.
Aber für mich zum Verständnis:
- da ja DLSS/FSR2.0 in aller Munde ist, wirken sich da zu knapp bemessener VRAM, nach einiger Zeit, nicht negativ aus? > Caching der Texturen abschalten?
- Gerade die Nutzung von FSR und DLSS soll doch schwächeren GPUs zu höheren/spielbaren Auflösungen verhelfen. > zu wenig VRAM auch hier ein Problem?
Vllt. hab ich das ja iwi falsch verstanden???
Für "Nativ-Zocker" eine fortgeführte, unschöne Entwicklung
Gruß T.
Da "Nativ"-Zocker bereits 16 GB VRam am Start haben, lässt sie das kalt :cool:
Genauso wie die ganzen Spekulationen vor irgendeinem Launch. Leistung ist bereits ausreichend vorhanden - von VR vielleicht mal abgesehen. Doch natürlich wird realtime path tracing (ein Must Have 🤡)auch die aktuelle Gen wieder ans Limit bringen (wir erinnern uns an die Demo mit 30FPS...).

Mit Blick auf die vorhandene Leistung, die Stromrechnung sowie die Tatsache, dass es momentan schlicht an Titeln fehlt, die ein Auf- oder Nachrüsten erforderlich machen (das bereitet mir deutlich größere Sorgen), sehe ich dem Theater entspannt entgegen.
 
Da "Nativ"-Zocker bereits 16 GB VRam am Start haben, lässt sie das kalt :cool:
Genauso wie die ganzen Spekulationen vor irgendeinem Launch. Leistung ist bereits ausreichend vorhanden - von VR vielleicht mal abgesehen. Doch natürlich wird realtime path tracing (ein Must Have 🤡)auch die aktuelle Gen wieder ans Limit bringen (wir erinnern uns an die Demo mit 30FPS...).

Mit Blick auf die vorhandene Leistung, die Stromrechnung sowie die Tatsache, dass es momentan schlicht an Titeln fehlt, die ein Auf- oder Nachrüsten erforderlich machen (das bereitet mir deutlich größere Sorgen), sehe ich dem Theater entspannt entgegen.
Bin ja sogar mit meiner Vega noch ein Nativ-Zocker :)
Aber ja, auf dem Spielemarkt siehts z.Z. etwas mau aus.
Gruß T.
 
Ich bin zwiegespalten was ADA angeht.

Einerseits:
Die Leistungsaufnahme ist sehr, sehr hoch.

Andererseits:
Für VR braucht man das leider. Zusammen mit der nächsten Generation, die hoffentlich einen Sweetspot wie die Varjo Aero (Varjo finnisch für Schatten) in eine Preisklasse deutlich unter 2000€ bringen wird könnte VR eine wahre Revolution auslösen (für Enthusiasten, klar).

Einerseits:
ADA wird sicherlich so teuer wie schnell. Nvidia hatte die letzten Jahre eine Umsatzrendite im Bereich von 30%. Mangelnde Gier kann man dem Unternehmen also nicht vorwerfen.

Anderereseits:
Die Demos der Unreal 5 Engine sehen unfassbar gut aus. Und ich bin zwar kein Kind mehr, aber meine Herren...die Trailer vom angekündigten Harry Potter Spiel sehen fantastisch aus und man darf ja auch als Erwachsener seine Kindheitsträume erfüllen.
Zur Not kann man der Frau ja erklären, dass man es für die Kinder kauft ;)

Ich rede mir schon die ganze Zeit ein, dass ich ja durch den Verzicht auf ein Auto und konsequentes nutzen von Bus, Bahn und Rad so viele Kilowattstunden Energie spare, dass da so eine 800W Karte gar nicht ins Gewicht fällt.
Ich muss daher wohl hoffen, dass die Kombination aus Preis und Verfügbarkeit mich vor mir selbst bewahrt.
 
Anderereseits:
Die Demos der Unreal 5 Engine sehen unfassbar gut aus. Und ich bin zwar kein Kind mehr, aber meine Herren...die Trailer vom angekündigten Harry Potter Spiel sehen fantastisch aus und man darf ja auch als Erwachsener seine Kindheitsträume erfüllen.
Zur Not kann man der Frau ja erklären, dass man es für die Kinder kauft ;)
Ja, die Unreal 5 Trailer sehen gut aus, aber ich denke, die sehen auch mit der aktuellen Highend-Hardware noch gut aus. In WQHD wahrscheinlich sogar outmaxed, in 4K mit sicherlich verschmerzbaren "Einbußen".
Ich kann mich allerdings mit der realen Darstellung (noch) nicht so richtig anfreunden. Mir ist der "Gaming"-Look vorerst ganz recht.
 
Leistung für was 1080p @ 60hz?
Selbst 1440p@144hz oder darüber wird schon eng, geschweige denn 4k@144hz.
Leistung kann man nie genug haben, selbst wenn die GPU sich etwas langweilt steigt die Effizienz.
Die Frage ist halt ob und wozu ich die 144Hz brauche. ich brauche die dank Sync nicht. Ich spiele aber auch keine kompetitiven Shooter. Wenn ich die aber spielen würde, dann sicherlich auch nicht mit allen Reglern auf Anschlag, der lieben Performance wegen.

Und bevor sich Widerspruch regt: Ich habe das für mich mit diversen Displays und Auflösungen (von FHD über WQHD bis UHD, mit FreeSync, V-Sync und nativem G-Sync, sowohl AMD - 5700XT & 6900XT - als auch Nvidia - 980 Ti & 2080S) getestet. Bei gesynchten 60 FPS mit niedrigen Frametimes liegt mein Sweetspot - ich nehme keinen Unterschied zu höheren FPS-Zahlen wahr.
 
... Bei gesynchten 60 FPS mit niedrigen Frametimes liegt mein Sweetspot - ich nehme keinen Unterschied zu höheren FPS-Zahlen wahr.
So geht es mir auch. Sync sei Dank und mit etwas Verstand an den Quality Reglern gedreht, läuft eine GTX1070 in QHD+ 1600p absolut top.

Ich finde es jedesmal amüsant, wenn in Foren (ganz oft bei Computerbase) behauptet wird, dass GPUs wie eine GTX1070, 1080 oder 5700XT heute absolut nicht mehr für AAA Titel reichen. "Da müsse es mindestens eine RTX3060 sein!!!!!einself" 😆
 
Was Nvidia beim VRAM macht ist ein riesen Witz und trotzdem langen alle kräftig zu.

1070 TI / 1080 8GB, 1080 TI 11 GB. 6 Jahre her.
Wo stehen wir heute bei 3070 / 3080? An exakt gleicher Stelle.
Wo wird Ada (unbestätigt) liegen? Dito!
Was kostet ein paar VRAM Chips mehr für die? Wenige Dutzend Dollar! Die Preise für die Karten? Das Doppelte!
Und dann noch 600W plus.
Pure Kundenveräpplung, Arroganz, Kapitalismus. Dieser Laden macht mich einfach nur wütend.
 
Aktuell ist für mich bein den Leaks nur etwas klar. Da kann einiges wahr sein, aber definitiv nicht alles.

Laut kimi's aktuellsten Zahlen hat eine 4090 60% mehr Cores und 50% mehr RAM als eine 4080, boostet auf 2.5 Ghz und verbraucht dabei lächerliche 30W (7%) mehr Strom.
Läuft die 4080 dann mit 3.5 GHz? o_O
Der Speicher ist Wurst, die 2GB Module nehmen nur ca. 15 Watt mehr auf Der Rest ist der Takt und der kleinere, aufgeblasene Chip. Die Zahlen stimmen laut meinen Quellen, weil die Karten dort schon laufen (und saufen)
D.h. … es ist zu erwarten, dass eine untervoltete 4090 am Ende der Effizienzkönig im High-End wird?
 
D.h. … es ist zu erwarten, dass eine untervoltete 4090 am Ende der Effizienzkönig im High-End wird?
Das wird man sehen, vor allem aber messen. ich würde in die Effizienzgleichung mit reinnehmen, mit wieviel Watt eine Karte flüssiges Spielen in FHD, WQHD, UHD erlaubt. Gerne auch mit einem Framecap 60/90/120 FPS und Fokus auf die Frametimes. Kann mir vorstellen, dass da auch ganz andere Karten vorne mitspielen.
 
Na, wenn ihr meint. Ob ihr wirklich richtig steht, seht ihr, wenn...
Sagen wirs mal so:
NVIDIA müsste nochmal alles kippen, wenn sich das ändern soll. So gut sind meine Verbindungen durchaus, um da verlässliche Zahlen zu besitzen. Aber ich gehe das diesmal etwas anders (ruhiger) an als bei Ampere. :)
 
Bin auch etwas zwiegespalten: einerseits hilft schneller/besser immer noch bei 4K. Andererseits reicht die 3090 für das was ich so spiele derzeitig total aus, so dass der Kauf-Druck trotz Leidenschaft gerade echt etwas raus ist. Außerdem steht noch eine ganz andere Anschaffung „nur für mich“
an und das UND ne Graka ist der Regierung gerade zu viel Solo-Spaß-Invest…
 
Oben Unten