Was die Leaks zu NVIDIAs neue Karten taugen, was stimmt und warum kopite7kimi manchmal scheinbar „falsch“ liegt.

D.h. … es ist zu erwarten, dass eine untervoltete 4090 am Ende der Effizienzkönig im High-End wird?
Das Potential dazu ist sicher da.
Ein Riesenchip, der nicht so hoch takten muss, kann durchaus seine Vorteile haben, was die Effizienz angeht. Sieht man ja auch bei Apple.

Ob man über die Energieeffizienz den Kaufpreis wieder reinholt, ist die andere Frage.
 
Ich geh davon aus, dass dieser "Kopie7Kimi" eine art Marketing Account ist, den NVidia gezielt nutzt, um Hype zu generieren. Denn nichts wäre schlimmer, als eine neue GPU generation auf den Mark zu werfen ... und keiner weiß es ;).

Es sind also keine echten Leaks in dem eigendlichen Sinne sondern schlicht ... gezieltes Marketing.
Möglicher weise gepart mit Provokation/Panik bereiten/Desinformation in Richtung AMD & Intel.

Denn seit mal erlich. Bei den Preisen und dem Stromverbrauch würden die meisten (selbst hier) die komplette GPU Generation schlicht ignorieren ohne den ganzen Hype/Rummel durch unter anderem Kopie7Kimi.
Also ich glaube eher, dass sich Nvidia über die Leaks grün und blau ärgert. Hype generieren kann man selbst 2-3 Wochen vor Launch immer noch aber im Moment sitzen die noch auf einem Berg Ampere Karten, die sie gerne noch zu völlig überteuerten Preisen verkaufen würden nur nimmt sie keiner mehr nachdem überall durch die News geht dass die neuen Karten bald kommen 2 mal so schnell sind.
An Nvidias Stelle würde ich eher eine Menge Fake Leaks verbreiten, dass Ada nochmal auf Samsung 8nm setzt und nochmal um 1 Stufe teurer wird so wie damals Turing, damit noch alle wie blöd den alten Ramsch kaufen.
Was Nvidia beim VRAM macht ist ein riesen Witz und trotzdem langen alle kräftig zu.

1070 TI / 1080 8GB, 1080 TI 11 GB. 6 Jahre her.
Wo stehen wir heute bei 3070 / 3080? An exakt gleicher Stelle.
Wo wird Ada (unbestätigt) liegen? Dito!
Was kostet ein paar VRAM Chips mehr für die? Wenige Dutzend Dollar! Die Preise für die Karten? Das Doppelte!
Und dann noch 600W plus.
Pure Kundenveräpplung, Arroganz, Kapitalismus. Dieser Laden macht mich einfach nur wütend.
GDDR6 kostet aktuell am Markt um die 7-8$/GB. Zu Spitzenzeiten waren wir da schon auf 15$. GDDR6X wird in etwa genauso viel kosten.
GDDR5 war wenn ich mich richtig erinnern kann zu GTX 1000 Zeiten irgendwo bei 5$. Dass 6 Jahre vergangen sind ist schön und gut aber wenn die Speicherpreise nicht fallen nützt das nicht viel. Generell geht der Trend zu nicht mehr wachsenden Speichermengen und besserem VRAM Management der Spiele bzw. schnellerem Nachladen von der SSD z.B. mit DirectStorage.
Umgekehrt die Kosten/Transistor sind bei N4 vs. 16nm gerade einmal bei einem Drittel. Deshalb gibt es schnellere Shader aber nicht mehr VRAM.

Als konkretes Beispiel:
Ein 5nm Wafer bei TSMC kostet (errechnet an deren Umsatzzahlen bzw. monatlicher Produktion) um die 10K. Mit ein paar defekten Chips und Verschnitt sind das um die 20 Cent/mm² bzw. 1 Euro/SM.
Jetzt stell dir vor es gibt 2 GPUs zur Auswahl:
.) AD106 mit 36SMs und 14GB VRAM
.) AD104 mit 60SMs und 10GB VRAM

Beide kosten dasselbe nur dass AD104 den AD106 in allen Reviews um ca. 40-50% zersägt.
Welche der 2 GPUs wird sich wohl besser verkaufen?

Man könnte da noch genug Beispiele bringen:
.) Eine 3070 16GB zum Preis einer 3080 12GB
.) Eine 3060 12GB zum Preis einer 3070 8GB

Das Problem am VRAM ist: Dieser ist dem durchschnittlichen Käufer nur dann wichtig wenn es ihn gratis oben drauf gibt. Bezahlen will den in der Regel niemand.
 
Entscheidend sind aber auch die Entwicklungskosten und nicht nur die reinen Materialkosten für den Chip. Dazu kommen Kosten wie Maskensätze, die der Kunde zahlt und nicht TSMC.

Ich glaube auch nicht, dass sich Nvidia über die Berichterstattung ärgert, da jedwede Berichte den Bekanntheitsgrad steigern und positive, wie im aktuellen Fall, den Hype. Wenn man das stärker unterbinden wollte, wäre es für Nvidia sicherlich möglich, die Leakquelle zu lokalisieren.
 
Zuletzt bearbeitet :
Ich glaube auch nicht, dass sich sich Nvidia über die Berichterstattung ärgert, da jedwede Berichte den Bekanntheitsgrad steigern und positive, wie im aktuellen Fall, den Hype. Wenn man das stärker unterbinden wollte, wäre es für Nvidia sicherlich möglich, die Leakquelle zu lokalisieren.
Ich bin zwar auch kein Hellseher, aber wenn ich Jensen wäre, wäre mir am Liebsten, wenn die Leute fleissig weiter Ampere kaufen.
Von Leuten, die wegen der Leaks schon seit Monaten abwarten und sehen wollen, was die kommende Generation wirklich bringt, kann ich mir keine einzige Jacke kaufen.
 
Das Potential dazu ist sicher da.
Ein Riesenchip, der nicht so hoch takten muss, kann durchaus seine Vorteile haben, was die Effizienz angeht. Sieht man ja auch bei Apple.

Ob man über die Energieeffizienz den Kaufpreis wieder reinholt, ist die andere Frage.
Vermutlich nicht. Ist dann beim Stromverbrauch eher so‘n Prinzipiending.
An sich sollte man dann eine niedriger getaktete 4090 auch sehr gut kühlen können. Auch hier siehe Apple.
Aber es wird wohl eher das Gegenteil passieren und sie wird mit Luftkühlung 3 Slots zuballern + notwendige Lücke.

Würde mir so sehr wünschen, dass jemand eine smarte, schmale, stromsparende 4090 rausbringt.
Aber die käme vermutlich nie durch Nvidias Greenlight-Prozess, den Igor kürzlich in einem Video erklärt hat.
 
Lacht in 1080P .. gut dann Spar ich mir die Kohle und fahr meine 1070 weiter bis sie halt irgendwann den Geist aufgibt.
In den meisten Indie Titeln fällt die Grafik eh nicht so heftig aus und spielt keine große Rolle für die Immersion, Point's at the Long DARK, ja dich mein ich.
 
Würde mir so sehr wünschen, dass jemand eine smarte, schmale, stromsparende 4090 rausbringt.
Die Dinger werden gebaut, um Spitzenleistung zu bringen und nicht um Strom zu sparen. Achtung, Autovergleich: man kauft sich ja auch keinen Rennwagen, um den dann auf der Rennstrecke niedrigtourig spritsparend zu fahren. Geht zwar, führt aber den Sinn und Zweck eines solchen Gerätes ad absurdum.
 
Würde mir so sehr wünschen, dass jemand eine smarte, schmale, stromsparende 4090 rausbringt.
Aber die käme vermutlich nie durch Nvidias Greenlight-Prozess, den Igor kürzlich in einem Video erklärt hat.
Wer hindert dich daran diese mit 150Watt zu betreiben?!
 
Die Dinger werden gebaut, um Spitzenleistung zu bringen und nicht um Strom zu sparen. Achtung, Autovergleich: man kauft sich ja auch keinen Rennwagen, um den dann auf der Rennstrecke niedrigtourig spritsparend zu fahren. Geht zwar, führt aber den Sinn und Zweck eines solchen Gerätes ad absurdum.
Da mag jemand gerne Rennautos.
Wenn‘s schon Autovergleiche sein müssen, dann lass ich gleich Igor antworten… bei 12:09:
Wer hindert dich daran diese mit 150Watt zu betreiben?!
Zum einen hätte ich auch gerne einen schlankeren Kühler.
Zum anderen kann man die wohl kaum nach Belieben runterdrücken. Irgendwann werden die auch instabil bzw. man muss glaub ziemlich rumtüfteln, wie Igor hier anriss, als er mit der 3090 TI auf 300 Watt runterging. Und er hatte da schon die VF-Kurve seiner A6000 nachgebaut.
(Die er ja zum Spielen nutzt, weil effizienter).

Der Ankündigungsartikel von Heise hier zeigt übrigens auch, was geht, wenn Nvidia auf Effizienz kuckt und nicht auf maximale FPS für Gam0r:
https://www.heise.de/news/RTX-3090-...Nvidia-Beschleuniger-fuer-Server-6012026.html
RTX 3090 (GA102): 350 Watt TDP liefern 36 TFLOPS
A10 (GA102): 150 Watt (-57%) liefern 31,2 TFLOPS (-13%)
 
Zuletzt bearbeitet :
Zum einen hätte ich auch gerne einen schlankeren Kühler.
Zum anderen kann man die wohl kaum nach Belieben runterdrücken. Irgendwann werden die auch instabil bzw. man muss glaub ziemlich rumtüfteln, wie Igor hier
Gut nVidia,hab ich nicht,da zu schlecht......
Große Kühler sind doch immer gut,kühler und vor allen dingen leiser.....
Ich hab bei meiner RX6900XT letztens noch ein Profil erstellt mit einem Max Takt von rund 1,9GHz,dabei verbraucht die Karte mehr als das Doppelte weniger und verliert rund 18-23% bei den FPS je nach Spiel.

Die großen Karten sind halt darauf ausgelegt den Längsten zu haben,nicht für die Effizienz Krone.;)
 
Große Kühler sind doch immer gut,kühler und vor allen dingen leiser.....
Nicht grundsätzlich. Abseits von PC Transportproblemen, Durchhängen und Materialeinsatz ist da noch das Problem, dass Desktop PCs viel an Flexibilität einbüßen, dadurch dass luftgekühlte Grafikkarten mit ihren pompösen Hintern bald 4 Slots besetzen: 3 belegt + Lücke für Luft.
Wasserkühlung will nicht jeder.
Von meinen 5 PCIe Slots blieben so noch 2 übrig. Auf 3en hockt die Grafikkarte.
Die großen Karten sind halt darauf ausgelegt den Längsten zu haben,nicht für die Effizienz Krone.;)
“Is halt so“ ist doch kein Argument, wenn es eigentlich physikalisch möglich wäre, auch effiziente High-End-Karten zu haben.
Die kriegt scheinbar jedoch nur die Industrie und der Blöd-Gamer seine stromsaufenden Dummbatzkarten samt anderthalb Kilo auf den Buckel geschnalltes Blech, um die allergrößtenteils verplemperte Energie abzuführen.
Sorry, mich ärgert die Entwicklung einfach.
Und Nvidia hätte vermutlich auch gar kein Interesse daran, eine High-End-Geforce im Sweet-Spot rauszubringen, allein schon weil sonst noch mehr auffliegen würde, wie sinnlos sie da aus wettbewerbsgründen Strom verbraten. Oder viel mehr: Die Kunden Strom verbraten lassen.

Dabei hätte grad die nächste Generation das wohl komplett nicht nötig - und es passt auch überhaupt nicht in die Zeit.
 
Zuletzt bearbeitet :
Nicht grundsätzlich. Abseits von PC Transportproblemen, Durchhängen und Materialeinsatz ist da noch das Problem, dass Desktop PCs viel an Flexibilität einbüßen, dadurch dass luftgekühlte Grafikkarten mit ihren pompösen Hintern bald 4 Slots besetzen: 3 belegt + Lücke für Luft.
Wasserkühlung will nicht jeder.
Von meinen 5 PCIe Slots blieben so noch 2 übrig. Auf 3en hockt die Grafikkarte.

“Is halt so“ ist doch kein Argument, wenn es eigentlich physikalisch möglich wäre, auch effiziente High-End-Karten zu haben.
Die kriegt scheinbar jedoch nur die Industrie und der Blöd-Gamer seine stromsaufenden Dummbatzkarten samt anderthalb Kilo auf den Buckel geschnalltes Blech, um die allergrößtenteils verplemperte Energie abzuführen.
Sorry, mich ärgert die Entwicklung einfach.
Und Nvidia hätte vermutlich auch gar kein Interesse daran, eine High-End-Geforce im Sweet-Spot rauszubringen, allein schon weil sonst noch mehr auffliegen würde, wie sinnlos sie da aus wettbewerbsgründen Strom verbraten. Oder viel mehr: Die Kunden Strom verbraten lassen.

Dabei hätte grad die nächste Generation das wohl komplett nicht nötig - und es passt auch überhaupt nicht in die Zeit.
Ok,bei Mir haben die Rechner nen festen Platz.
Fürs Durchhängen bekommst ja mittlerweile viele Lösungen.
400/500/600+Watt müssen nun mal irgend wie abgeführt werden bei nem Gaming PC wo ja sonst auch nix weiter Verbaut wird......

Das Problem ist halt das die Kunden diese Karten wollen,sonst würden sie nicht um jeden Preis NVIDIA 3080Ti+ kaufen.Würden diese Kunden NEIN sagen,würde NVIDIA solche Karten auch nicht immer wieder bringen.Und die Kunden die sie dennoch haben wollen müssen nun mal um Denken und zu Wasserlösungen greifen wenn sie mit Schwimmen wollen.
Ansonsten kann man auch zur 3060 oder 3070 greifen und die Effizienter machen + OC.
Die bekommst dann mit 2 Slots.....


Wenn dir die Leistung nicht reicht,nimmst ne 2-2,5 Slot AMD RX6950XT.
 
Zuletzt bearbeitet :
Danke fürs Klarstellen!

Ich bin echt gespannt auf die nächste Generation.

Vor allem auch darauf, was AMD macht. Wer wird effizienter, wer muss mit der Brechstange ran und wie werden am Ende die Preise sein. Aber so lange die Lager noch voll mit Ampere Karten sind, wird man es sicher gar nicht mal sooo eilig haben, oder?


Grüße!
Hi,
für meinen Teil habe ich die 4000er Generation "abgeschrieben" und auch die kommenden Karten von AMD.
Beide Firmen haben die "Gamer" "verarscht" in dem hohe Kontingente der 3000er Generation an Miner verkauft wurden. Dann hat man ein "Chiprelease" mit "Miningbegrenzung" herausgebracht um die Gamer wieder zu beruhigen...
Natürlich konnte man das mit entsprechendem Treiber wieder umgehen.
Jetzt haben NVIDEA und AMD bestellte Chips Kontingente bei den Herstellern "eingekürzt", weil durch den einbrechenden Krypto Markt wohl nicht mehr so viele Karten verkauft werden können. Oder einfacher ausgedrückt - der Preis wird künstlich hoch gehalten werden.
Hinzu kommt die Einkürzung des Videospeichers und der fette Stromverbrauch. Ich fühle mich davon mehr oder weniger veräppelt und werde auf die übernächste GraKa Generation warten. Da saufen die Karten dann hoffentlich nicht mehr so viel Strom und eventuell geht dann auch eine höhere Auflösung als 4k...

Das geschriebene ist meine persönliche Meinung zu dem ganzen GraKa Theater aus den letzten Jahren.

MfG
Quarks
 
Als konkretes Beispiel:
Ein 5nm Wafer bei TSMC kostet (errechnet an deren Umsatzzahlen bzw. monatlicher Produktion) um die 10K. Mit ein paar defekten Chips und Verschnitt sind das um die 20 Cent/mm² bzw. 1 Euro/SM.
Jetzt stell dir vor es gibt 2 GPUs zur Auswahl:
.) AD106 mit 36SMs und 14GB VRAM
.) AD104 mit 60SMs und 10GB VRAM

Beide kosten dasselbe nur dass AD104 den AD106 in allen Reviews um ca. 40-50% zersägt.
Welche der 2 GPUs wird sich wohl besser verkaufen?

Man könnte da noch genug Beispiele bringen:
.) Eine 3070 16GB zum Preis einer 3080 12GB
.) Eine 3060 12GB zum Preis einer 3070 8GB

Das Problem am VRAM ist: Dieser ist dem durchschnittlichen Käufer nur dann wichtig wenn es ihn gratis oben drauf gibt. Bezahlen will den in der Regel niemand.

Die GPU ist nicht das Thema, sodern nur der VRAM.

Bezahlt wird so oder so, sieht man ja was die letzten zwei Jahre abgegangen ist. Und bezahlt wird dafür, was man braucht, gratis gibts nie irgendetwas. Wenn es aber keine Alternative gibt, kann man auch nicht dafür bezahlen, sondern muss nehmen, was halt da ist. Damit meine ich, dass Nvidia, nebst 3080/3090, einfach keine Alternative anbietet, weil sie denken, auch 6 Jahre und 2 Generationen später seien 8GB VRAM immer noch genug. Ist es aber nicht für jeden! Alternative gäbe es ja, bei Team rot, nur gab's die letzten zwei Jahre keine Möglichkeit zu wählen und zur Alternative zu greifen, weil der Markt leer war. Und was ist mit der 3060 TI mit 12GB "schief" gelaufen bei denen? Mehr VRAM als bei der 3080? Wozu? Nvidia ist aktuell in Sachen VRAM einfach voll daneben. Microsoft hat bei DirectStorage ordentlich gepennt (wie bei allem was aktuell bei denen läuft) und wird noch sehr viele Jahre brauchen, bis damit VRAM gespart werden kann. Aktuell sicher kein Argument pro Nvidia. Dann noch Ray Tracing, enormer Speicherfresser, wird seit Jahren mit "RTX on" Werbung an jeder Ecke gepusht, aber den nötigen VRAM packen die nicht dazu.
 
Hi,
für meinen Teil habe ich die 4000er Generation "abgeschrieben" und auch die kommenden Karten von AMD.
Beide Firmen haben die "Gamer" "verarscht" in dem hohe Kontingente der 3000er Generation an Miner verkauft wurden. Dann hat man ein "Chiprelease" mit "Miningbegrenzung" herausgebracht um die Gamer wieder zu beruhigen...
Natürlich konnte man das mit entsprechendem Treiber wieder umgehen.
Jetzt haben NVIDEA und AMD bestellte Chips Kontingente bei den Herstellern "eingekürzt", weil durch den einbrechenden Krypto Markt wohl nicht mehr so viele Karten verkauft werden können. Oder einfacher ausgedrückt - der Preis wird künstlich hoch gehalten werden.
Hinzu kommt die Einkürzung des Videospeichers und der fette Stromverbrauch. Ich fühle mich davon mehr oder weniger veräppelt und werde auf die übernächste GraKa Generation warten. Da saufen die Karten dann hoffentlich nicht mehr so viel Strom und eventuell geht dann auch eine höhere Auflösung als 4k...

Das geschriebene ist meine persönliche Meinung zu dem ganzen GraKa Theater aus den letzten Jahren.

MfG
Quarks
Das hast du gut zusammengefasst. Du darfst aber nicht die Aktionäre vergessen. Die können klagen, wenn der Verdacht im Raum steht, dass die GF nicht alles getan hat, um den Gewinn des Unternehmens zu maximieren. So geschehen nach Platzen der ersten Mining-Bubble (Link).
Es ist ein Graus - das geschilderte Gebahren ist komplett daneben, aber aufgrund der Shareholder-Interessen nachvollziehbar. Ich sehe aktuell auch keinen Grund, der 4000er/7000er Gen eine Chance zu geben, aber ich hab auch grad erst AMD >1.000 Euro in den Rachen geworfen.
 
Ich hoff schon auf die 4000er. An sich machen die Karten ja aufgrund der gesteigerten Zahl an Shader-Einheiten und der deutlich besseren Fertigungstechnik einen Riesensprung. Und ich gurke immer noch mit einer 1070 rum, nachdem ich ´ne 3090 nach kurzer Zeit wieder rausgeworfen hab.

Aber… der anzunehmende Preis und Stromverbrauchs-Nonsens lassen mich bei der Entscheidung dann wieder (ver)zweifeln.

Ich fürchte auch, dass Nvidia hohe Preise verlangen kann, weil die noch nicht komplett vergraulten PC Enthusiasten inzwischen nach über einem Jahr mit Wahnsinnspreisen ziemlich ausgehungert sind. Wenn ich die Kommentare auf MyDealz richtig deute, warten die meisten nur auf den September um dann endlich zuzuschlagen und sich für die Geduld zu belohnen - die alten Karten werden deshalb grad verschmäht. Ich geh davon aus, dass dann auch zähneknirschend und mit etlichen Flüchen gen Kalifornien zumindest anfangs auch sehr hohe Preise akzeptiert werden.

Andererseits hab ich so‘n Bauchgefühl, dass ab September die Kryptos wieder anziehen…. wegen „sell in may and go away but remember to come back in september“.
 
Zuletzt bearbeitet :
Wer die horrenden Preise bezahlt, ist selber Schuld.
 
Ich hoff schon auf die 4000er. An sich machen die Karten ja aufgrund der gesteigerten Zahl an Shader-Einheiten und der deutlich besseren Fertigungstechnik einen Riesensprung. Und ich gurke immer noch mit einer 1070 rum, nachdem ich ´ne 3090 nach kurzer Zeit wieder rausgeworfen hab.

Aber… der anzunehmende Preis und Stromverbrauchs-Nonsens lassen mich bei der Entscheidung dann wieder (ver)zweifeln.
Warum holst du dir nicht ne 6800XT/6900XT oder 3080 12GB/Ti? Die sind allesamt verfügbar, erschwinglich - gegenüber deiner 1070 ein fettes Upgrade und du hast Ruhe.
Ich fürchte auch, dass Nvidia hohe Preise verlangen kann, weil die noch nicht komplett vergraulten PC Enthusiasten inzwischen nach über einem Jahr mit Wahnsinnspreisen ziemlich ausgehungert sind. Wenn ich die Kommentare auf MyDealz richtig deute, warten die meisten nur auf den September um dann endlich zuzuschlagen und sich für die Geduld zu belohnen -
Wenn ich schon "die Kommentare auf MyDealz" höre, dann weiß ich, dass da am Ende nur Frust rauskommt. Ich habe noch nie einen guten "Deal" bei nem Launch von Grafikkarten gesehen - entweder limitierte Stückzahl oder Aufschlag oder Kinderkrankheiten (Kühlung, Treiber, ...).

Ich verstehe grundsätzlich, dass man DAS NEUE haben will, ich verstehe aber noch nicht, wofür genau :unsure:
 
Ich habe noch nie einen guten "Deal" bei nem Launch von Grafikkarten gesehen
Die 1080 ti war vom heutigen Standpunk aus ein Spitzendeal. Ok, die kam erst spät nach dem Lanuch der Pascal-Reihe, das passt jetzt nicht auf die kommenden 4000er Karten, aber sowas mit dem Preisleistungsverhältnis der 1080ti wird Nvidia wohl nie wieder raushauen.
 
Ja, aber da die nicht direkt zum Launch kam - was sicherlich auch kein Zufall war (Chip-Ausbau, Fortschritte bei der Fertigung) - hab ich sie nicht mitgezählt.
 
Oben Unten