NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Für mich bleibt immer noch die spannendste Frage ob zb mein süßes Seasonic TX-700W Fanless Netzteil die 4090 packt?
Die 3090 hat hier seit 1,5 Jahren gar keine Probleme, bin gespannt.

Vielen Dank für diesen Kommentar, das ist sehr interessant!
Vielleicht ist dies auch der Kombination aus AMD CPU und der 3090 geschuldet? Meinte Intels Äquivalente sind stromhungriger.
Ich hab nen 3900XT @ Stock, und das heisst für mich, mein Corsair RM750i müsste ja eigentlich eine 3090/ti gut betreiben können.
Oder spricht da etwas dagegen?
 
Die armen und gänzlich unmündigen Gänschen aber auch.
 
@Igor Wallossek Ich verstehe die Kernaussage nicht so recht. Nvidia wird doch nicht usprünglich mit dem 8nm von Samsung geplant haben?! Die werden wohl von Anfang an auf TSMC gesetzt haben bei der Planung. Andereseits haben sie den 4N von TSMC wohl doch nicht um ca. 25% falsch eingeschätzt?!

Navi 31 zwischen RTX 4080 12GB und RTX 4080 16GB ist ganz dünnes Eis, muss ich sagen. Das hieße ja, dass die RX 7900 XT gerade mal 30-40% schneller als eine RX 6900 XT wird. Das ist mit 140% mehr Shadern und 50% mehr Effizienz quasi unmöglich, derart schlecht zu sein. AMD hat gelernt, wie man Shader einigermaßen gut auslastet.
 
Zuletzt bearbeitet :
Ob 450 W oder 600 W ist doch egal. Die Radeon 7900 wird mehr Leistung haben und dabei weniger verbrauchen (unter 350W). Wen interessiert da noch eine überteuerte 4090???
 
Wenn es Karte A oder B oder C gelingt, selbst in UHD noch die Prozessorlast samt Leistungsaufnahme erheblich zu erhöhen, dann darf gerätselt werden, welche Karte und welcher Hersteller und was das bedeutet ;)
Nee, eigentlich muss niemand raten welche Karte und welcher Hersteller und was das bedeutet.:ROFLMAO:
 
Ob 450 W oder 600 W ist doch egal. Die Radeon 7900 wird mehr Leistung haben und dabei weniger verbrauchen (unter 350W). Wen interessiert da noch eine überteuerte 4090???
AMD kocht auch nur mit Wasser, genauso wie Nvidia. Aussagen aus der Glaskugel bringen niemanden was. Bald werden wir sehen was Nvidia wirklich raushaut und im November dann was AMD dagegen stellt. Zaubern können beide nicht. Beide unterliegen derselben Physik und beides sind Profitorientierte Unternehmen.

Und beide machen es mir schwer meinen AMD 5800x mit einer preislich akzeptablen Grafikkarte zu versehen...
 
haha
vermutlich wie bei der 6800nonXT, wo er sich damals Fantasiezahlen zusammengereimt hat bezgl. 290 Watt
(nur mal knapp 40W mehr als dann tatsächlich als TBP festgelegt)

just for fun
z.Vgl. der derzeitige Verbrauch in DE@1440p =220W
Was freu ich mich auf die ersten Benchmarks der neuen AMD Karten.

Auf die herzergreifenden Geschichten, respektiver technichen Erläuterungen der AMD Fraktion bin ich gespannt, wenn Igor Recht.

Ist doch seit ewigen Zeiten so. Das einzige was Neu ist, das selbst Igors Fachkenntnis und seine Quellen in Zweifel gezogen werden.

Aber ja, ich habs vergessen. Man muss besoffen sein um AMD in Zweifel zu ziehen. :ROFLMAO:

Sorry, nix für ungut.
 
Und beide machen es mir schwer meinen AMD 5800x mit einer preislich akzeptablen Grafikkarte zu versehen...
Asus hat gestern die 6900XT TUF für unter 700 EUR verkauft, das halte ich gerade noch so für angemessen, die Karten sind halt auch schon fast zwei Jahre auf dem Markt.
 
Asus hat gestern die 6900XT TUF für unter 700 EUR verkauft, das halte ich gerade noch so für angemessen, die Karten sind halt auch schon fast zwei Jahre auf dem Markt.
Danke für den Hinweis. Leider sind 700 € auch noch jenseits meiner Schmerzgrenze :(
Ansonsten ist der Preis in der heutigen Zeit schon gut...
 
Bin ganz deiner Meinung 🙂 ich rege mich mittlerweile auch viel über Kommentare auf, die im Vorfeld schon mit dem hate-zug fahren...
Das AMD nicht ganz so stark ist, wie es vorher angenommen wurde? Hat mich nicht gewundert, das gebashe gegen Intel war aber enorm hoch.
Das sich der Wechsel für Nvidia von Samsung auf tsm gelohnt hat? Ja hat es, und zusätzlich dürfen wir Kunden uns jetzt über GPU's mit zwar dickeren Kühlern rumschlagen (interessiert mich weniger, find es nicht schlimm und wird wenn eh unter Wasser gesetzt) aber haben so mehr PC Potenzial, find ich gut, mittlerweile wird mein Interesse auch größer 🙂

Danke Igor für die Aufklärung




Der Hype wird immer größer! Wobei ich eigentlich diese Gen aussetzen wollte :/ Was NVIDIA hier abliefert ist echt beeindruckend und man sieht wieder in diesem Artikel das NVIDIA mehr Shitstorm abbekommt als überhaupt angebracht ist. Da muss ich direkt wieder an INTEL/AMD denken. Alle sind der Meinung das Ryzen Intel zerstören würde und sie keine Chance hätten da Intel so teuer ist und ineffizient. Was ist jetzt? AMD ist doch mittlerweile teurer und wirklich schneller sind sie nur in Multicore Anwendungen. Darüber redet komischerweise keiner... Ich glaube einfach ich muss anfangen keine Kommentare mehr zu lesen und sämtliche Umfragen zu ignorieren sonst reg ich mir nur auf.

Danke Igor für den Artikel!
 
1.) ich verstehe, warum Igor sketpisch ist, dass AMD N5-Kerten gegen den AD102 ankommen werden. Aber: N3x ist N5. Dass die MCDs N6 sind spielt einfach keine Rolle. Wenn AMD wieder N5P nutzt als Grundlage wäre der genauso leistungseffizient wie N4, nur die Packdichte ist ein bisschen höher, was in der Praxis genau 0 Einfluss haben dürfte.
2.) 8LPP kann nicht sein. Wenn dann 6LPP (+/-), in 8LPP wäre ein AD102 sicherlich >900mm². Ich bezweifle, dass man solche Chips hätte sinnvoll produzieren kann.
3.) sollte tatsächlich AD102 bis 104 in 8LPP geplant gewesen sein, gibt es keine kleinen Chips, dann ist vollkommen klar, dass diese 3 Chips als reine Ergänzung des Portfolios dienen sollten und GA102 aus dem Programm nehmen sollte, die kleineren jedoch wären geblieben. Jetzt ändert sich die Sache etwas und ich könnte mir gut vorstellen, dass wir demnächst Tapeout-Meldungen von AD106 und 107 erhalten werden, die dann in N6 (nicht den teuren und kapazitätsbeschränkten N4) gefertigt werden dürften.

Ich bin aber sehr skeptisch, dass die ganze Story stimmt, denn der Prozess ist eines der ersten Sachen, die beim Design festgelegt werden. Sicher, dass diese ganze "Information" nicht in Wirklichkeit irgendein BS ist?

Sollte Igor hier recht haben, dann hat AMD gewaltig gelogen mit der Aussage, dass sie eine Performance per Watt Steigerung von >50 % erreicht haben. AMD hätte dann sogar eine Performance per Watt Verschlechterung erzielt, was ich mir kaum vorstellen kann.
Eine 4080 16 GB ist derzeit im TSE zirka 10% schneller als eine 3090. Geht man davon aus, dass die 4080 12GB mindestens 20% langsamer als eine 4080 16GB sein wird, und ein N31 zwischen einer 4080 12GB und 4080 16GB herauskommt, dann ist der N31 Chip, bezogen auf den Shrink (sollte mindestens 20% Performance pro Watt bringen) in der Performance per Watt hinter dem N21.
Das würde bedeuten, dass AMD alles falsch gemacht hat und auch noch während der Präsentation die Anleger belogen hat (RDNA3 >50% Performance per Watt gegenüber RDNA2).
Sollte das stimmen, müsste Lisa sofort ihren Hut nehmen, da ´sie die Anleger wissentlich getäuscht hätte. Ich kann mir beim besten Willen nicht vorstellen, dass sich Lisa wissentlich in die Schusslinie für Gerichtsverfahren begeben würde, denn die würden zu 100% kommen, wenn Igors Specu wirklich so wahr wird.
 
Sollte Igor hier recht haben, dann hat AMD gewaltig gelogen mit der Aussage, dass sie eine Performance per Watt Steigerung von >50 % erreicht haben. AMD hätte dann sogar eine Performance per Watt Verschlechterung erzielt, was ich mir kaum vorstellen kann.
Ja, das macht keinen Sinn. Aber vielleicht ist RT Performance gemeint. Das ist durchaus vorstellbar.
 
Das eine geht ja nicht ohne dem Anderen. Das PDK bzw. den Prozess und das Design müssen Hand in Hand gehen. Sprich ich wünsche mir Schaltplan X (Design) im Prozess Y = Fläche/Energie/Frequenz etc). Genau deswegen started die auch dein Design auf irgendeinen PDK und wechselt das nicht. Das geht vielleicht wenn Design Compatible für z.b. N5 und N4, aber nicht zwischen den Foundries.
Früher wo alles planar war, war dies natürlich möglich.
Ich bezog mich auf die IPs von AMD. Mir ist schon klar, dass die das, auf Samsung gemappte, Design nicht an TSMC schicken dürfen und umgekehrt.
 
Asus hat gestern die 6900XT TUF für unter 700 EUR verkauft, das halte ich gerade noch so für angemessen, die Karten sind halt auch schon fast zwei Jahre auf dem Markt.
Für eine neue Karte fände ich den Preis ok, aber für eine 2 Jahre alte Technologie zu teuer. Aber man muss nehmen, was man kriegen kann, oder?
 
Aber man muss nehmen, was man kriegen kann, oder?
Ja, wenn man jetzt eine neue Karte braucht, muss man das tun. Ich finde es prinzipiell auch noch zu teuer, deswegen das "gerade noch so angemessen", aber bei der Konkurrenz gibt es für das Geld lediglich eine 3070 ti. Sicher auch keine schlechte Karte, aber mit nur 8GB RAM leider sehr mager bestückt und von der Leistung schon ein gutes Stück hinter der 6900XT.
 
Warum ist eigentlich tsmc in Massenproduktion jedem anderen inzwischen so weit vorraus? Haben die anderen einfach aufgegeben oder war nicht genügend Geld da um mitzugehen?

Und ja die Rx580 wird leistungmäßig. zwischen einer GT710 und einer RTX4090 liegen, dass kann ich euch genauestens verspekulieren!
 
Oben Unten