NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

wenn man als Technologie-feindlich abgestempelt wird, weil man nicht bereit ist 2.000 Euro abzufeiern.
Mittelalterliche Technologiefeindlichkeit um genau zu sein. Aber dabei ging es auch überhaupt nicht ums abfeieren. Ich weiss überhaupt nicht, was du dir da gerade zusammen reimst. Es war auch kein indirekter Parforceritt gegen dich. Wenn ich mich streiten will, bin ich immer sehr direkt.

Es ging mir mit meiner Aussage um die hunderten Forenbeiträge, die immer schrieben, RT wäre absoluter Müll und im besten Fall wurde es als überflüssig abgetan . Einige gingen soweit, das sie gar von Bildverschlechterung gesprochen haben. Viele Beiträge waren an Geringschätzung kaum zu überbieten. Sätze wie "wer braucht schon spiegelnde Pfützen" waren oder sind doch der Klassiker.

Es ist eine Technik die zugegebenermaßen mit Kinderkrankheiten behaftet war. Genau wie DLSS. Was wurde über die Version 1 hergefallen und gelästert. Am Ende war es aber vielleicht der Startschuss für FSR und beides zusammen hat vielen alten Karten wieder leben eingehaucht, in einer Zeit, in der es viel Geld und gute Worte brauchte um überhaupt was zu bekommen.

Beides zusammen halte ich für eine tolle Entwicklung und selbst das gejaule der Effizienzfetischisten wurde doch gerade von NViDIA ad absurdum geführt. Das ich allerdings mit einem Liter DIesel nicht zum Mond fliegen kann, sollte dennoch jedem klar sein.

Aber man kann es halt nicht allen Recht machen.
 
Eigentlich kann/darf man jetzt jeden, der sich ne 3090 ti gekauft hat, auslachen, oder?

Was auch fast pervers ist:


76/28=2,72 => 2,72 mal soviele Transistoren (bei leicht kleinerem Chip wohlgemerkt)
2230/1365=1,63 => die schalten auch noch mit 63% mehr Base-Takt (also 63% schneller)
450/350=1,29 => dürfen dabei 29% mehr Strom brauchen;
und führen teilweise dazu dass P1 besser/gleichauf ist mit max FPS.


Wie war das nochmal mit "keine Effizienz"?




Manchmal frag ich mich schon was für Substanzen da im Überfluss genommen wurden.
 
Oh man, wie schon wieder die Post abgeht...

AMD Lager und NIVIDA Lager....

Junge Junge... Ihr sollte alle bis zum Test (3. November) warten, dann sehen wir doch wer mit vollen Hosen da stehen wird... Denn nur mit vollen Hosen ist gut Stinken!

Warum verschwendet ihr unnütze Energie? @Gamer @RX480 lasst euch doch gar nicht auf die Diskussionen über ungelegte Eier ein!

Wir müssen es am Ende alle nehmen, wie es kommt. Wenn AMD NVIDIA wieder ein Kopf an Kopf rennen liefert, dann ist das doch super. Aber dieses Mal gibt es keine Ausreden mehr. DXR on

Das ist jetzt Pflicht und keine Kür mehr... Selbst Intel schneidet mit DXR überraschend gut ab und das gleich beim ersten Schuss. Wobei die Treiber noch in den Kinderschuhen stecken. Da liegt vermutlich viel Potential ungenutzt auf der Platine rum, weil es die Software nicht gebacken bekommt.

Also bleibt friedlich und genießt die Show. Popcorn holen!

Bald sind wir schlauer.... Und ich würde mich echt freuen, wenn AMD der große Wurf gelingt... Ich drücke die Daumen!!!
 
Eine kurze Frage an IgorsLAB zum Testsystem.
Es gab ja eine Meldung das viele der neuen X670E Boards einen Bug im Bios zusammen mit der 4090 haben. In derselben Meldung war aber auch die Rede davon das alle, außer MSI ein Update zur Verfügung stellen.
Ist der Bug beim Testen aufgetreten oder ist (zum Glück) das MSI Board nicht davon betroffen gewesen?

Die 4090 performt zwar etwas weniger gut als ich dachte, liegt bestimmt auch daran das die GPU stärker ist als 99% aller PCs, aber es hat mich gleichzeitig auch überrascht dass sie teilweise deutlich weniger verbraucht.
Falls ich morgen eine 4090FE kaufen kann, werde ich mal UV und Powerlimit zwischen 55-70% testen. Die Karte soll trotz allem ja noch sehr sehr gut bei 300W performen. Ich denke so UV bei 0,8V bei 2500Mhz oder so. Das wäre schon eine Ansage...
 
Nettes Ding. Das ist mal die erste ECHTE 4K Karte.

Klar, bei einem so viel längeren Balken im Vergleich zu allem, was bisher so da war, juckt es.

Aber trotz größerem Perfomance-Plus als erwartet irgendwie gar nicht so sehr wie gedacht.

Mal abwarten, welche Kinderkrankheiten so hochkommen - und wer was Hübsches für welche Karte für Wasserspiele rausbringt, oder am besten gleich vormontiert. Werde älter und fauler.
 
Bin wirklich schwer beeindruckt.
Umso mehr frage ich mich, warum Nvidia wegen ein paar popeligen Prozenten im niedrigen einstelligen Bereich 450W anlegt und damit die Effizienz opfert.
Jetzt nur eine Vermutung von mir (!), aber wenn NVIDIA jetzt die 4090 auch noch auf 350 W in "normal" eingestellt hätte, wären wohl bei einigen Boardpartnern endgültig die Sicherungen durchgegangen. Nicht die auf den Boards, sondern in der Buchhaltung. Die beschweren sich doch schon jetzt bei 450 W, daß sie zuviel Geld in die "zu großen" Kühler stecken mußten, viel NVIDIA ihnen zuerst 600 W thermale Leistung vorgegeben hatte. Bei 350 W wären die wohl auf die Barrikaden gegangen.
 
@eastcoast_pete Das sehe ich ähnlich, bin mal gespannt wie sich die Custom Karten heute ihre Materialschlacht verkaufen wollen. Echten Mehrwert werden die gigantischen Kühler nicht haben.

Der Bauer hat es gestern in seinem Video sehr anschaulich dargestellt. Sweetspot der 4090 liegt bei 70-80% Power Target, also irgendwo um 350 Watt. Darüber hinaus kommt nur noch heiße Luft.

PowerTarget.jpg
 
Das Problem ist, dass man für so eine Untersuchung nicht nur die FPS untersuchen muss, sondern auch Frame Time, Varianzen und das P1.
Den Sweet Spot weiß man automatisch, wenn man sich die Workstation-Karten anschaut ;)
 
Igor also auch Frühaufsteher ;)

Die Effizienz der 4090 inkl. Undervolting ist sicher auch noch einen extra Bericht wert. Trotzdem für mich gestern insgesamt die große und positive Überraschung des Launch.

Könnte auch noch mal sehr spannend werden wenn die im Vorfeld viel gescholtenen 4080er Modelle auf den Markt kommen. Beim PKW kennt man ja gut das Prinzip des konsequenten Downsizing. Vielleicht gibt es ja dort schließlich doch flotte Karten mit real überraschend geringen Strombedarf.
 
Die erste 4090 ist nun bei geizhals für 3000 € von einem ebay-Verkäufer gelistet. Betrüger, Scalper, beides?
 
Ja, der Chip distanziert auch mit 300 Watt alle alten Karten um Welten, das ist wirklich mal ein großer Leistungssprung.
Wird echt schwer, sich da zurückzuhalten. Ab wann kann man kaufen? Morgen 15 Uhr?
Ich weiss nicht, kann mich da gut zurück halten. Die Karte ist def. richtig schnell, aber mal ehrlich, nicht ganz die versprochene 2-3mal Power und eigentlich nur das, was man von einer neuen Gen erwartet. Der Sprung von gtx 900 auf 1000 war da ähnlich, nur danach gings stetig mit dem Fortschritt bergab.
Ob man die gerade braucht ist individuell, aber bei machen Kommentaren( vor allem in anderen Foren) denkt man, ein 16-jähriger ist gerade in seiner Nvidia -Bettwäsche erwacht.
Wir haben mehr oder minder im cpu/gpu Markt eine Monopol-Stellung, mit all ihren Nachteilen. Das wäre, wie wenn es nur VW und Opel geben würde und man jetzt feiert, dass VW einen neuen Sportwagen für 250k raus bringt, obwohl es weiter nur VW ist und kein Ferrari. Mir fehlt für das Geld tatsächlich der Wow-effekt, von mir aus dürfte das Teil noch 1000 mehr kosten, wenn es nicht einfach nur das Topmodell eines Massenherstellers wäre, der schon seit Jahren, dank mangelnder Konkurrenz, zu viel Geld für seine Produkte verlangt.
Solange es weiter im Pc-Segment nur diese geringe Auswahl gibt, warte ich einfach wieder, wer zu gegebener Zeit das passende Produkt hat, vor allem zu gerechtfertigten Preisen.
 
Ziemliches Brett, wenn auch erst ab 4K(+) high refresh überhaupt von Relevanz für irgendwen (rein fürs zocken an der Stelle).

Mal gespannt, ob Raptor Lake / 7000X3D noch was am "low resolution" Bild ändern wird.

Nun gilt es erst mal RDNA 3 und X3D abzuwarten und sich dann möglicherweise ins Getummel zu werfen ;)

In der Summe besser als erwartet; freidrehen lassen, oder gar OCen würde ich das gute Stück allerdings nicht 🤡
 
So - der Adapter ist auch leserfreundlich analysiert. Und ja, ich kann die Karte sogar mit einem einzigen 6+2 Kabel starten. Wenn ich weiß, wie.

Ich habe ja lange mit mir gerungen, das zu bringen (wegen denen, die immer alles ohne Grips nachmachen), aber ich lasse mir ja keine Falschinfo unterstellen.
 
..., bin mal gespannt wie sich die Custom Karten heute ihre Materialschlacht verkaufen wollen. Echten Mehrwert werden die gigantischen Kühler nicht haben ...
Ist eigentlich bekannt, welcher Reviewer die Aorus dabei hat?
(und ob Da mal die 600-660W getestet werden)

Das ist schon aus technischer Sicht very impressiv, was mit Luftkühler so veranstaltet wird!
alternativ
Wäre ein Custom-Modell mit Waterblock interessant, ... da weiss man dann schon was ein EiswolfX bringen könnte.

bin mal gespannt, ob man dann temp.abhängig noch was rausholen kann
3-5 Taktdomänen a 15MHz wären dann so ca. 45 bis 75 MHz Unterschied
 

Anhänge

  • 03-Clock-Rate-Gaming-Closed-case.jpg
    03-Clock-Rate-Gaming-Closed-case.jpg
    115,2 KB · Aufrufe : 2
Zuletzt bearbeitet :
@Megaone Ich bin ja bei dir. Bei mir sind halt die ersten Versuche gescheitert, dann bin ich vorerst ins rote Lager gewechselt.
DLSS 3.0 schau ich mir genau an, genauso wie die RT (weiter-)Entwicklung.
Eins ist aber klar: 2.000+ Euro liegen für ne reine Daddelkarte jenseits aller Vernunft. So ist das Teil auch nicht konzipiert.

Nvidia bleibt mit 4080/Ti & Co. den Nachweis schuldig, dass das auch für kleinere (aber immer noch ziemlich volle) Geldbeutel geht.
3080 und 6900 pendeln aktuell bei deutlich unter 1.000 Euro und bieten ordentlich Leistung.

Es bleibt noch länger spannend.
 
Mir reibt niemand was unter die Nase, dazu gehören immer zwei. Mich nerven nur zuweilen die ganzen Pharisäer, die in der Regel Wein saufen und Wasser Predigen. Ich würde sie mir auch kaufen, wenn sie 1000 Watt aus der Dose nuckeln würde.
Hier säuft auch niemand Wein. Und die effiziente 1000 Watt Graka würde ich mir wohl auch kaufen. Aber auch schon mal daran gedacht, dass die Kiste bei gesteigerter Effizienz kühler und leiser wird? Manche können sich vllt. heute eine neue Graka leisten, wissen aber nicht, ob sie sich in ein paar Monaten noch den Strom werden leisten können.

Ich verstehe dich zum Teil. Du kannst es dir leisten. Darüber musst und/oder willst du dir kaum/keine Gedanken machen oder willst soetwas hier in dieser Bubble einfach nicht auch noch sehen müssen. Aber du musst auch nicht den genervten "mir doch egal"-Antiökopolizisten spielen ;)

Edit: ach und hier ist auch niemand technologiefeindlich ^^
 
Ich sag es auch noch mal hier:


@All.... Ok da muss man neidlos anerkenne NV hat da schon ein Biest raus gehauen (NV hat eindeutig den längsten!). Und sind wir mal ehrlich - der Preis ist eigentlich lächerlich klein, dafür das man dann den längsten! hat. Würde das in echt biomechanisch auch soooo gut funktionieren ach wie viel Männer würden da ohne mit der Wimper zu zucken die 2K hinblättern... Da wären auch 20K kein Problem...

Weil wer den längsten! hat der ist da Beste....

Jetzt wissen wir auch warum Igor so aus dem Häuschen ist....

Wie gesagt ganz Neidlos... Respekt. An die 4090 wird AMD mit dem was wir bisher gehört haben nicht ran kommen. Die einzige Hoffnung die bestehen würde, wäre wenn AMD in ein paar Monaten dann doch die erste multi Chiplet GPU bringen würde. Also eine bei der mindestens 2 GDC drauf sind...
 
Oben Unten