NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

Auf verschiedenen Seiten habe ich Preisspekulationen für die RTX 4060 zwischen 330 und 500 $ gesehen, also kann man wohl von einem Preis ab 400 € ausgehen.
 
So, ich teste die RTX 4090 ja nun genauso lange wie Igor. Ich kann nur sagen, das Ding is wirklich irre brutal... So einen Leistungsprung hatte ich nicht auf dem Schirm und musste echt 3x Testen um zu glauben,, was ich da gesehen habe.

Morgen kommt mein Artikel 22 Seiten lang (davon aber um die 8 Seiten nur Videos verlinkt) damit ihr euch DLSS, FSR und XeSS anschauen könnt. Auch das war nur ein kurzer Blick und nur 25 % vom meinen Videomaterial. In UHD sind 5 Sek. Videos gleich mal >30 MB und das mal 3 und mal x die ganzen Settings... könnt euch vorstellen, wie Igor reagiert hat, als ich ihm mein ganzes Material habe schicken wollen. Da is ihm fast das Herz stehen geblieben.

Es gibt 3 Spiele für den Anfang: CoD Black Ops Cold War, SOTTR Lara Croft und Cyberpunk 2077. Holy Shit geht die 4090 ab. Ich brauche einen 240 besser noch 360 Hz UHD Monitor... LOL

Mich würde interessieren, was wohl mit Ampere gewesen wäre, härte man da schon TSMC 7n genommen. Egal...

Ich empfehle morgen einen großen Bildschirm und etwas Zeit mitzubringen
 
Mit was denn? Muss an mir vorbei gegangen sein. Ich zocke in UHD und nutze zertifizierte Software zum Geldverdienen...
Nach welchen Präferenzen ?

Ist da die Rede von Nachvollziehbarkeit oder Bestellungen einer Geräte Kalibrierung ?

Ich Comp / Cal ganze Systeme... 🥸
 
Auch um Mal hier eine Phrase aus dem Amerikanischen Englisch zu bemühen: She's big, but she can run. Und wie! Allerdings ist mir der Preis doch zu hoch, auch wenn das Preis/Leistungsverhältnis um einiges besser ist als bei Ampere. Mit dem Effizienzgewinn hoffe ich auch, daß es bald eine 4060 oder so Ada für Laptops gibt. @Igor: hast Du da schon was gehört? Mein alter Laptop ist schon im Rentenalter, und wenn Ada für Mobile in den nächsten 6 Monaten kommt, warte ich noch bis dahin.
 
Nach der RTX 3090 wurde AMD auch belächelt. Kurz danach hat AMD mit Nvidia den Boden aufgewischt. Wird sich wiederholen. :cool:
Fragt sich nur, wer mit wem den Boden aufgewischt hat:
03a-UHD-FPS-1.png
 
Der andere Verlierer hier ist ganz klar Samsung VLSI. Ich nehme an (weiß es aber nicht!) das NVIDIA ursprünglich Ada auf Samsung 5 nm fabben wollte. Da TSMC 4N ein optimiertes TSMC 5 nm ist, scheint sich auch hier zu bewahrheiten, daß TSMC bei (laut Samsung gleichen Nodes) doch um ca. 30% effizienter ist. Und das kommt hin: 70% von 600 W sind 420W. Ungefähr da, wo die 4090 jetzt gelandet ist.
 
"Kurz danach hat AMD mit Nvidia den Boden aufgewischt." -- Hätte ich so auch nicht geschrieben, aber verdammt nah dran ist AMD schon gekommen. Sah man bei Nvidia eventuell ähnlich und hat deswegen so ein Monster wie die 4090 von der Leine gelassen.
 
"Kurz danach hat AMD mit Nvidia den Boden aufgewischt." -- Hätte ich so auch nicht geschrieben, aber verdammt nah dran ist AMD schon gekommen.
Aber nur für die LOW-TEC-FREAKS bei 720P und Low Details. Bei DLSS und RT war es schon bei einer 2080TI die Luft ziemlich dünn.
 
Nach welchen Präferenzen ?
Für Solidworks brauche ich passende Hardware/Treiber, sonst laufen manche Module nicht. Und selbst in Premiere Pro ist die 4K-Echtzeitvorsschau in der Timeline mit den Radeons eine Krankheit. Und ohne CUDA wirds auch bei den ganzen Plugins fad...
 
Bin wirklich schwer beeindruckt.
Umso mehr frage ich mich, warum Nvidia wegen ein paar popeligen Prozenten im niedrigen einstelligen Bereich 450W anlegt und damit die Effizienz opfert.
 
Zuletzt bearbeitet :
Bin wirklich schwer beeindruckt.
Umso mehr frage ich mich, warum wegen ein paar popeligen Prozenten im niedrigen einstelligen Bereich 450W anlegt und damit die Effizienz opfert.
Selber Grund wie bei Ryzen. Im Prinzip kann man die alle immer im Eco Mode laufen lassen, man wird kaum je einen Unterschied merken.
 
Oben Unten