NVIDIA GeForce RTX 4090 Founders Edition 24GB im Test – Der kraftstrotzende Monolith, der abstinent aus der Kälte kam

... wenn AMD in ein paar Monaten dann doch die erste multi Chiplet GPU bringen würde. Also eine bei der mindestens 2 GDC drauf sind...
Das wird net ganz so easy, ... im Patent wird gesagt das ne besondere Aufgabenteilung zw. primär und sekundär erfolgt!
Ob das kleine AMD-Treiberteam Jetzt für Sowas die Kapazität hat, ... ist ja ne große Extrawurst.

Von Daher eher unwahrscheinlich.
 
Ich sag es auch noch mal hier:


@All.... Ok da muss man neidlos anerkenne NV hat da schon ein Biest raus gehauen (NV hat eindeutig den längsten!). Und sind wir mal ehrlich - der Preis ist eigentlich lächerlich klein, dafür das man dann den längsten! hat. Würde das in echt biomechanisch auch soooo gut funktionieren ach wie viel Männer würden da ohne mit der Wimper zu zucken die 2K hinblättern... Da wären auch 20K kein Problem...

Weil wer den längsten! hat der ist da Beste....

Jetzt wissen wir auch warum Igor so aus dem Häuschen ist....

Wie gesagt ganz Neidlos... Respekt. An die 4090 wird AMD mit dem was wir bisher gehört haben nicht ran kommen. Die einzige Hoffnung die bestehen würde, wäre wenn AMD in ein paar Monaten dann doch die erste multi Chiplet GPU bringen würde. Also eine bei der mindestens 2 GDC drauf sind...
Wahrscheinlich bin ich da zu wenig PC verliebt, aber für mich ist das nur der, zugegeben deutlich leistungstärkere Nachfolger, mit dem technologischen Sprung, den man nach 2 schwächeren Gen erwarten durfte.
Aber dafür ist für den Hobby-Gamer, der nicht zwangsweise die 90er braucht, die Bepreisung unterirdisch und mir wäre es das nicht wert.
Ich hätte mir sofort eine 4080 16gb oder evtl eine rx 7???? Xt geholt, wenn diese für 1k meine alte, wirklich gut laufende, 6900xt um 35+% schlägt, das wäre mir ohne Not der Spass wert, aber so steht, wie übrigens auch bei ryzen 7000, der Mehrwert nicht im passenden Verhältnis.
 
@Megaone Ich bin ja bei dir. Bei mir sind halt die ersten Versuche gescheitert, dann bin ich vorerst ins rote Lager gewechselt.
Was auch verständlich ist. NVIDIA macht es einem manchmal nicht leicht.

DLSS 3.0 schau ich mir genau an, genauso wie die RT (weiter-)Entwicklung.
Halte ich auch für extrem spannend. Vor allem ob und wie die Softwareindustrie mitgeht.

Eins ist aber klar: 2.000+ Euro liegen für ne reine Daddelkarte jenseits aller Vernunft.
Naja, Vernunft ist das eine, Spaß das andere. Vernunft hat auch viele am Kauf einer 3090 nicht gehindert.


So ist das Teil auch nicht konzipiert.
Das lese ich plötzlich immer öfter. Was ist das? Ein unbewußter Abwehrreflex? Nichts ist mehr Daddelkarte als dieses Ding. Genausogut könnte man behaupten, ein 5 Sternemenü wäre nicht zum Essen da.


Aber genau hier lNvidia bleibt mit 4080/Ti & Co. den Nachweis schuldig, dass das auch für kleinere (aber immer noch ziemlich volle) Geldbeutel geht.
Aber genau hier liegt doch der Hase im Pfeffer. Aus preislicher Sicht in bezug auf Leistung ergiebt weder die 4080/16 noch die 12 GB Sinn, wenn ich sie nicht übertakte bis der Arzt kommt. Dann ist es aber mit der Effizenz wieder essig. Hier liegt auch die Chance für AMD. Wenn es preislich und Verbrauchsmäßig gut passt.

Das war im übrigen das gleiche Dilemma bei der 3080/10 GB und der 3090.

3080 und 6900 pendeln aktuell bei deutlich unter 1.000 Euro und bieten ordentlich Leistung.
Da bin ich deiner Meinung. Das sind hier erstmal die Alternativen bis wir wissen, was die Zukunft bringt.


Es bleibt noch länger spannend.
Dito.
 
Zuletzt bearbeitet :
Morgen wirds auch spannend :)

Ich habe den Adapter ja entschlüsselt... So viel Aufwand für - nichts. :D
 
Die erste 4090 ist nun bei geizhals für 3000 € von einem ebay-Verkäufer gelistet. Betrüger, Scalper, beides?
NBB hat ne Aorus für 1949.00 stand jetzt 9:06 Uhr Lagermäßig da. und es werden immer mehr. Wird wohl gerad eingebucht. Warte händeringend auf die FE! Ich glaub ich ruf da mal an.
 
Zuletzt bearbeitet :
Das wird net ganz so easy, ... im Patent wird gesagt das ne besondere Aufgabenteilung zw. primär und sekundär erfolgt!
Ob das kleine AMD-Treiberteam Jetzt für Sowas die Kapazität hat, ... ist ja ne große Extrawurst.

Von Daher eher unwahrscheinlich.
Die sind da schon länger dran. Ich vermute es gibt aber auch einen guten Grund wieso es das noch nicht gibt. Und ich denke es waren keine taktischen Spielereien... Aber die Gerüchte hatten ja den doppelten GDC schon genannt gehabt... Das kommt doch auch nicht von irgendwo her... Da hat wer was schon gesehen... Und bei den MI Karten gibt es das ja schon.... Da ist die Problematik aber etwas einfacher - die müssen nur rechnen... keine Bilder basteln ausgeben...
 
Aber du musst auch nicht den genervten "mir doch egal"-Antiökopolizisten spielen ;)
Sag doch nicht sowas, jetzt wo ich endlich meinen Traumberuf gefunden habe.(y)

Ausserdem bin ich im Prinzip sogar ein ziemlicher ÖKO. Siehe meine ganzen Beiträge zum Thema festinstallierter AKKU und nicht nachfüllbare AIO`s.

Man muss halt nur die Kirche im Dorf lassen. Es besteht kein Grund, immer direkt den Weltuntergang herbei zu fabulieren, nur weil man sich irgendwas nicht leisten will.

Für den Weltuntergang sorgen schon andere. Sei unbesorgt.
 
Wie wird denn die AiO bei Windforce, Kupfer+Alu-Radi?
(dann doch lieber Eiswolf mit Kupfer+Kupfer, ... und mit Eisbär koppeln)

Aber erstaunlich, das man mal nen ehrlichen Preis für die Windforce macht!
(die FE-Kühler sind sicherlich so expensiv, das ne AiO net teurer sein muss)
 

Anhänge

  • 4090.png
    4090.png
    103,1 KB · Aufrufe : 18
Zuletzt bearbeitet :
Das lese ich plötzlich immer öfter. Was ist das? Ein unbewußter Abwehrreflex? Nichts ist mehr Daddelkarte als dieses Ding. Genausogut könnte man behaupten, ein 5 Sternemenü wäre nicht zum Essen da.
Wenn du nur für Gaming 2.000,- Euro ausgibst, dann verstehe ich die ganze "Spitzen-Technologie"-Argumentationskette nicht. UHD outmaxed in 60FPS (mehr machen die meisten Monitore nicht) geht auch mit der aktuellen Gen. DLSS 3.0 schön und gut - das muss ja auch wer implementieren. Und RT läuft auch - bisher mehr schlecht als recht - auf anderen Karten (auch im grünen Haus).
Ich denke da eher an den Content-Producer oder Produktivleistungen, für die macht sich das Investment im Wortsinn bezahlt.

Ansonsten sehe ich das wie @Gregor Kacknoob Hier den Großkapitalisten zu geben und das auf die dickste Gaming-Karte ever runterzubrechen und alle unter Generalverdacht zu stellen, die Cost per Frame in die Rechnung mit aufnehmen – erklär mir bitte mal wo dein Problem liegt.
Ja, gibt ein paar Fanboys, die allesamt benannt wurden. Aber wenn hier Foristen nicht nur "Hurra!" schreien, dann ist das mit Blick auf Preisgestaltung und den Abstand zu Nr. 2 und 3 im Portfolio mehr als gerechtfertigt. Du schreibst es ja selbst.

Zur Karte selbst: Die ist Top-Notch und richtig fein. Allein, ich habe kein Anwendungsszenario, dass die Anschaffung rechtfertigen würde. Und ich behaupte, dass das vielen so geht, die in der Lage sind, rational zu denken.
 
In letzter Zeit gleiten die Diskussionen nach meinem Geschmack immer zu sehr in allg. Weltverbesserer-OT-Geschwafel ab.

Bitte mehr interessante Facts aus den Reviews und über die Modelle posten.
Wie schlimm ist z.Bsp. das Spulenfiepen bei Modell XYZ?
oder
Wo kommt das Bottleneck bei der 4090@OCen mit mooore Watt her? (x)
Ist der Cache zu klein oder taktet der Cache net mit dem Core gleichermaßen hoch?

(x) Damit hat sich übrigens die Speku von Igor erledigt, warum NV mit den Watt immer mehr runtergegangen ist.
... hatte NullKommaNull mit speziellen Spionageerkenntnissen bei AMD zu tun
 

Anhänge

  • 4090FE@3,05Gig_OCed.JPG
    4090FE@3,05Gig_OCed.JPG
    60,4 KB · Aufrufe : 6
Zuletzt bearbeitet :
Also für mich ergeben sich bei der Karte 2 Urteile, die es auch klar voneinander zu trennen gilt:

1. Eine absolut geniale Ultra-High-End Karte, die alles bisher Dagewesene komplett deklassiert.
2. Für mich persönlich mit meinem 165Hz 1440p Monitor macht so eine Karte weder von der Leistung noch vom Preis auch nur den geringsten Sinn.
 
Wenn du nur für Gaming 2.000,- Euro ausgibst, dann verstehe ich die ganze "Spitzen-Technologie"-Argumentationskette nicht. UHD outmaxed in 60FPS (mehr machen die meisten Monitore nicht) geht auch mit der aktuellen Gen. DLSS 3.0 schön und gut - das muss ja auch wer implementieren. Und RT läuft auch - bisher mehr schlecht als recht - auf anderen Karten (auch im grünen Haus).
Da fängt doch schon der Irrtum an. Die meisten UHD Monitore mit 34 Zoll mit 3.440 x 1.440 Pixel gehen locker bis 144 Hertz. Selbst im unteren Preisbereich.

Ich denke da eher an den Content-Producer oder Produktivleistungen, für die macht sich das Investment im Wortsinn bezahlt.
Bestimmt.

Ansonsten sehe ich das wie @Gregor Kacknoob Hier den Großkapitalisten zu geben und das auf die dickste Gaming-Karte ever runterzubrechen und alle unter Generalverdacht zu stellen, die Cost per Frame in die Rechnung mit aufnehmen – erklär mir bitte mal wo dein Problem liegt.
Die Ausgabe von 2.000 Euro, wobei es nach Verkauf der 3090 eher 1.000 sind macht einen nicht zum Großkapitalisten. das ist doch wirklich lächerlich. Ich habe mir nur erlaubt darauf hinzuweisen, das der Cost per Frame bei der 4090 wahrscheinlich bei der 4090 deutlich günstiger ist, als bei der 4080er Serie. Das kannst du selber nachrechnen. Und wenn was stimmt, dann doch "dickste Gaming-Karte ever".

Warum glaubst du denn wird sie in der ganzen Welt in Gamingszenarien getestet. Weil es keine Gamingkarte ist? Merkst du eigentlich nicht, wie absurd diese Argumentation ist.

Ja, gibt ein paar Fanboys, die allesamt benannt wurden. Aber wenn hier Foristen nicht nur "Hurra!" schreien, dann ist das mit Blick auf Preisgestaltung und den Abstand zu Nr. 2 und 3 im Portfolio mehr als gerechtfertigt. Du schreibst es ja selbst.
Wer schreit den hier Hurra? Und bei der Preisgestaltung sind wir doch alle eine Meinung. Was ist denn gerade los mit dir?

Zur Karte selbst: Die ist Top-Notch und richtig fein. Allein, ich habe kein Anwendungsszenario, dass die Anschaffung rechtfertigen würde.
Von dir hat doch überhaupt keiner gesprochen. Wenn du kein Anwendungsszenario ist doch alles Presto. Was regst du dich so auf?


Und ich behaupte, dass das vielen so geht, die in der Lage sind, rational zu denken.
Das ist genau mein Humor. Alle die in der Lage sind, rational zu denken, sehen das wie du? Ernsthaft? Bemerkenswerte Vorstellung.

Das vertiefe ich jetzt besser mal nicht.

PS. Vielleicht solltest du NVDIA anschreiben, das sie den Satz auf Ihrer Homepage bezüglich der 4090 : " Für Gamer und Ersteller" entspechend korrigieren. Offenkundig ist Ihnen ja deiner Meinung nach hier ein Fehler unterlaufen.
 
Zuletzt bearbeitet :
P.S.:

PCWELT hat den weiteren Ableger noch in der Liste. Schreibt aber das einige Leaker davon ausgehen das es sich eventuell in wirklichkeit um eine Radeon Pro handeln könnte

1665562041076.png

Und noch etwas - sollten die 4GHZ stimmen die gerade die Runde machen stimmen die 72TFlops nicht die fallen dann höher aus. Damit würde die Rohleistung um Faktor 3- 3,5 bei AMD steigen zur 6950! NV hat in etwa 2- 2,3 4090 zur 3090 (TI?) gemacht...

Gemunkelt wird auch noch das der Cache auch bei den GPU`s eventuell gestapelt werden könnte (die 192MB).

Was soll ich jetzt hoffen... Das sie leistungs-technisch wirklich ran kommen - dann wird es nicht billiger....
Oder lieber nicht ganz so gut dafür druck auf die Preise...
 
Wenn du nur für Gaming 2.000,- Euro ausgibst, dann verstehe ich die ganze "Spitzen-Technologie"-Argumentationskette nicht. UHD outmaxed in 60FPS (mehr machen die meisten Monitore nicht)

Die Aussage ist nun wirklich schon länger überholt. Spätestens seit HDMI 2.1 gibt schon etliche 4k 120Hz Monitore.
 
Was soll ich jetzt hoffen... Das sie leistungs-technisch wirklich ran kommen - dann wird es nicht billiger....
Oder lieber nicht ganz so gut dafür druck auf die Preise...
Da wird ne 7800xt interessanter und evtl. ein guter Mittelweg.

und obenrum
Falls ein 3d-Cache kommt, dann bin ich mal auf die 8k-Tests gespannt.

edit:
mal ne Überlegung, wie man evtl. sinnvoll die 6900(LC) mit der 4090 vergleicht:
I.d.R. wird meist gesagt, das der 6900er-Cache net für 4k reicht, also mal bei PCGH in UWQHD reingeschnuppert!
Außerdem gibts ne grobe Aussage zum Takt. (ob man daraus dann Was spekulieren könnte, who knows)
 

Anhänge

Zuletzt bearbeitet :
Nettes Teil. Erinnert mich nen bissl an die ersten Reviews der 8800GTX. Die hat damals auch alles dagewesene weggeschaufelt.

Meine arme 3080 bekommt ja Minderwertigkeitskomplexe, wenn sie diese langen Balken sieht. Gut, dass ich nicht mehr so der hardcoredaddler bin wie früher, sonst würde ich doch ernsthaft in Versuchung kommen da einen Ringtausch einzuleiten. :'D

2 Kilobucks finde ich jetzt auch nicht soo schlimm, wenn man bedenkt das man mit dieser Karte die nächsten 4 Jahre easy Ruhe hat.
Hobbies kosten halt Knete, dafür geht man ja schließlich auch arbeiten.
 
Da wird ne 7800xt interessanter und evtl. ein guter Mittelweg.

und obenrum
Falls ein 3d-Cache kommt, dann bin ich mal auf die 8k-Tests gespannt.
Problem ist, das AMD natürlich im Moment viel technisch auch ausprobieren wird...
Und wenn es nicht tut oder wirtschaftlich noch nicht abbildbar ist - wird es nicht kommen...
Das man da aber hier und da was durchsickern lässt - würde ich schon deswegen machen damit der Onkel in der Lederjacke (@Igor Wallossek ) sich den Spekulatius 🍪 zerkrümelt 😁 - wobei vermutlich machen Sie es eher für den echten Onkel in der Lederjacke...
 
Man muss halt nur die Kirche im Dorf lassen. Es besteht kein Grund, immer direkt den Weltuntergang herbei zu fabulieren, nur weil man sich irgendwas nicht leisten will.

Für den Weltuntergang sorgen schon andere. Sei unbesorgt.
Was hat das jetzt mit mir zutun und warum darf ich jetzt unbesorgt sein? :D Du bist mir in diesem Thread als einziger wirklich aufgefallen, der (so wehement) über das Thema Weltuntergang rumreitet ^^

Es wird hoffentlich der Tag kommen, wo jemand das Energiesparpotenzial eines Upgrades bei z.B. 60/120 FPS und den gleichen Einstellungen beleuchtet und ich bin überzeugt, dass sich quer durch die Bank ein geringerer Stromverbrauch zeigen wird. Dann wird auch wieder weniger über die Spitzenverbräuche gestritten.
 
Zur Karte selbst: Die ist Top-Notch und richtig fein. Allein, ich habe kein Anwendungsszenario, dass die Anschaffung rechtfertigen würde. Und ich behaupte, dass das vielen so geht, die in der Lage sind, rational zu denken.
Bei einem Hobby, das man mit einer gewissen Leidenschaft betreibt, gehört für viele der Luxus dazu, es auch ein gutes Stück abseits üblicher "Rationalität" zu betreiben. Nur weil man prinzipiell dazu in der Lage ist, rational zu denken, ist es trotzdem ein schönes Gefühl, nicht immer alles absolut rational denken zu müssen. Von daher finde ich obige Formulierung ziemlich ignorant und auch arrogant. Tust du niemals Dinge, auf die du einfach nur Bock hast, egal ob andere das logisch oder rational finden? Vielleicht kaufe ich mir auch eine 4090. Gehört für mich in die Kategorie "Teures Spielzeug", die sich bei mir schon per Definition jeglicher Rationalität entzieht.
 
Oben Unten