GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Aus meiner Sicht ist VR die neue Killerapplikation.
Aber leider: Wenn bei Nvidia keine DP2.1 Varianten angeboten werden, heißt es warten. Meine 3090 reicht kaum für mein Headset.
Dann nimm die Radeon 7900. Ich denke die wird es haben und günstiger wird sie sowieso.
 
@Igor Wallossek
Also ohne das Ding im Vordergrund wäre das echt n tolles Bild :D

Ernst beiseite: Das macht schon was her
 
Mein Ding wäre ja eine undervoltete oder TDP limitierte 4080 gewesen, einfach auch um das Maximum an Effizienz bei ordendlicher Grafikleistung auszureizen, mit einem schielenden Auge auf 4K. Aber bei den Preisen sollen sie sich die Dinger ans Bein nageln oder sonst was. Ich bin raus bei NV. Das Geld ist kein 4K oder RT wert!
Jetzt bin ich doch sehr auf das rote Lager gespannt was die so im Köcher haben. Meine letzte war ein R300 Die auf einer Radeon9700, ist ne Weile her... :D
 
Denn AMD sind ja die Guten, die ihre Investitionen tätigen, ohne die Notwendigkeit sehen, die Kosten auch wieder erwirtschaften zu können... ;)

Dass sie letztlich immer nur aufholen und deswegen leicht großzügig sein können (weil es keinen Unterschied mehr macht), das muss man nicht zur Kenntnis nehmen.

Ja, AMD diese unfähigen, unwürdigen Dilettanten. Too little, too late. Sollen doch einfach sterben gehen.

Trotzdem, so musste eine gewisse Intel Corp. leidvoll erfahren, sollte man Lisa und ihre Belegschaft nicht ganz abschreiben. Zen 4 scheint Zen 3 würdig fortzuschreiben.
 
Schaun wir mal was von dem ganzen Marketinggeblubber bei realen Tests übrigbleibt.
Das gilt für alle neuen CPU/GPU die in den nächsten Wochen so aufschlagen.
Zudem muß man bei den heitigen Preisen auch die Bewirtungskosten mit einberechnen, Strom zahlt man wie Leitungswasser oft zweimal obwohl im Winter die Zweitverwertung als Heizung praktisch ist.
 
Schaun wir mal was von dem ganzen Marketinggeblubber bei realen Tests übrigbleibt.

....technisch gesehen wohl nicht sehr viel. Wenn man es genau nimmt waren die meisten Dinge die angekündigt wurden nur Software Lösungen.

Hardwareseitig gibts nur mehr Transistoren und mehr Stromverbrauch.
 
ich hoffe das Amd doch zumindest immer noch ein bisschen auf mehr Marktanteile schielt und deshalb selbst bei ähnlich guter Leistung doch mit den Preisen zumindest etwas moderater bleibt. Sprich Navi 33 so um die 600-700 Euro, Navi 32 so von 800-900 Euro und Navi 31 so von 1100-1200 Euro. Amd sollte mit N6 ja auch den Vorteil der etwas günstigeren Fertigung bei TSMC haben.

Aber wahrscheinlich wir es wohl bei Amd auch eher Navi 33 mit so 800 Euro, Navi 32 mit so 1100 Euro und Navi 33 mit so 1500 Euro. Na mal schauen - mit der 6900XT könnte man ja eigentlich entspannt zurücklehnen und warten aber für 4K (hätte ich nur niemals diesen Monitor gekauft :D ) kann es halt eigentlich nie genug Leistung sein...
Auf die erste Preis-Variante hoffe ich auch, die zweite befürchte ich leider genau wie Du - na ja, die Hoffnung stirbt zuletzt. Ich würde halt meine 1080ti sehr gerne endlich ersetzen, aber nicht für über Tausend Euronen. Und die neue sollte einen geplanten 4KMonitor füttern können, gekauft habe ich den zum Glück noch nicht - mein Beileid;).
Also Abwarten bis die ganze Mittelklasse raus und gründlich getestet ist, vorher kauf ich nix. Auch nicht die scheinbar plötzlich so attraktive alte Generation.
 
Abwarten. Die Early Adopter werden ungeachtet jeder Welt- und Wirtschaftslage zugreifen. Ich selbst spekuliere da eher auf fallende Preise. Evtl. stagnierend bis inkl. Frühjahr, aber danach geht es bergab.
Fallende Preise in 2023 wären natürlich ein Traum, aber da bin ich leider sehr skeptisch. Fallende Preise einer neuen Generation kurz nach einem Release - kann sich irgend jemand hier erinnern, daß es so etwas überhaupt in den letzten 20 Jahren schonmal gegeben hat?
 
Aktuell befürchte (ich weiß es aber nicht) ich aber, dass die kommenden AMD Radeon 7xxxx Grafikkarten, wenn überhaupt, nicht viel effizienter als die Nvidia RTX4xxx Grafikkarten sein werden.
Na ja, Lisa Su hat sich beim Teasern bezüglich der Energieeffizienz von RDNA3 ja ordentlich aus dem Fenster gelehnt, insofern bin ich mal vorsichtig optimistisch...
 
Mein Ding wäre ja eine undervoltete oder TDP limitierte 4080 gewesen, einfach auch um das Maximum an Effizienz bei ordendlicher Grafikleistung auszureizen, mit einem schielenden Auge auf 4K. Aber bei den Preisen sollen sie sich die Dinger ans Bein nageln oder sonst was. Ich bin raus bei NV. Das Geld ist kein 4K oder RT wert!
Genauso wollt ich´s auch machen - der Traum ist leider geplatzt. Vielleicht wird es ja diesmal Team Rot, meine letzte war ebenfalls die 9700, eine wunderbare Karte!
 
Ja, AMD diese unfähigen, unwürdigen Dilettanten. Too little, too late. Sollen doch einfach sterben gehen.

Trotzdem, so musste eine gewisse Intel Corp. leidvoll erfahren, sollte man Lisa und ihre Belegschaft nicht ganz abschreiben. Zen 4 scheint Zen 3 würdig fortzuschreiben.
Ich habe nie geschrieben, dass bei AMD nur Dilettanten arbeiten.

Wie Du schon sagst, sieht man bei den CPUs absolut wie sie Intel den Schneid abkaufen. Genau das wünsche ich mir für die GPUs auch.

In meinem Beitrag geht es um etwas ganz anderes. Ich kann die Community einfach nicht verstehen, die auf einen Hersteller einprügelt, weil er innovative Entwicklungen finanziert und die Technik vorantreibt. Das ist es, was wir und wünschen sollten.

Und dass ein Hersteller seine Investitionen proprietär vermarktet, wenn er der erste ist, ist nur zu natürlich - wer etwas anderes verlangt will wohl auch, dass ihm sein Gehalt geschenkt wird.
 
Herrlich endlich fangen wieder die allgemeinen Diskussionen an, Ja, Nein, kaufen oder nicht kaufen, Pro und Contra.
Mein Lesestoff ist gesichert. :)

Was ich allerdings hier noch vermisse, sind Bilder von Prototypen oder vorab Custom Modelle.

Laut den Nachrichten hat sich jeder 10 eine E-Heizung für den Winter gekauft, dabei wäre der Kauf einer Grafikkarte der 4000er-Serie besser, man könnte damit die Wohnung aufheizen und noch nebenbei zocken.
 
Zuletzt bearbeitet :
Mann, sind das fette Klöpper. Quad-Slot! 😂 Was kommt als nächstes? Okta-Slot mit anhängbarem Mainboard?
 
Ich sag jetzt mal nüscht. Aber man steckt wirklich das Motherboard an die Grafikkarte und nicht umgekehrt. Drama baby!
Da sind 5 bis 6 Gramm pro Watt durchaus real. Neue Metrik FTW: Gramm/Watt :D
 
Info:
Hier hat NVIDIA ein paar Fragen der Community beantwortet. Es sind interessante Aussagen dabei.

Q&A: You Asked, We Answered
 
Schaun wir mal was von dem ganzen Marketinggeblubber bei realen Tests übrigbleibt.
Das gilt für alle neuen CPU/GPU die in den nächsten Wochen so aufschlagen.
Zudem muß man bei den heitigen Preisen auch die Bewirtungskosten mit einberechnen, Strom zahlt man wie Leitungswasser oft zweimal obwohl im Winter die Zweitverwertung als Heizung praktisch ist.
Bei AMD musst du dir keine Sorgen machen. AMD steht für Understatement! Wenn AMD sagt 10% mehr leistung als X dann kannst du direkt mit 15% mehr Leistung rechnen. AMD ist eben ehrlich und lügt nicht wie Nvidia und Intel. Nvidia behauptet ja die 4090 ist 4x so schnell wie 3090. Will ich durchgängig sehen! Und AMD ist der unangrefochtene Effizientkönig.
 
Info:
Hier hat NVIDIA ein paar Fragen der Community beantwortet. Es sind interessante Aussagen dabei.

Q&A: You Asked, We Answered
Um die erste Frage wurde herumgeschifft, dann bla bla wie toll die 4080 ist.

Die zweite Frage zeigt meine Befürchtung: Wird beim Performance+ DLSS 3.0 ausgeklammert, landen wir plötzlich "nur" noch bei 1,5 bis 1,7facher Mehrleistung gegenüber der 3090ti bei vermutlich +/- 1000€ Mehrkosten +Mehrverbrauch +uU neue PSU. Yay.

Bin gespannt was die In-Depth Reviews von Igor am Ende zeigen, erstmal sieht es in der Tat mau aus. Teuer, riesen Klumpen, hoher Verbrauch, DLSS 3.0 exklusiv auf RTX 40 Series ... Naaaaaja.
 
Oben Unten