AMD Radeon RX 8000: RDNA 4-GPUs mit Navi 48 und Navi 44 im Anmarsch – Starttermin 2025

AMD hat die nötigen Hardwarevoraussetzungen für Path Tracing/Ray Reconstruction nicht, also kann das Spiel diese auf AMD auch nicht nutzen. Wie gesagt, AMD ist gut, wenn man Spiele mit geringem oder ganz ohne RT-Einsatz spielt, sonst führt an Nvidia kaum ein Weg vorbei.
Problem ist, das Nvidia an DirectX vorbei geht. Ohne Standard gibt es nur implizite Optimierung auf ein System während der Entwicklung. Wie damals, als für jede Grafikkarte der Hersteller eine bestimmte Version des Spiels programmieren musste. Verstehe nicht wie man das als Windows-PC-Gamer hochjubeln kann - das bricht dem Gaming dort auf Dauer das Genick. MS hat das erkannt, mal sehen ob sie es schaffen alle unter einem standardisierten Hut zu bekommen.
 
Wie gesagt, die Tage kommt eine preiswert erstandene XTX Taichi an, dann teste ich nochmal aus was geht.
Sehr gute Konsolenports wie Horizon FW machen auch ohne RT optisch gut was her und in Spielen mit lustlos reingefrickelten RT-Gimmicks wie bei Hogwarts kann man auch gut drauf verzichten. Leider zeigt uns Cyberpunk schon was machbar ist, ohne RT sieht es aus wie ein viel älteres Spiel..
 
Zuletzt bearbeitet :
Problem ist, das Nvidia an DirectX vorbei geht. Ohne Standard gibt es nur implizite Optimierung auf ein System während der Entwicklung. Wie damals, als für jede Grafikkarte der Hersteller eine bestimmte Version des Spiels programmieren musste. Verstehe nicht wie man das als Windows-PC-Gamer hochjubeln kann - das bricht dem Gaming dort auf Dauer das Genick. MS hat das erkannt, mal sehen ob sie es schaffen alle unter einem standardisierten Hut zu bekommen.
Das wird jetzt Spannend, weil AMD nun ein eigenen Compiler hat.

Nicht auszumalen was passiert wenn ein Threadripper mit Octa Channel ECC RAM Code Compiliert.
Dann müssen die Konsolen mit WaKü Ausgerüstet werden damit sie nicht überhitzen. ;)
 
Liest sich doch eigentlich gar nicht so schlecht.Wenn ich mal träumen darf: Eine leise 8900 XTX auf Niveau der 7900 xtx, mit ca. halbem Stromverbrauch und verbessertem Raytracing zu einem Preis um die 699€ Das wäre doch 'ne feine Sache. Aber das wird so vermutlich nicht kommen.
 
Eine leise 8900 XTX auf Niveau der 7900 xtx
I doubt it. Lies doch noch einmal. Laut den ganzen leakern soll der neue "Mittelklasse-Chip" nur im RT ein solches Leistungsplus mitbringen. Nicht im Rasterizing. Und wenn doch "mehr rauskommt" dann bestimmt nicht ohne feste Trinksitten. Eines der Gerüchte heißt ja auch, daß rdna3 deswegen so weit zurück lag, weil die realen Chips nicht so taktstabil ausfielen wie in der Berechnung/Simulation. Und Takt geht leider auch nicht ohne genügend "Saft".
 
Ich sagte ja, wenn ich mal träumen darf ;-)
Muss ganz ehrlich sagen, die Leistung die aktuell unterwegs ist in den Top Modellen 4090+7900xtx reicht mir eigentlich in 3440x1440.
Ok, nicht im Raytracing aber für alles andere passt das eigentlich. Da fände ich mal so eine effiziente Generation auf gleichen Niveau ist und einfach nur weniger verbraucht super. Nur Raytracing, da können die schon etwas zulegen, dass man Cyberpunk auch anständig spielen kann. Ist das eigentlich ein shrink ? oder bleiben die in der kommenden Generation auf gleicher nm Größe ?
 
Ich sagte ja, wenn ich mal träumen darf ;-)
(y)
Ist das eigentlich ein shrink ? oder bleiben die in der kommenden Generation auf gleicher nm Größe ?
weiß man immer erst, wenn es raus ist. Gemutmaßt wird, daß N3 noch nicht so weit wäre, es also bei der Vorgänger-Node bleibt. Ebenso, daß rdna4 wieder monolithische Chips nutzt. Interessant wird, was die PS5Pro auf die Straße bringt und ob AMDs rdna4 von deren Steigerung ebenfalls profitiert. Nix genaues weiß man nicht :)
 
AMD ändert gerade die Programmierung für GPUs.

Dazu ein kurzes Beispiel, wer will kann sich das ganze Video anschauen:


Beeindruckend wieviel VRAM sich damit einsparen lässt. :cool:
 
(y)

weiß man immer erst, wenn es raus ist. Gemutmaßt wird, daß N3 noch nicht so weit wäre, es also bei der Vorgänger-Node bleibt. Ebenso, daß rdna4 wieder monolithische Chips nutzt. Interessant wird, was die PS5Pro auf die Straße bringt und ob AMDs rdna4 von deren Steigerung ebenfalls profitiert. Nix genaues weiß man nicht :)
Interessant wird auch sein welche Fertigung der SoC der ps5pro haben wird und wie hier der Verbrauch ausfällt
 
Naja, hab mir zwar damals ne PS5 gekauft weil wir zu Diablo 3 Zeiten doch jede Menge Couch coop auf der PS4 pro gespielt haben aber in Diablo 4 war die Lust doch irgendwie schnell weg. PS5 ist kaum benutzt. Normal müsst ich Sie abstoßen solang sie noch was wert ist.
 
Ich blicke sehr Positiv in Richtung RDNA4 und eher skeptisch auf RTX5000

Die Spiele werden haaptsächlech für die Konsolen entwickelt und müssen hier laufen. Die PS5Pro gibt einen Ausblick in welche Richtung RDNA4 geht und das ist mehr RT und endlich Machine learning Upscaling.

Über eine bessere Fertigung, sollte dennoch die Effizienz steigen im Gegensatz zu RDNA3, gerade weil sich auf Mid-Range konzentriert wird.

Im Gegenzug Nvidia mit Blackwell, Blackwell ist rein auf AI getrimmt und ausser Upscaling (der das DLSS für RT ist auch nur Desnoising und Upscaling), für was sollen sie noch die Tensor Cores nutzen ohne, dass die Spiele rein für Nvidia HW programmiert werden müssen?
Mir fällt leider gar nichts ein.

Also wird über die Hammermethode die Maximale Leistung aus den Chips geprügelt, welche eingentlich für einen anderen Einsatzzweck entwickelt wurden. Das ging bis dato noch nie gut aus. Es erinnert etwas an Fermi aka Thermi...

Bereits jetzt finde ich die FSR3.1 Resultate ok, DLSS finde ich noch immer das Maß der Dinge, betreffend Upscaling, der Unterschied ist aber nicht mehr so gross, dass es für mich Kaufentscheidend wäre (wenn meine ziel Spiele FSR3.1 unterstützung und ich genug Leistung für die anderen Habe um auf Upscaling zu verzichten).
FSR4 reduziert den Unterschied noch weiter.

RT? Ja finde ich Klasse, aber die Spiele wo es sogar mit meiner RTX4080 Sinnvoll nutzbar ist, kann man auf der Hand eines Schreiners abzählen.

Ich schaue auf jedenfall mit mehr Spannung auf RDNA4 also auch Blackwell.
 
Alleine deswegen, weil die rx5700 und XT-Modelle in der "jüngeren Vergangenheit" gezeigt haben, daß es eben doch möglich war, halbwegs gute und bezahlbare Leistung auf den Markt zu zaubern. Hoffen wir mal, daß AMD die Bodenhaftung beim Preis nicht noch weiter verliert und lieber architektonisch und softwaretechnisch einen ordentlichen Sprung nach vorn machen kann. Sollte Intel auch nur eine brauchbare Desktop-Karte im Rahmen von Battlemage vorstellen, wird AMD jeden Fortschritt brauchen, den sie erreichen können.
Und mal erhlich: die Spieleindustrie schert sich nicht darum, daß High-End inzwischen an der $/€2000-Marke zu kratzen beginnt und scheinbar 400W-Dauerverbrauch für eine AIC "normalisiert". Die "optimieren" auch in Zukunft nur auf "das beste" und der Normalo-Gamer mit seinen 300..600 Euro Kartenbudget schaut dann bei all den bunten Neuerungen noch stärker in die Röhre als vor 20 Jahren der Normalo mit ~150..300 Euro Budget. Und letzteres ist mein Kritikpunkt viel mehr, als daß mich die irrwitzigen Flagschiff -Preise wie -Verbräuche auch nur irgendwie tangieren würden – die ich in den nächsten 20 Jahren nicht bereit sein werde, für einen reinen Spielebeschleuniger auszugeben!
 
...
Und mal erhlich: die Spieleindustrie schert sich nicht darum, ...

Die Spielindustrie möchte unser Geld ;-) Ich gehe mal davon aus dass jeder PC-Gamer auch ein Steam User ist. Und Steam hat nicht mal 40mio aktive User, davon etliche Millionen, welche keine HW für aktuelle Spiele haben. (Also viele potentielle Käufer für neue GPUs.)

Auf der anderen Seite wurde die PS5 über 60mio Verkauft und PSN hat 116mio Aktive User! Die XBox Series S/X liegen bei etwa 21Mio. verkaufte Geräte.
Es sollte sehr klar sein für was sich die Spielindustrie interessiert. Definitiv nicht ob eine Next-Gen GPU 100 oder 1000W verbraucht und auch nicht ob diese 200 oder 3000Euro kostet.
 
Komplette Stille, und am 10 Oktober ist AMD Event
Kommen die Karten dann echt erst zur CES 2025 - und man lässt die Feiertage sausen,- sprich Weihnachtsgeschäfte?
 
Gute Frage 😒
Die lassen sowieso schon viel Geld liegen, da wäre es blöd das Weihnachtsgeschäft liegen zu lassen.
Oder müssen alle Grakas mit MorphX und Putty nachgearbeitet werden?! 😂
 
Zuletzt bearbeitet :
Liest sich doch eigentlich gar nicht so schlecht.Wenn ich mal träumen darf: Eine leise 8900 XTX auf Niveau der 7900 xtx, mit ca. halbem Stromverbrauch und verbessertem Raytracing zu einem Preis um die 699€ Das wäre doch 'ne feine Sache. Aber das wird so vermutlich nicht kommen.
Also ich würde den Preis anders ansetzen. Für die XTX wären 800 € ein fairer Preis. Und für die XT 600€. Maximal 50€ mehr pro Model. Das wäre wirklich traumhaft 😊.
 
Oben Unten