AMD Radeon RX 8000: RDNA 4-GPUs mit Navi 48 und Navi 44 im Anmarsch – Starttermin 2025

Naja, das ist sehr großzügig ausgelegt, wenn ein externer Upscaling Prozessor die Leistung erbringt, dann ist das eher nicht die Leistung der GPU im Rechner.
Wenn die GPU das ohne Zusatzgeräte und ohne Upscalingprozessor im Monitor kann, dann ist es GPU Leistung.
Wenn ich nen Dacia Sandero an die Abschleppstange von dem GLE 63 AMG hänge und der Dacia im Leerlauf mit 250 hinterhergeschleppt wird, dann kann man auch nicht sagen, mein Dacia fährt 250
 
Eben, aber das wirst du auch Bald Verstehen.
Vorgekaut ist halt nicht so scharf wie frisch Gerendert. :)

Das macht das Display aber nur unter 48Hz, da wird ein Zwischen Bild berechnet, vom Upscaler. ;)

Wenn wir jetzt noch die HDR Werte, also die Leuchtkraft mit einberechnen, habe ich ~ 30MByte große Einzel Bilder. (4K)
 

Anhänge

  • GPU Bench.jpg
    GPU Bench.jpg
    293,6 KB · Aufrufe : 16
Zuletzt bearbeitet :
Ja klar, den Job macht der Upscaling Prozessor.
Ich rede aber von Nativ, ugescaletes 4k ist ja ein alter Hut, das macht sogar meine XE Grafik im Notebook.
Da brauche ich keine besondere GPU Leistung.
Nvidia Jünger kennen das Wort "nativ" doch gar nicht mehr - das versuchen die schon länger durch RTX-Werbung zu übertünchen (bei der geringen Raster-Leistung und vRAM auch besser so) 🤣
 
Oh Herr ….
Es ist immer wieder erfrischend zu sehen, dass einige Wenige 82% der PC-Gaming Community
als Deppen beschreibt und sich selbst, als ob man die Weisheit mit Löffeln gefressen hätte ... :)

Jeder soll mit seiner Wahl glücklich werden.

Diese Kommentare gehören in den Kindergarten ;)
Da ist nichts konstruktiv und teilweise sogar falsch ( Das vRam Management ist bei Nvidia besser)

Edit für Yumiko : 82% da es der Marktanteil von dGPU's der Marke Nvidia ist .... :)
 
Zuletzt bearbeitet :
Oh Herr ….
Es ist immer wieder erfrischend zu sehen, dass einige Wenige 82% der PC-Gaming Community
als Deppen beschreibt und sich selbst, als ob man die Weisheit mit Löffeln gefressen hätte ... :)

Jeder soll mit seiner Wahl glücklich werden.

Diese Kommentare gehören in den Kindergarten ;)
Da ist nichts konstruktiv und teilweise sogar falsch ( Das vRam Management ist bei Nvidia besser)
Das zwar richtig, aber auch mit besseren management langen 8-12GB bei manchen spielen nicht mehr.
 
Oh Herr ….
Es ist immer wieder erfrischend zu sehen, dass einige Wenige 82% der PC-Gaming Community
als Deppen beschreibt und sich selbst, als ob man die Weisheit mit Löffeln gefressen hätte ... :)
82% der PC-Gaming Community sind Fanbois?
Der Unsinn gehört in den Kindergarten!
Diese Kommentare gehören in den Kindergarten ;)
Da ist nichts konstruktiv und teilweise sogar falsch ( Das vRam Management ist bei Nvidia besser)

Nvidia reduziert automatisch (seit der 970) die Qualität, um vRAM zu sparen wenn es knapp wird (glaube die PCGH hatte da mal einen umfangreichen Test). Daher schrieb ich auch woanders, das Nvidia-Nutzer "nativ" kaum kennen, Nvidia spricht immer nur von überarbeiteten RTX-Bildern.
Klar kann man mit geringerer Qualität etwas vRAM einsparen, das geht aber auf allen Karten - und als Nutzer will ich auch die Qualität sehen die ich selbst einstelle und nicht vom Hersteller vorgegeben gekommen was ich sehen darf (gerne so eine Option im Treiber). Das ist aber mitnichten "RAM-Management".
 
HWUB hat das mal mit einer 3070 und Hogwards gezeigt was da alles fehlte bzw stark verzögert geladen wurde.
Bei der 970 musste NV halt Kniffe anwenden um die lahmen 0,5GiB zu vermeiden
 
Bei den Nvidia-Fanbois kannst du doch nicht mit harten Fakten kommen (schon gar nicht, wenn mal das vRAM nicht ausreicht) :p
Hi, ich schätze dein Know How sehr. Allerdings finde ich die Sticheleien unnötig.
Wir sind alle Erwachsen und Fan-boys auf unsere Art.
Bei mir ist es der Technische Aspekt, daher ist es mir egal was für ein Hersteller dahinter steckt.
Da Benchmarks aber immer mehr zu Marketing Plattformen Mutieren, halte ich weniger von Gummi Punkte Vergleiche.

Ich kenne die harten Frame Times zahlen, ich spüre sie ja selbst am eigenen System, dafür braucht es nur eine Runde Zocken, dann habe ich wieder dieses Fette Grinsen im Gesicht. :)
 
Zuletzt bearbeitet :
Hi, ich schätze dein Know How sehr. Allerdings finde ich die Sticheleien unnötig.
Wir sind alle Erwachsen und Fan-boys auf unsere Art.
Bei mir ist es der Technische Aspekt, daher ist es mir egal was für ein Hersteller dahinter steckt.
Da Benchmarks aber immer mehr zu Marketing Plattformen Mutieren, halte ich weniger von Gummi Punkte Vergleiche.

Ich kenne die harten Frame Times zahlen, ich spüre sie ja selbst am eigenen System, dafür braucht es nur eine Runde Zocken, dann habe ich wieder dieses Fette Grinsen im Gesicht. :)
Schon, aber bei total falschen Aussagen von Leuten die eigentlich die Benchmark-Artikel gelesen haben (jedenfalls kommentieren sie darunter) gibt es kaum eine andere Erklärung.
 
Was diskutieren wir hier eigentlich!?
Es gibt ja gewisse Fakten die auch eine eigene Sprache sprechen.
10% der Bevölkerung weltweit besitzen 90% des Vermögens, umgekehrt 90% können nicht unbegrenzt mit Geld um sich werfen, also müsste man meinen, 90% würden auch die günstigeren Karten kaufen, wenn es real keine Unterschiede in Leistung, Effizienz und vor allem Software und Anwenderfreundlichkeit gäbe.
In Sachen Plug n Play ist AMD ganz weit hinten, immer wieder Software Problem.
Bestes Beispiel, habe gerade gestern ein Notebook eingerichtet mit dem 7330u, natives Win 11, komplette Verweigerung der Installation von Adrenalin oder der automatischen Treibererkennung.
Erst als ich eine ältere Adrenalin Variante installiert und dann in der Software upgedatet habe, ließ es sich installieren.
Das sind Dinge die Kunden zum Wahnsinn treiben.
AMD schafft es nicht mal eine automatische Treibererkennung zu kreieren, die nicht automatisch von Windows Sicherheitsprogramm oder einem Virenschutz komplett blockiert werden.
Ergo haben wir weltweit ca. 82% Marktanteil beim viel teureren Nvidia, und den Rest teilen sich AMD und Intel, wobei Intels Anteil gerade noch wächst, aber zu Lasten vom AMD Anteil.
Und die Effizienz, wie auch immer sie zustande kommt, ist bei Nvidia gerade deutlich besser und den Anwender interessiert am Ende nur Bedienerfreundlichkeit, hohe FPS und niedrige Energieaufnahme.
Und das kann offensichtlich Nvidia besser, aus welchen Gründen ist da völlig nebensächlich.
Und was die RAM Knauserei anbetrifft, das AMD jetzt bei 8000 auf 8 GB zurückgeht, ist ja auch nicht gerade erquicklich, reicht aber locker bei 1080p und 1440p, solange sowohl die Datengeschwindigkeiten von GPU und VRAM, als auch die Taktfrequenzen hoch genug sind, dann muss nämlich nicht viel "Zwischengespeichert" werden.
Und leider zwingt im Moment die Konkurrenz Nvidia auch nicht zu Preissenkungen im gesamten Sortiment, ergo warum leckt sich der Hund die Eier.... Weil er's kann!
 
Was diskutieren wir hier eigentlich!?
Es gibt ja gewisse Fakten die auch eine eigene Sprache sprechen.
Benchmarks?
10% der Bevölkerung weltweit besitzen 90% des Vermögens, umgekehrt 90% können nicht unbegrenzt mit Geld um sich werfen, also müsste man meinen, 90% würden auch die günstigeren Karten kaufen, wenn es real keine Unterschiede in Leistung, Effizienz und vor allem Software und Anwenderfreundlichkeit gäbe.
So funktioniert Marketing und Ausnutzen von Marktbeherrschung aber nun mal nicht.
In Sachen Plug n Play ist AMD ganz weit hinten, immer wieder Software Problem.
Gibt es da wirklich objektive Daten?
Habe nur Gutes unter Linux, macOS gehört und selbst Gute Erfahrungen unter Windows gemacht (sonst würde ich die Karten sicher nicht kaufen).
Wenn man nach Sicherheitslücken im Treiber sucht (die sind ja offiziell ersichtlich), hat zumindest Nvidia erheblich mehr.
Bestes Beispiel, habe gerade gestern ein Notebook eingerichtet mit dem 7330u, natives Win 11, komplette Verweigerung der Installation von Adrenalin oder der automatischen Treibererkennung.
Erst als ich eine ältere Adrenalin Variante installiert und dann in der Software upgedatet habe, ließ es sich installieren.
Das sind Dinge die Kunden zum Wahnsinn treiben.
AMD schafft es nicht mal eine automatische Treibererkennung zu kreieren, die nicht automatisch von Windows Sicherheitsprogramm oder einem Virenschutz komplett blockiert werden.
Klingt eher nach einem Windows-"Problem" bzw. Nutzereinstellungen.
Und die Effizienz, wie auch immer sie zustande kommt, ist bei Nvidia gerade deutlich besser und den Anwender interessiert am Ende nur Bedienerfreundlichkeit, hohe FPS und niedrige Energieaufnahme.
Und das kann offensichtlich Nvidia besser, aus welchen Gründen ist da völlig nebensächlich.
In der vorigen Generation war AMD da vorne und hatte keine Auswirkungen (genaugenommen argumentierten auch hier im Forum Leute, dass das bisschen Strom mehr bei Nvidia doch gar nicht ins Gewicht falle - man interessiert sich ja am Ende eh nur für die fps). Es wird sich also lieber schöngeredet statt objektive Kriterien zu finden (welche dann ja auch bei anderen Generationen so stimmen müssten).
Und was die RAM Knauserei anbetrifft, das AMD jetzt bei 8000 auf 8 GB zurückgeht, ist ja auch nicht gerade erquicklich, reicht aber locker bei 1080p und 1440p, solange sowohl die Datengeschwindigkeiten von GPU und VRAM, als auch die Taktfrequenzen hoch genug sind, dann muss nämlich nicht viel "Zwischengespeichert" werden.
Die 7000er hatte als minimales vRAM 8GB. Sehe da keinen Rückgang. Für eine Mittelklasse (1440p/60) sollten es aber schon 16Gb sein IMHO in der nächsten Generation (momentan 12/16). Die Konsolen haben seit 4 Jahren ca. 13Gb.
Und leider zwingt im Moment die Konkurrenz Nvidia auch nicht zu Preissenkungen im gesamten Sortiment, ergo warum leckt sich der Hund die Eier.... Weil er's kann!
Der Marktführer diktiert immer den Preis, ist bei Apple & Co auch so. Die Leute kaufen ja weniger wegen der Preis/Leistung des Produkts (die optimalerweise ja auch stimmen kann) sondern wegen dem Namen. *hust* LEGO *hust*
 
Nein, die darauffolgenden Ausführungen, nicht Benchmarks.
So funktioniert Marketing und Ausnutzen von Marktbeherrschung aber nun mal nicht.
Ach nein, das musst mir nach 30 Jahren IT Erfahrung mal erklären, wie eine Weltweite Marktbeherrschung und mehr als 4x so hohe Absatzmengen einzig und allein auf " Ausnutzen der Marktbeherrschung zurückzuführen sind" Und bei Ausnutzen reden wir ja nicht über absurde Preissteigerungen bei AMD Consumer CPU und Chipsätze!? die ihre Preise quasi verdreifacht haben, seitdem sie endlich wieder vorne mitspielen können. Also bitte nicht so ein pseudo Gewäsch von wegen Irreführung und Marktbeeinflussung durch Marketing etc....
Gibt es da wirklich objektive Daten?
Habe nur Gutes unter Linux, macOS gehört und selbst Gute Erfahrungen unter Windows gemacht (sonst würde ich die Karten sicher nicht kaufen).
Wenn man nach Sicherheitslücken im Treiber sucht (die sind ja offiziell ersichtlich), hat zumindest Nvidia erheblich mehr.
Oh ja, und zwar Langzeitdaten über 10 Jahre, wir führen wie jedes Unternehmen Statiskiken, und wir betreuen gesamt 42.000 einzelne Systeme, Server, Clients, Desktops, Notebooks und von 100% aller Software, Treiber oder BIOS induzierten Fehlern ( RMA würdig ) entfielen seit 2016 im Schnitt 83% auf AMD Softwaren, Ausnahme AMD Pro Grafiktreiber und Software, da gibt man sich wohl mehr Mühe, da sind es deutlich weniger. Probleme sind immer wieder inkompatibiltäten mit anderen Programmen, generelle Softwarebugs oder Treiberfehler, die oft nach automatischen Updates auftreten.
Und Sicherheitlücken ist es leider auch eher Umgekehrt, Nvidia hat 2023 die letzten eklatanten Sicherheitslücken im GPU Bereich gehabt, AMD gerade jüngst wieder massiv April/Mai 24 in großem Umfang.
Was übrigens auch der Grund ist, warum bei 7330U Notebook mit den aktuellen Treibern und Softwaren sowie automatische Suche nicht funktioniert haben. Weil AMD das Loch so stümperhaft gestopft hat, das Windows Defender die Ausführung auf diversen Systemen verhindert und auch eine Umgehung nicht zulässt.
Klingt eher nach einem Windows-"Problem" bzw. Nutzereinstellungen.
Nein, s.o. liegt an einer "behobenen" Sicherheitslücke die AMD verschlimmbessert hat.
Alle älteren Softwaren laufen sofort und arbeiten korrekt. Installationsverhinderung Systemseitig weil die neuen Installationsprogramme bei Windows durch die Sicherheitsprüfung fallen.
In der vorigen Generation war AMD da vorne und hatte keine Auswirkungen (genaugenommen argumentierten auch hier im Forum Leute, dass das bisschen Strom mehr bei Nvidia doch gar nicht ins Gewicht falle - man interessiert sich ja am Ende eh nur für die fps). Es wird sich also lieber schöngeredet statt objektive Kriterien zu finden (welche dann ja auch bei anderen Generationen so stimmen müssten).
Richtig, im Vergleich war eine 3090 eine 20% höhere Aufnahme bei nur knapp maximal 10% mehr Leistung als eine 6900XT.
Allerdings hat Nvidia das ja verändert, eine 4090 schlägt sogar eine 3090ti um mehr als 40% in der Leistung was quasi fast eine Verdopplelung der Effizienz gegenüber der 3090ti darstellt.
Und die 4090 liegt nicht nur mit gut 35% Mehrleistung als eine 7900XTX sie hat auch noch eine deutlich bessere Effizienz, da reden wir von 2,5Watt pro FPS 4k bei der 4090 im Vergleich zu 20% mehr, nämlich 3,1 Watt pro FPS bei der 7900XTX.
Geht nicht um das was mal war, sondern was realistisch ist. Und da ist ein Fakt, das AMD von 6000 auf 7000 eher nicht gemacht hat, etwas Brechstange und fertig.
Die 7000er hatte als minimales vRAM 8GB. Sehe da keinen Rückgang. Für eine Mittelklasse (1440p/60) sollten es aber schon 16Gb sein IMHO in der nächsten Generation (momentan 12/16). Die Konsolen haben seit 4 Jahren ca. 13Gb.
AMD hat die Modelle massiv zusammengestrichen, es wird sehr wahrscheinlich nur noch eine 8600 mit 8gb und 128b Anbindung geben, dazu eine 8600XT mit 16GB 128b ( quasi Analog zu dem 4060ti Spiel von Nvidia) , dann eine 8700XT 12GB 192b, und eine 8800XT mit 16GB 256b.
In sachen Leistung wird die Obergrenze bei der 8800XT wahrscheinlich auf Niveau der 7900XTX anzusiedeln sein, allerdings wahrscheinlich unterhalb 300Watt, Tendenz 280 Watt.
Wenn es so tatsächlich wir, ist die AMD 8000er Grenze bei der Heutigen 4080Super bei ähnlicher Efiizienz. und damit wird ein Spiel gegen RTX5XXX eher eine sehr einseitige Partie. Dafür werden sie die Preisschiene bei 8000 nochmal deutlich drücken, ich denke eine teurere Karte über 600€ wird bei 8000 nicht mehr geben.
Der Marktführer diktiert immer den Preis, ist bei Apple & Co auch so. Die Leute kaufen ja weniger wegen der Preis/Leistung des Produkts (die optimalerweise ja auch stimmen kann) sondern wegen dem Namen. *hust* LEGO *hust*
Ja, aber WARUM ist man denn MARKTFÜHRER mit 4-5 mal so hohem Marktanteil weltweit!? weil 80% der Weltbevölkerung verblödet ist? ( wobei ich das nicht mal ausschließen würde ) oder einfach weil man sich über Jahre hinweg mit Leistung hervorgetan hat?
Auch die Jahrelange AMD Werbung mit Spielebundles hat da ja nicht wirklich viel genutzt.
Marktführer wird nunmal nicht wer zuerst die Hand hebt, sondern wer am Ende einfach mehr Kunden überzeugt, und das trotz höherer Preise.
 
Zum Thema Hogwarts Legacy: Da bin ich von 6900XT auf 4080 umgestiegen. Mit der 6900XT hab ich mir sämtliche RT Einstellungen angeschaut. Da ging nichts. In High ist die abgeschmiert, ansonsten <20 FPS. In Rastergrafik lag sie gleichauf. Nur das halt die RT Effekte gerade in dem Spiel einen krassen Unterschied machen.
Aktuell läuft Horizon Forbidden West rauf und runter- Rastergrafik only. Ich kann jetzt schwer beurteilen, ob und was da fehlt, aber im Vergleich zu den einschlägigen Youtube-Videos stelle ich keine Unterschiede fest. Ich bin komplett offen, was den Anbieter angeht - Intel, Nvidia, AMD (AMD ist mir - warum auch immer - grundsätzlich sympathischer), aber im Grafikbereich hat Nvidia derzeit das bessere Paket.
 
Und Sicherheitlücken ist es leider auch eher Umgekehrt, Nvidia hat 2023 die letzten eklatanten Sicherheitslücken im GPU Bereich gehabt, AMD gerade jüngst wieder massiv April/Mai 24 in großem Umfang.
Ich erspare mir mal die Richtigstellung der anderen Punkte (hat im Post davor ja auch nicht geholfen und wurden mit "Annekdoten" und "Whataboutism" pseuda-argumentiert.
Aber hier sieht an exemplarisch bei einem extrem kritischen Thema Security wie schlimm Leugnen und Wegsehen sein kann: da werden 42000 Einzelsysteme aufgesetzt mit Bauchgefühl statt Wissen und dann wundert man sich über Sicherheitsvorfälle in Deutschland.

Statt IT nach Bauchgefühl empfiehlt es sich mit objektiven Daten vertraut zu machen, wie
Auch 2024 stopfte Nvidia in ihrem Treiberpaket etliche Sicherheitslücken (auch einige der Priorität "Hoch").

Bei allem kann der persönliche Geschmack (wie weiße Karte muss sein), Fanboismus oder sowas wie Benchmarks und Preis optional sein, aber gerade im professionellem Umfeld ist Wissen und Sicherheit neben der Funktionalität das wichtigste.
 
Zum Thema Hogwarts Legacy: Da bin ich von 6900XT auf 4080 umgestiegen. Mit der 6900XT hab ich mir sämtliche RT Einstellungen angeschaut. Da ging nichts. In High ist die abgeschmiert, ansonsten <20 FPS. In Rastergrafik lag sie gleichauf. Nur das halt die RT Effekte gerade in dem Spiel einen krassen Unterschied machen.
Naja, von einer Generation später (insbesondere eine die Fokus auf RT legt) und für viel Geld erwarte man schon eine gewisse bessere Performance (4080 1.329€ UVP 2022 vs. 6900XT 999€ UVP 2020).
 
Naja, von einer Generation später (insbesondere eine die Fokus auf RT legt) und für viel Geld erwarte man schon eine gewisse bessere Performance (4080 1.329€ UVP 2022 vs. 6900XT 999€ UVP 2020).
Die Karten waren jeweils parallel erhältlich. Die 7000er Radeons gab es noch nicht, die 40X0er Nvidias bereits mehr als ein halbes Jahr. Und zum Preis: Ich habe für beide Karten den gleichen Preis bezahlt - Krypto-Scheiße dies das.
 
Ich erspare mir mal die Richtigstellung der anderen Punkte (hat im Post davor ja auch nicht geholfen und wurden mit "Annekdoten" und "Whataboutism" pseuda-argumentiert.
Aber hier sieht an exemplarisch bei einem extrem kritischen Thema Security wie schlimm Leugnen und Wegsehen sein kann: da werden 42000 Einzelsysteme aufgesetzt mit Bauchgefühl statt Wissen und dann wundert man sich über Sicherheitsvorfälle in Deutschland.

Statt IT nach Bauchgefühl empfiehlt es sich mit objektiven Daten vertraut zu machen, wie
Auch 2024 stopfte Nvidia in ihrem Treiberpaket etliche Sicherheitslücken (auch einige der Priorität "Hoch").

Bei allem kann der persönliche Geschmack (wie weiße Karte muss sein), Fanboismus oder sowas wie Benchmarks und Preis optional sein, aber gerade im professionellem Umfeld ist Wissen und Sicherheit neben der Funktionalität das wichtigste.
Was Du als Bauchgefühl bezeichnest sind RMA Supportstatistiken die wir auch regelmäßig auswerten, was Softwareseitig passiert ist Kundensache, nicht unsere.
Und mit Fanboy hat das nichts zu tun, ich nutze privat eine RX6800, eine 5700XT, eine ARC 770, eine RTX 3080ti und eine 4070 Super, eine Pro W7800 und eine PNY RTX 4500 ADA.
Und kann daher auch hier klar sagen, dass die Nvidia Modelle in Sachen Leistung und Effzienz besser Abschneiden und in Sachen Plug n Play deutlich angenehmer und problemloser sind. Auch hier ist die Häufigkeit der Bugs mit auswirkung auf die Nutzung in der AMD Software deutlich häufiger.
Auch wenn ich bei den AMD Karten ausschließlich AMD Pro Software nutze, bei Nvidia die Gaming Varianten
Die AMD Karten laufen fast alle UV und Optimiert, weil sie @Stock sonst deutlich schlechter abschneiden würden.
 
Oben Unten