NVidia Neue Informationen deuten grundsätzliche Änderungen im Aufbau der Navi-Architektur an - Fesseln gelöst?

P

Paul Stanik

Guest
Radeon.jpg


Paul Stanik submitted a new blog post

Continue reading the Original Blog Post.
 
Da bin ich ja mal gespannt, ob AMD das Problem wirklich lösen konnte. Der tag Nvidia ist aber mal wieder falsch ;)
 
Fesseln gelöst, welche Fesseln? Nur weil die Radeons in Spielen nicht ganz an Nvidia heran kommen kann von Fesseln doch gar keine Rede sein. Ihr schreib doch selber das bei Compute die Krallen gezeigt werden. Ich bin mit meiner Radeon zu Frieden und sehe keine Fesseln... Bitte nicht so reißerisch wie bei PCGH, denn die sind kurz vor Bildniveau.

Mfg Inelouki
 
Vergleich mal die Rohleistung mit dem, was am Ende als fps rauskommt, da kann man schon von "Fesseln" sprechen.
 
Das kann ich auf verschiedene Arten interpretieren, in Sachen Compute wohl kaum.
Mfg Inelouki.
 
Fesseln gelöst, welche Fesseln? Nur weil die Radeons in Spielen nicht ganz an Nvidia heran kommen kann von Fesseln doch gar keine Rede sein. Ihr schreib doch selber das bei Compute die Krallen gezeigt werden. Ich bin mit meiner Radeon zu Frieden und sehe keine Fesseln... Bitte nicht so reißerisch wie bei PCGH, denn die sind kurz vor Bildniveau.
Die Fesseln die dafür sorgen das zum Beispiel eine Vega 56 die in der theoretischen Rechenleistung mehr Power hat als eine RTX 2080 (10.5 TFlops vs. 10.1 TFlops) in den Spielebenchmarks nur mit einer RTX 2060 (6.5 TFlops) konkurieren kann, und dementsprechend günstig verkauft werden muß. Das ist in keinster Weise reißerisch, sondern technisch völlig korrekt dargestellt das es den AMD-Karten schlicht nicht gelingt ihre Rohleistung in Spiele-Engines effizient zu nutzen, sondern nur auf dem Niveau einer NVidia-Karte mit ~70% der Rechenleistung zu landen. Was sich dann auch im hohen Stromverbrauch im direkten Vergleich bemerkbar macht.
 
Wie immer muss man hier die Gerüchte mit Vorsicht genießen. Aber, dass Navi Änderungen an der Arch haben wird, wurde ja schon lange auch von AMD genannt. Wie diese aussehen, um die Effizienz etc. zu erhöhen werden wir noch sehen. Die Neuordnung der Cluster ist da sicher ein probates Mittel, ist ja bei Nvidia nicht anders.
Grundsätzlich muss man sich aber dann fragen, wie die genannten Preise aus China zustande kommen. Deutlich weniger Shader als die R56, kein HBM Speicher, 7nm, und dennoch bis 499,- Dollar? Das ist nicht schlüssig. Die Dollarpreise sollten wir nicht allzu ernst nehmen. Das sind vielleicht nur Maximalpreise für die USA, wenn die weiteren Strafzölle so kommen wie angekündigt. Ich sage weiter, dass die große Navi bei uns 400,- € kostet.
 
Dein Wort in Fabelwesen's Gehörgang!
 
Naja, WENN AMD da eine Karte an der Hand hat die in der Leistung eine RTX 2070 übertrifft, dann werden sie diese auch für 500 $/€ auf den Markt bringen können. Wieviele Shader es hat oder welche Art von Speicher interessiert den Kunden ja nicht wirklich, solange die Leistung im angestrebten Einsatzbereich stimmt.
 
Und wie wollen sie dann Marktanteile gewinnen? Sie bieten dieselbe Leistung ohne Zusatzfeatures wie RT zum selben Preis. Ja da muss man umsteigen, haste Recht ;)
 
Bin weiterhin gespannt was uns AMD nun genau präsentieren wird. Auch wenn ich genau wie der Rest den Preis eigentlich für zu hoch halte, finde ich es nicht ganz unwahrscheinlich das AMD es versuchen könnte. halt den Kunden der ersten Stunde eine entsprechende Marge zu entlocken in den Folgemonaten aber vielleicht relativ zügig den Preis nach unten wandern lassen um der hoffentlich entfachten Freude an der mehr oder weniger neuen Architektur auch ein entsprechend hohen Marktanteil zu schaffen indem man sich dem Mainstream besser annähert.

Ich persönlich würde für eine vernünftige Partnerkarte (gute Kühllösung, OC egal) mit Leistung auf 2070 Niveau für ~400€ tatsächlich aufrüsten. Bei einem schlechteren Preis-/Leistungsverhältnis, werde ich meine 290X für ein weiteres Jahr nutzen.
 
Die Fesseln die dafür sorgen das zum Beispiel eine Vega 56 die in der theoretischen Rechenleistung mehr Power hat als eine RTX 2080 (10.5 TFlops vs. 10.1 TFlops) in den Spielebenchmarks nur mit einer RTX 2060 (6.5 TFlops) konkurieren kann, und dementsprechend günstig verkauft werden muß. Das ist in keinster Weise reißerisch, sondern technisch völlig korrekt dargestellt das es den AMD-Karten schlicht nicht gelingt ihre Rohleistung in Spiele-Engines effizient zu nutzen, sondern nur auf dem Niveau einer NVidia-Karte mit ~70% der Rechenleistung zu landen. Was sich dann auch im hohen Stromverbrauch im direkten Vergleich bemerkbar macht.
Du sagst es: "in Spiele-Engines". Dann sollte das auch so kommuniziert werden, z.B. durch "Gaming-Fesseln gelöst". Wobei selbst das noch zu pauschal ist, weil die Engines auch massiv unterschiedlich sind (ältere DX11 Engines sind auf AMD deutlich langsamer als Vulcan oder DX12-Engines).
Dann kann man aber auch andererseits bei NVidia von Fesseln hinsichtlich Compute reden, denn eine Titan V (die schon erheblich schneller als alle Gamer Karten von NV ist) ist z.B. in Monero langsamer als eine Vega64, trotz deutlich mehr FLOPs... Die Überschrift war da etwas unpräzise, es ist ja nicht so, dass die Architektur generell schlecht ist, die ist halt nur nicht für's Gaming ausgelegt.
Bezüglich dem Preis muss man natürlich auch sagen: UVP ist nicht gleich Straßenpreis. Ich denke auch, dass nach dem Einpendeln am Markt der Preis bei um die 400€ liegen muss (vorausgesetzt, die Behauptung bezüglich Leistung ist korrekt). Wobei da natürlich auch andere Faktoren wichtig sind. Es kam ja die Aussage, dass man DXR bieten wird (wohl über die Shader), da ist dan relevant, wie schnell das ist. Und der Verbrauch der Karten ist auch noch absolut unklar. Aber ich denke, dass man schon über 10% billiger als NV sein muss, um die Marktanteile zu steigern.
 
Ich finde ihr zieht euch etwas stark an dem Wort "Fessel" hoch. Fakt ist nun mal das es seit Jahren die große Schwachstelle der GCN Architektur ist die Schader in Spielen vernünftig aus zu lasten. Denn zuallererst sind es nun mal Grafikkarten, deren Hauptaufgabengebiet es ist Spiele darzustellen. Das bei der Entwicklung auch auf andere Gebiete geachtet wurde ist eher als Bonus zu sehen um sich auch andere Märkte zu öffnen. Nur wahr vielleicht auch eben das der Grund warum GCN nicht so ganz mit Nvidia mithalten kann. Und das wiederum ist schlecht für AMD da hierdurch vergleichsweise große Chips produziert werden mussten, die aber gleichzeitig günstiger sein müssen um andere Schwächen wie den höheren Verbrauch etwas auszugleichen.
 
Sie bieten dieselbe Leistung ohne Zusatzfeatures wie RT zum selben Preis.
Dieses "Zusatzfeature" ist bei der 2070 ähnlich brauchbar wie die RGB Beleuchtung einer Grafikkarte im geschlossenen Gehäuse. Wie viele Spiele unterstützen das? Wie viele Frames schafft ne 2070 in WQHD mit RT on. Und was war nochmal DLSS? Ein Feature um den Leistungsverlust mit RT on aufzufangen? Ich bin sehr gespannt auf die neue Generation GraKas. Hatte mir von den Grünen eigentlich 4K in chic und mit ordentlichen Fps/Frametimes erhofft, aber nicht mit Gedöns und zu dem Preis. Wenn Navi das jetzt ohne RT aber zu vertretbaren Preisen mitbringt, bin ich dabei.
 
Dieses "Zusatzfeature" ist bei der 2070 ähnlich brauchbar wie die RGB Beleuchtung einer Grafikkarte im geschlossenen Gehäuse. Wie viele Spiele unterstützen das? Wie viele Frames schafft ne 2070 in WQHD mit RT on. Und was war nochmal DLSS? Ein Feature um den Leistungsverlust mit RT on aufzufangen? Ich bin sehr gespannt auf die neue Generation GraKas.
^This

Irre wie schnell dieser RT Kram ein must have geworden ist. Da wird alle Logik über Bord geworfen, hauptsache Buzzword (generell, nicht direkt auf THW bezogen).
Klasse Marketing Stunt. Chapeau Jen-Hsun.
 
@grimm Es ist kein "Must Have" und mir eigentlich auch egal. Aber die Technik ist eben da und wie man an Metro sieht mit der Beleuchtung etc. kann das durchaus sinnvoll und toll aussehen/spielbar sein mit der Karte, auch wenn es aktuell noch nicht vieles dafür gibt. Ich rechne jedenfalls damit, dass Käufer bei Preisen um 4-500,- € die Karten auch etwas länger behalten, geht mir jedenfalls so. Wer weiß, in einem Jahr ist man dann vielleicht froh, dass man sich dafür entschieden hat. Wenn man mit der einen Karte also dasselbe bekommt und die Möglichkeit hat zukünftig die Effekte von RT auch breit zu nutzen, warum sollte ich dann die Karte nehmen, die dies nicht bietet zum selben Preis? Man hätte ja keine Nachteile, nur evtl. Vorteile. Das war die Intention. Auch wenn ich kein Nvidia Fan bin, würde ich mich in einer solchen Situation für die Nvidia Karte entscheiden aus oben genannten Gründen.
 
@Seskahin: das wollte ich dir auch garnicht ankreiden. Ich glaube nur nicht, dass Spiele, die im kommenden Jahr mit RT-Features kommen mit ner 2070 flüssig darstellbar sind. Das wäre ja zum ersten Mal in der Geschichte der Grafikkarten-/Spiel-Entwicklung, dass ältere Hardware aktuelle Spiele besser darstellt. Ich gehe fest davon aus, dass jeder, der heute keine 2080 Ti im Gehäuse hat, die RT-Features, wenn sie kommen, nur nutzen kann, wenn er dann aktuelle Hardware nachrüstet.
 
Aber die Technik ist eben da und wie man an Metro sieht mit der Beleuchtung etc. kann das durchaus sinnvoll und toll aussehen/spielbar sein mit der Karte, auch wenn es aktuell noch nicht vieles dafür gibt.
Bin absolut bei dir: Es ist ne super Technik und in Verbindung mit HDR etwas was uns einen riesen Sprung in Richtung Fotorealismus ermöglicht.
Nur eben in allererster Generation.
Ich gehe nicht davon aus dass die 70 und 80 die nötige Leistung haben um das auch in künftigen Spielen auf den Monitor zu zaubern, lass mich aber gerne eines besseren belehren.
 
Sagen wir mal so: ich hab zwei Spiele die RT und/oder DLSS meiner 2080Ti unterstützen und spiele davon... keins.

Macht mir aber nix, das wusste ich und RT/DLSS habe ich eher so als potenziellen Bonus berücksichtigt. Unterm Strich wären natürlich schon mehr heute schon verfügbare Games nett gewesen, wo das optisch einen Unterschied macht. So wie es jetzt aussieht, dauert das noch bis zur nächsten Spiele-Generation. De facto wird es dann also auch schon die nächsten, wenn nicht übernächsten Grakas (auch von NVIDIA) geben.

Bleibt die nackte Performance der 2080Ti, die sicherlich höher als die der 1080Ti ist, aber mMn aktuell und unter reinen Vernunftaspekten den Preiszuschlag damals bei meinem Use-Shenario nicht wirklich rechtfertigte. Aber vielleicht kann ich mit der dann doch die nächsten RT-Games noch vernünftig daddeln und kann die nächste GPU-Gen überspringen. Wenn nicht, tja dann heißt halt Zähneknirschen oder in den sauren Apfel beißen. Und Vernunft und Gaming-Hobby ist ja nun auch nicht die zwingendste Kombination... ;)
 
Oben Unten