News Neuigkeiten und Gerüchte zu RDNA2 (Sammelstrang)

Autos gibts aber 100te. Grakas gibts 2 Firmen. Übertrieben gesagt.

Für mich ist die Sache durch. Du sagst ja selber das es in Zukunft Standart werden wird. Und das denk ich halt auch. Die ganz genauen feinen Details sind für mich da relativ egal. Ich denke nicht das Nvidia die nächsten Karte plötzlich nochmal GTX benennen wird.

raytracing wird ein standard, da geh ich fest davon aus, aber nicht die nvidia-version. die wird genau wie gsync wohl immer ein nischenfeature bleiben.

denke nicht, dass sich viele entwickler nebst dem konsolen bzw. amd-raytracing noch den aufwand für nvidia-raytracing gönnen werden...
 
@huberei: was hat meine Aversion gegen Kraftfahrzeuge (speziell PKWs) mit dem Beispiel, welches kein Vergleich ist, an sich zu tun? Nichts, gar nichts oder überhaupt nichts? Eben. Hätten wir das geklärt. Plus: lern mal das Zitieren, das da oben ist grob aus dem Zusammenhang gerissen.
 
raytracing wird ein standard, da geh ich fest davon aus, aber nicht die nvidia-version. die wird genau wie gsync wohl immer ein nischenfeature bleiben.

Es gibt keine "NVidia" Version von RayTracing. Es gibt nur einige wenige Funktionen, die NVidia zusätzlich zum DXR Standard anbietet. Die meisten davon sind aber bereits in DXR 1.1 aufgegangen.

Ich würde zu gerne wissen, wieso dieses Gerücht herkommt, RayTracing wäre NVidia-Proprietär.
 
Es gibt keine "NVidia" Version von RayTracing. Es gibt nur einige wenige Funktionen, die NVidia zusätzlich zum DXR Standard anbietet. Die meisten davon sind aber bereits in DXR 1.1 aufgegangen.

Ich würde zu gerne wissen, wieso dieses Gerücht herkommt, RayTracing wäre NVidia-Proprietär.


es gibt rtx und dxr, das eine ist nvidia exklusiv (proprietär) und das andere eben nicht. und auch wenn sehr ähnlich, es ist nicht das selbe.
es hat niemand behauptet raytracing sein nvidia-proprietär. also bitte nicht irgendwelches zeigs behaupten.
 


Hier mal zwei Links zum Thema Ray Tracing. Sollte man sich mal angeschaut haben. Gibt es auch Hinweise zur Entwicklung etc.

Ich bin gespannt wie es in rdna 2 umgesetzt wird.

Die ersten leaks sind ja vielversprechend. Jetzt ist die Frage kommt es so wie in den leaks. Passt die Performance und Verbrauch. Sehen wir nochmals HBM auf einer Consumer Karte.
 
es gibt rtx und dxr, das eine ist nvidia exklusiv (proprietär) und das andere eben nicht. und auch wenn sehr ähnlich, es ist nicht das selbe.
es hat niemand behauptet raytracing sein nvidia-proprietär. also bitte nicht irgendwelches zeigs behaupten.

RTX ist die Implementierung von DXR von NVidia + eigene Extensions. Quelle: Wikipedia.

Jetzt bitte eine Quelle für Deine Gegenbehauptung.
 
Zuletzt bearbeitet :
Sobald eigene Extensions, und die sind nunmal Nvidia-Only, mit beigefügt wurden, ist es meiner Meinung nach exclusiv. Stammt von deinem eigenen Zitat.

Die Extensions (für Denoising) waren nicht Teil von DXR 1.0. Sie wurden in DXR 1.1 aufgenommen. D.h. die Spiele müssen die RT Features über DXR nutzen, das Denoising mussten sie bis DXR 1.0 aber über die proprietären Extensions machen.

Ab DXR 1.1 gibt es meines Wissens keinen Grund mehr, auf die NVidia Extensions unter Direct3D zurückzugreifen.

Ob die Spiele nun aber explizit das Vorhandensein von NVidia Extensions abprüfen und ohne nicht laufen oder sie mit jedem DXR kompatiblen Treiber auch RT Effekte zeigen, kann ich nicht sagen. Es spricht jedenfalls nichts dagegen, dass sie das tun könnten. Sehen werden wir es erst, wenn AMD einen DXR kopatiblen Treiber anbietet.

Unter Vulkan sieht es ganz ähnlich aus: Es gab erst NVidia-eigene Extensions und dann offizielle Extensions, die von NVidia auch implementiert wurden: https://www.khronos.org/blog/ray-tracing-in-vulkan

D.h. ein Wolfenstein: YB sollte ootB mit einem AMD Vulkan Treiber RT Effekte zeigen können.
 
@Grestorn: Diese Tatsache war mir leider nicht bekannt. Somit wurden die Extensions, die in der Version 1.0 noch exclusiv und proprietär waren, in der Version 1.1 zum Standard gemacht, an den sich alle Anderen Hersteller zu halten haben. Und ob die Spiele irgend etwas machen oder nicht ist nicht das Verschulden von Nvidia. Sehe ich das jetzt soweit richtig?
 
@Grestorn: Diese Tatsache war mir leider nicht bekannt. Somit wurden die Extensions, die in der Version 1.0 noch exclusiv und proprietär waren, in der Version 1.1 zum Standard gemacht, an den sich alle Anderen Hersteller zu halten haben. Und ob die Spiele irgend etwas machen oder nicht ist nicht das Verschulden von Nvidia. Sehe ich das jetzt soweit richtig?

Ja, das ist mein Verständnis. "Zu halten haben" ist natürlich relativ. "Zu haben" haben sie gar nichts, aber als Hersteller hast Du Interesse daran, dass Dein Spiel ein möglichst breites Feld an HW unterstützt.

Alte RT-Spiele werden hoffentlich an AMD angepasst, aber eine Garantie gibt es dafür leider nicht. Alle Spiele, die ab jetzt veröffentlich werden, werden mit nahezu 100%iger Sicherheit auf AMD angepasst sein. Und ich hoffe, auch Control, Metro:Exodus und einige andere wichtige Spiele der Vergangenheit ebenso, wenn sie nicht bereits ootB mit AMD RT laufen.
 
Danke für deinen Erfahrungsbericht.

@Gregor Kacknoob: du stehst mit deiner Einschätzung ziemlich alleine. Einige Details im Link, um Eragoss' Beitrag zu unterstützen.
Danke auch für deine, nicht ganz charmante, Einschätzung zu meinem Alleinstellungsmerkmal im Diesseits. Ich schätze, mit der Eigenschaft sind wir beide nicht ganz allein. Kleiner ungefragter Seitenhieb zurück ;)

verstehe das problem jetzt nicht ganz. solange das ergebnis stimmt, ist es doch egal wie sie das hincheaten.
schliesslich wurden doch gerade bei der gamegrafik immerwieder tricks und kniffe angewandt um optik und leistung zu verbessern.

wer erinnert sich noch an die mitdrehenden 2d-bäume aus mario64? XD


jetzt muss es aber aufeinmal unbedingt alles pur und echt sein... man kann sich sachen auch schlechtreden.
Du meinst z.B. das Post-Processing, welches in Teilen ohne Antialiasing nicht richtig funktionieren würde? Hoffentlich sitzt du gerade stabil: ich verzichte auf AA so weit es geht und ärgere mich in manchen Titeln darüber, dass selbst wenn man nicht genau hinsieht, matschigen Pixelbrei zu sehen bekommt, was aus einem naiven Standpunkt hätte vermieden werden sollen. Aber ganz ohne PP geht es auch nicht, wenn das Gesamtbild verzücken darf/soll. Unterm Strich weiß ich PP/AA zu schätzen :)


Zur Klarstellung: es ging und geht mir nicht darum was für oder gegen DLSS & Co bzw. dessen Qualität spricht. DLSS und auch Farbunterabtastung haben ihre Daseinsberechtigung. Dennoch darf mich das Colour banding nerven. Ebenso dürfen mich Artefakte bei UHD/HDR Inhalten auf Netflix / Co. nerven. Alternativ ginge DLSS=off, FullRGB oder Blu-Ray statt Stream (in den verschiedenen Anwendungsbereichen). Beides hat seine Vor- und Nachteile. In beiden Fällen gibt es Situationen, in denen man sich das Eine oder Andere (herbei) wünschen möchte.

Mir geht es um das, in meiner Wahrnehmung neu aufgekommende, präventive & kollektive Hoffen auf ein ((noch) besseres/vergleichbares) DLSS & Co. vor Erscheinen einer neuen Grakageneration. Davor schien es um pure Leistung gegangen zu sein, was voll mein Ding ist. Genauer gesagt ist die Hoffnung nicht die Quelle meiner Befürchtung, und ohne Meinungsverschiedenheit wärs auch langweilig, sondern, dass sich die Hersteller darauf Stürzen und mehr Geld für Post-Processing als für Leistung (pro Watt) liefern. Das DLSS & Co. alternativlos werden würden. Es ohne nicht mehr ginge.

Ich hoffe, dass die rohe Leistung weiter die Hauptrolle spielt. Ich hoffe, dass wenigstens ein Hersteller diese Rolle übernimmt beibehält oder es meinetwegen (spezielle) Grakas für mehr Rohleistung in Spielen zu kaufen geben wird. Daher meine Frage, auch in Richtung FidelityFX. Ist es die Nachfrage oder ist es eine technische Notwendigkeit auf Seiten der Hersteller.


Wenn ich damit alleine stehe, na um so besser. Diskurse mag ich ebenso, wie die Dinge auch mal aus verquillten Perspektiven zu betrachten 😇

Edit: und meinen Jogurt aß ich schon immer am liebsten mit echten Erdbeeren statt 1/4 Erdbeere pro Becher mit Farbe und Aromen. Am besten ohne Milch, Sahne und ohne Verdickungsmittel nebs drei verschiedener Zuckerarten. Schon immer <°((((-<

Edit1b: Den Farbbecher gibts dann erstmal zum selben Preis, der Gute verschwindet erstmal und später kostet der (mit echten Erdbeeren), nun Pur Super Premium Deluxe Natur, das dröfzigfache.
 
Zuletzt bearbeitet :
Wie ich schon schrieb wird Nvidia sich kaum noch selber ins Fleisch schneiden und mit der nächsten Generation plötzlich keine Tensor Cores mehr verbauen sondern auf einmal Wasweißichcores. Das wäre doch extremst dumm. Es gibt eigentlich nur noch eine Möglichkeit das es anders kommt... Etwas anders wie zb AMDs Umsetzung von Ray Tracing ist ums x fache besser. Dann muss Nvidia sich das anschauen, analysieren und gleichzeitig nochmal was neues, besseres bringen. Aber ganz ehrlich... Wer von uns glaub das das wirklich noch passieren kann. Nvidia hat die Tensor Cores nun schon seit 6 Jahren in Entwicklung? Ka. Die Entwickler werden sich schon drauf verlassen können das Nvidia das nun immer bringt. Darum gehts mir und das wird auch so kommen behaupte ich.
 
Wie ich schon schrieb wird Nvidia sich kaum noch selber ins Fleisch schneiden und mit der nächsten Generation plötzlich keine Tensor Cores mehr verbauen sondern auf einmal Wasweißichcores. Das wäre doch extremst dumm. Es gibt eigentlich nur noch eine Möglichkeit das es anders kommt... Etwas anders wie zb AMDs Umsetzung von Ray Tracing ist ums x fache besser. Dann muss Nvidia sich das anschauen, analysieren und gleichzeitig nochmal was neues, besseres bringen. Aber ganz ehrlich... Wer von uns glaub das das wirklich noch passieren kann. Nvidia hat die Tensor Cores nun schon seit 6 Jahren in Entwicklung? Ka. Die Entwickler werden sich schon drauf verlassen können das Nvidia das nun immer bringt. Darum gehts mir und das wird auch so kommen behaupte ich.
So wie es bis jetzt aussieht, unterscheiden sich AMD's und NVidias Ansatz so: NVidia nutzt eigene "Cores" für je RT und Tensor-Ops, also quasi unabhängige Hardware neben den FP- und Int-ALUs. Dadurch haben sie sehr spezialisierte Hardware, allerdings braucht das viele Transistoren. Ich schätze außerdem, dass die Hardware schwerer auszulasten ist, weil nicht immer alle Cores gleichzeitig arbeiten können und immer wieder Leerlauf haben. AMD hat anscheinend einen anderen Ansatz gewählt, bei dem nur die Schnittpunktprüfung beim RT auf eigenen Transistoren läuft, der Rest die vorhandenen ALUs mit nutzt. Dadurch ist vermutlich die Auslastung besser, bei allerdings insgesamt weniger Hardware-Power. Ähnlich wohl bei MI-Tasks. Beide Ansätze haben ihre Vor- und Nachteile.
 
Raytracing interessiert mich persönlich eher wenig und das wird auch in den nächsten 2 Grafikkartengenerationen massive Leistungseinbußen mit sich bringen. Insbesondere, wenn man dann wieder eine Technologie wie DLSS benötigt, um wieder spielbare Bildwiederholraten zu erhalten. Cyberpunk 2077 will gleich vier Raytracing Features bieten, das dürfte dann auch ein RTX3090 SLI-Gespann selbst mit DLSS ins schwitzen bringen. "Will it run CBP'77 with RT?" Maybe, Baby.

Ich bin froh, wenn BigNavi mit der restlichen Leistung irgendwo zwischen RTX3070 und 3080 herauskommt und für unter 700€ zu bekommen ist.
 
Ich hoffe, dass die rohe Leistung weiter die Hauptrolle spielt. Ich hoffe, dass wenigstens ein Hersteller diese Rolle übernimmt beibehält oder es meinetwegen (spezielle) Grakas für mehr Rohleistung in Spielen zu kaufen geben wird. Daher meine Frage, auch in Richtung FidelityFX. Ist es die Nachfrage oder ist es eine technische Notwendigkeit auf Seiten der Hersteller.

Das ist auch meine Sichtweise. Rohpower. Nutze in vielen Spielen und so oft es geht mit meiner "betagten" 1080 Ti DSR 4fach und habe eine Auflösung von 7680*3200.
Das erspart sehr oft das einschalten von AA und anderen Sachen.
Leider, so denke ich, werden wir zukünfig mehr und mehr in Sachen DLSS und Fidelity FX, RIS, ML etc. sehen, also quasi als technische Notwendigkeit.
Die GPUs sind ja bald an der Grenze des physikalisch machbaren, es müssen also Wege gefunden werden um mehr "Leistung" an den Endkunden zu bringen. Ob RDNA 3 dann in Richtung Chiplet geht munkelt man ja. Aber das ist noch weit weg.
 
das soll der Navi21 Die sein (die Kondensatoren an den Seiten will er aber abgeändert haben)




den einzigen Leak den wir bisher haben zeigt ein 256 Bit GDDR6 Interface
Unsägliche Stimme in diesen Videos. Nicht wirklich erträglich. Aber das ist nur meine persönliche Meinung.
Riesenchip mit "nur" 256 bit GDDR6 und/oder gleichzeitiger Anbindung von HBM2 plus geheime Sauce in Form von "Infinty Cache" direkt auf dem Die. Und inwiefern man den Einträgen für die Linuxtreiber und Big Sur glauben darf ist mal dahingestellt, da widerspricht sich immer so einiges. Verdammt hält AMD hier dicht, man fasst es nicht.
 
Oben Unten