News Neuigkeiten und Gerüchte zu RDNA2 (Sammelstrang)

Bis 28.10 ist es verdammt lange noch, wie soll ich das noch aushalten? 🥴
Bei dem Video bin ich immer zu den teilen gesprungen, wo die kompletten Texte abgebildet waren, kurz Pause / gelesen und weiter.

Es steht und fällt alles damit, wie gut es AMD gelingt die doppelte Shaderleistung in Gamingleistung umzuwandeln. Ich hoffe sehr das es vollwertige Shader mit Int32 und FP32 Einheiten sind, so das die Tflops/Gaming Leistung nicht mit der RTX 30xx Serie vergleichbar ist.

Ich finde da den Vergleich der Leistung mit der RX 5700 XT vs RTX 3080 ganz gut. Die RX 5700 XT schafft ca. 55-60% der Leistung der RTX 3080.
Die voraussichtliche RX 6900 hat laut Leaks die doppelte Shaderanzahl, Architekturverbesserungen, eine deutlich höhere Taktrate und flotteren GDDR-6 Speicher. Wenn das Gerücht stimmt, könnte die Speicheranbindung von 256bit ein Nadelöhr sein. Letztlich spricht aber vieles dafür das die Karte mit der RTX 3080 mithalten kann. Völlig unklar bleibt, wie gut das mit Raytracing und der DLSS Alternative klappt :unsure: Gerade DLSS 2.1 kann aktuell wirklich gut überzeugen - nur die breite Spieleunterstützung fehlt noch.
 
Es kommt auch drauf an wie gut sich Navi mit Ray Tracing schlägt und wie man das überhaupt implementiert. Falls AMD dies einfach (lol...) besser macht dann kann das schon sehr viel bewirken. Nvidia mag viel erzählen wenn der Tag lang ist aber wir haben halt gar keinen Vergleichswert (Maximal noch die Konsolen aber die kommen ja auch erst so wirklich raus nächsten Monat. Dennoch denke ich das Xbox und vor allem Sony da sehr viel mit investiert hatten in der Entwicklung und Forschung. Cerny hat das ja sogar Bestätigt. Man muss wie schonmal gesagt nur an ne 3080 ran kommen wenn der Rest dann auch stimmt. Wenn zb Ray Tracing bei AMD dann in allen Spielen ca 10 FPS mehr bringt. Oder die Ladezeiten bei AMD SOFORT auf 0 fallen (nicht ganz aber halt sehr viel weniger). Die zwei Beispiele sind nur Beispiele. Ich sag nicht das es so kommt... Bevor wieder jemand was von ich mal mir die Welt quatscht. Es ist halt vorstellbar und hat mehr Substanz als ne Big Navi die ne 3090 schlägt.
 
Die RTX 3090 ist in 4k im Schnitt um Faktor 2,09 schneller wie eine RX 5700 XT.(lt. PCGH Leistungsindex). Da sehe ich auch die Chancen als gering an, das BigNavi da ran kommt. Für Ray Tracing erwarte ich keine Wunder, wenn da die Performance einer RTX 3070 erreicht wird, wäre ich schon glücklich. Für AMD ist es ja die 1. Generation (parallel mit Xbox und PS5), dass hier gleich der große Wurf gelingt bezweifle ich. An andere Stelle habe ich schon gehört, das gar nicht so viel Ray Tracing Effekte bei den Next Gen Titeln der neuen Konsolen zum Einsatz kommen, da sonst zu viele Kompromisse an anderer Stelle eingegangen werden müssen - es schlicht zu viel Leistung Frist und bewährte Techniken ähnlich gute Resultate erzielen.

Meine Erwartungshaltung ist gar nicht so hoch, wenn BigNavi zwischen der RTX 3070 und der RTX 3080 liegt, bin ich schon glücklich.
 
Konsolen sind so gar nicht mein Ding, @Brezelbieber, von daher meine Frage an dich: gab es eine Auswahl? Soweit ich das mal rückverfolgte sind die davor ebenfalls von AMD bestückt worden, was ein bißchen auf Zwangsläufigkeit schließen laßt.
 
Zuletzt bearbeitet :
glaube die konsolenhersteller haben praktisch keine wahl.
wer ausser amd liefert cpu/gpu packages mit genügend leistung und entsprechender erfahrung?
genau, niemand. aber rein technisch, sind die wohl auch zufrieden mit der zusammenarbeit.
 
Die letzten Generationen waren stets AMD custom SoCs.

Wie es bei der PS3 Generation aussah, weiß ich nicht. Nvidia hat aber irgendwann die Konsolen 'verloren'.

Die Switch basiert auf einem Nvidia Tegra.
 
Ps2 glaube ich noch ein sony-chip drin. ps3 weissich auch grad nicht.

stimmt die tegra-switch hatte ich völlig vergessen.
das dürfte dann für die nächste nintendo-gen auch wiederauf nvidia hinauslaufen. alleine wegen der dort sehr beliebten rückwärtskompatibilität...
 
Was hier komplett untern Tisch fällt: Kann AMD ähnlich mit seinem DLSS Pendant RIS nachlegen wie Nvidia? Eventuell wurde für die Konsolen etwas in der Richtung weiterentwickelt, um die 4k dort zu ermöglichen.
 
Ich hoffe sehr, dass AMDs BigNavi auf kein DLSS angewiesen ist, um es bewusst etwas toxisch auszudrücken. Schön, wenn man es nutzen könnte, wenn es nötig (werden sollte). Ist das FidelityFX nicht soetwas?

Rohe Leistung, UHD mit mehr FPS als mit der 5700, alle Regler auf Max und ohne Helferlein wie DLSS brauche ich.

Aber ganz erlich: mich verwirrt es, dass immer wieder die Frage nach Methoden wie DLSS gestellt wird. Das fühlt sich für mich so an, als wünsche man sich 4:2:0 statt 4:4:4/FullRGB. Oder demnächst noch Monitore die nur Grün darstellen, statt schneller/besser reagierende Monitore. Schokolade mit mehr zugesetzen Mogelaromen, Jogurts mit mehr Verdickungsmittel und weniger Jogurt etc.

Die Vergleiche müssen nicht passen. Aber DLSS erweckt bei mir genau dieser Eindruck. Edit: kein guten. Unabhängig wie gut DLSS funktioniert odrr wie gut es mal funktionieren sollte.

Die Vorstellung, dass es hier zu einem Hype kommen könnte, von Seiten der Verbraucher, auch bei Lebensmitteln, erfüllt mich fast schon mit Angst.

Aber mir gehts hier tatsächlich um AMD, der Frage nach dem Unterschied oder der Sinn von FidelityFX und der Frage danach, warum nicht mehr nur nach mehr nativer Leistung/Qualität gefragt wird.
 
Zuletzt bearbeitet :
Die PS3 hatte den Cell-Prozessor als spezielle Entwicklung für die Konsole verbaut und soweit ich weiß eine NVidia-Grafik dazu. Ich meine die XBOX 360 hatte eine AMD-Grafik verbaut (genau wie die Wii). Ich glaube aber nicht, dass diese Konsolen sehr viel Geld eingebracht haben. Zumindest wenig im Vergleich zu Current- bzw. Next Gen.
PS4 und Xbox One sind komplett (munkelt man) auf AMD gewechselt, weil AMD zu dem Zeitpunkt Chips zu Spottpreisen verscherbelt hat, da sie fast pleite waren und mit den Konsolen-Deals ihr Überleben bis Zen gewährleisten konnten (zu der Zeit ist auch Lisa Su zur CEO geworden, nachdem ihr Vorgänger die Semi-Custom-Sparte innerhalb von AMD für diesen Zweck gegründet hatte). Außerdem konnte AMD eine integrierte Lösung von CPU und GPU liefern, was sie vermutlich als einzige Firma konnten, denn sie hatten mit APUs ja schon Erfahrung.
Warum jetzt Microsoft und Sony bei AMD bleiben (meine Einschätzung): Zum einen ist AMD immer noch der Anbieter mit der stärksten Kombination aus CPU und GPU und entsprechendem Preis (da sie die geringste Marge haben). Microsoft und Sony können so außerdem sehr einfach Abwärtskompatibilität gewährleisten. Und beide können sich bei AMD recht einfach Technologien rauspicken, und im Fall von Sony noch selbst eigene in die Grafikeinheit integrieren (Cerny sprach von Cache Scrubbers).
Edit: Sony hat gerüchteweise sogar sich in Teilen an der Entwicklung von RDNA2 beteiligt.
 
DLSS erweckt bei mir genau dieser Eindruck.
Einen guten oder schlechten?

Wenn du DLSS mit dem Wirkungsgrad von alten und neunen Motoren vergleichst dann sollte der Eindruck positiv ausfallen.
Wichtig ist dass wir mit der Technology ans Ziel kommen. Und DLSS ist nicht dumm, wenn es funktioniert - ich sehe da keine Nachteile.
 
Btw: da jetzt immer das Thema busbreite kam: was ist der Knackpunkt an einem breiteren Bus? Die nötige Anbindung an den Chip (mehr Chipfläche)? Der höhere Verbrauch und die höheren Temperaturen auf der Karte? Der notwendige Platz auf dem PCB?

Bei den 3000ern hat Nvidia ja auch verschiedene Varianten untergebracht. 256,320,384..
 
Btw: da jetzt immer das Thema busbreite kam: was ist der Knackpunkt an einem breiteren Bus? Die nötige Anbindung an den Chip (mehr Chipfläche)? Der höhere Verbrauch und die höheren Temperaturen auf der Karte? Der notwendige Platz auf dem PCB?

Bei den 3000ern hat Nvidia ja auch verschiedene Varianten untergebracht. 256,320,384..

1. Breiterer Bus => höherer Datentransfer

2. Breiter Bus => Teuer (Herstellungskosten und damit Kartenpreis wie auch TDP)

3. BigNavi hat möglichweise eine Form von On-GPU-Cache, welcher breite Busse scheinbar(?) unnötig macht

Punkt 3, vermutlich auch in Verbindung mit Sonys Mitarbeit, könnte ein Gamechanger für die zukünftige GPU Entwicklung darstellen.
 
Die stärkste Karte soll in etwa auf Höhe der 3080 sein in Spielen ohne Raytracing, wahrscheinlich leicht langsamer, möglicherweise aber auch bis zu ein paar Prozent schneller.
Wenn das zutrifft wäre ich schon wirklich erfreut. Alles zwischen 3070 und 3080 (am besten näher an der 3080) würde mir persönlich gefallen. Finde dem Kunden kann nichts bessere passieren als echte Konkurrenz und Auswahl. :) bin schon sehr gespannt auf die Folien am 28 und Igors Tests die Wochen drauf.
 
@Gemeindemoped
Ich hab mein Post mal angepasst. Auf mich macht das kein guten Eindruck. Geschönte Leistung mit Artefakten/Fehlern vs. native/echte/pixelgenaue Leistung.
 
@Gregor Kacknoob Ich hab ja eine ganze Zeit lang die RTX 2080 TI gehabt und 4k mit 60FPS geschweige denn 120 FPS sind je nach Spiel oft nur schwer zu erreichen bzw. mit spürbaren Qualitätseinbußen. Mit DLSS 2.1 haben es Nvidia und seine Partner geschafft die Qualität so anzuheben (teils sogar besser wie nativ) das 4k mit hohen Frameraten auch bei anspruchsvollen Spielen möglich ist. Klar, wenn ich nativ F1 2019 mit 120fps inkl. hochwertiger Kantenglättung spielen kann, dann ist DLSS nicht zwingend erforderlich. Aber bei Spielen wie "Deliver Us The Moon" ist DLSS 2.0/2.1 Gold wert, mit Raytracing & 4k wären hohe Frameraten nicht möglich. Die Alternative wäre dann nur die Auflösung runter schrauben oder die Details massiv reduzieren und das sähe wesentlich schlechter aus, wie wenn man das ganze mit DLSS in 4k und Raytraicing genießen kann.

Seit ich einen 120hz Bildschirm habe, kann ich auch beurteilen das mehr wie 60fps in 4k durchaus etwas ausmachen.

Ich hoffe natürlich sehr das AMD hier etwas bieten kann, was zu DLSS 2.0/2.1 konkurrenzfähig ist. Mit FidelityFX ist AMD hier schon auf dem richtigen Weg, aber es geht noch besser...
 
@Gregor Kacknoob: du stehst mit deiner Einschätzung ziemlich alleine. Einige Details im Link, um Eragoss' Beitrag zu unterstützen.
 
DLSS ist im Grunde eine Upskaling Technik, die fehlende Leistung kaschieren soll. Ist ja schön, dass es diese Technik gibt und nVidia damit die eigene KI voran bringt. Aber es ist und bleibt ein tricksen um fehlende Leistung zu kaschieren. Und somit steht er sicher nicht allein da. Für mich sehe ich in der Technik einfach weiterhin keinen nutzen, bzw. verzichte ich auf solche Features gerne. Vor allem, weil sie wie auch RT erst einmal wieder eingepflegt werden muss in sämtliche Spiele und wenn ein Spieleentwickler es nicht einbindet in sein Spiel, dann hab ich so oder so keinen nutzen davon. Wie eben mit RT auch schon. Beides verzichtbare Features wenn das eine die fehlende Leistung kaschieren soll und das andere die vorhandene Leistung verringert. Features sollten einem ein Leistungsplus geben (ohne zu mogeln), wenn sie spezielle Aufgabe übernehmen (gerade wenn sie in Hardware gegossen sind).
Von daher interessiert mich RT auf den neuen AMD Karten genauso wenig wie sie mich bei Turing interessiert haben (reiner Preistreiber mit fast keinem nutzen) und wie sie mich auch bei der neuen Ampere Generation nicht interessieren, da zwar dies mal kein Preistreiber, aber immer noch nicht in vielen Spielen integriert und Zeit war jetzt zumindest für alle neuen Spiele bzw. für die kommenden vorhanden. Aber scheint auch weiterhin einfach kein Killerfeature zu sein, ohne das man nicht mehr die Spiele vernünftig spielen könnte. Auch wenn nVidia dies sicher gerne anders hätte (aber von den vorgestellten Spielen damals auf der Gamescon, haben auch weiterhin noch immer nicht alle RT integriert mittlerweile, was klar untermauert wie doch recht gering die Priorität ist RT eingebaut zu haben in seinen Spielen).

Aber wer eine korrekte physikalische Berechnung von allen/vielen Lichtstrahlen in einer Pfütze als Überlebenswichtig in einem Spiel empfindet, für den ist RT natürlich das wichtigste, auch wenn es je nach der Menge der zu berechnenden Lichtstrahlen eben Verluste bei der Leistung seiner GPU bedeutet.

Mir wäre eine gute Leistung insgesamt wichtiger bei gleichzeitiger vernünftiger Effizienz. Gerne auch unter 300W Verbrauch in der Spitze. Aber abwarten was AMD bringt. Vielleicht machen sie ja wieder denselben Fehler und peitschen die GPU weiter über den Sweetspot, weil sonst die Leistung nicht reicht um mit nVidia bis zur 3080 gleich zu ziehen.
 
verstehe das problem jetzt nicht ganz. solange das ergebnis stimmt, ist es doch egal wie sie das hincheaten.
schliesslich wurden doch gerade bei der gamegrafik immerwieder tricks und kniffe angewandt um optik und leistung zu verbessern.

wer erinnert sich noch an die mitdrehenden 2d-bäume aus mario64? XD


jetzt muss es aber aufeinmal unbedingt alles pur und echt sein... man kann sich sachen auch schlechtreden.
 
Oben Unten