News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Tronado weiter oben.

Ich stimme ihm inhaltlich zwar zu (ich würde auch nicht auf DLSS verzichten und bei RT solche Abstriche machen wollen), aber "obsolet" sind die AMD RDNA 2 Karten sicher nicht. Sondern eine willkommene Konkurenz, die viele Käufer finden wird. Vermutlich sogar mehr, als NVidia. Wenn man den Hype in den Foren sieht, auf jeden Fall.
 
Sagt @Tronado .
Auf dessen Post beziehe ich mich. Vielleicht mal alle Posts lesen, statt stumpf los zu posten.

Und nein es spricht nichts dagegen, wenn einem RT und DLSS super wichtig sind, weil man eben genau die Spiele spielt, die eben beides implementiert haben. Dann ist eine nVidia Karte eben aktuell die bessere Wahl, wenn man eben beides nutzt. Aber wenn nicht, dann zählt eben die Rohleistung und da sind eben sowohl nVidia, wie auch AMD brauchbar.

Somit ist so eine Aussage wie Tronado sie trifft, seine Meinung, aber nicht Allgemeingültig. Und das sollte er auch so schreiben und nicht so, wie er es geschrieben hat. Da es suggeriert es sei Fakt.
 
Sagt @Tronado .
Auf dessen Post beziehe ich mich. Vielleicht mal alle Posts lesen, statt stumpf los zu posten.

Und nein es spricht nichts dagegen, wenn einem RT und DLSS super wichtig sind, weil man eben genau die Spiele spielt, die eben beides implementiert haben. Dann ist eine nVidia Karte eben aktuell die bessere Wahl, wenn man eben beides nutzt. Aber wenn nicht, dann zählt eben die Rohleistung und da sind eben sowohl nVidia, wie auch AMD brauchbar.

Somit ist so eine Aussage wie Tronado sie trifft, seine Meinung, aber nicht Allgemeingültig. Und das sollte er auch so schreiben und nicht so, wie er es geschrieben hat. Da es suggeriert es sei Fakt.
Wenn Sie Daten für sich sprechen lassen. So ist das Wissenschaft. Wenn Sie Daten eigens erheben, um zu beweisen, was Sie bereits beschlossen haben zu beweisen, so ist das nicht Wissenschaft, sondern Marketing. – Tom DeMarco und sorry das ich mich schon wieder selbst wiederhole...hier ist es irgendwie langsam wie im Fernsehen...ich weiß nicht mehr wann, wo, was jemand gesagt hat aber irgendwie fühlt sich alles an als wäre es schon mal gesagt worden....oder ist das gaming amnesie???? 🤪 :sleep::LOL:
 
Er schreibt vor allem von exakt EINER Karte, der noch kommenden 6900XT. Für die Leseschwächen anderer kann er ja nix. Und ich lese zudem:
(...) macht sie m.M.n. obsolet (...). Da wird nix suggeriert.
 
DLSS intressiert mich ueberhaut nicht. Das rumgecheate wird von mir nicht unterstuetzt!
Und RT hatte ich bisher bei keinem Game, ausser bei COD Warfare. Und da braucht es auch bei AMD 0 Performance.
Dienstag wird auf F5 gehaemmert, bis ich eine 6900XT abgreifen kann.
 
Genau er schrieb in diesem Thread von der 6900XT, dass sie obsolet ist, ohne Test gelesen zu haben oder sie selber schon in den Händen gehabt haben (also genutzt zu haben). Und in anderen Threads ist es AMD allgemein die mal im CPU Bereich nicht nutzbar sind und mal im GPU Bereich. Und dies immer ohne vernünftige Begründung.
Ist schon ein sich durchziehender Roter Faden bei manchen Usern wie faktenbasierend deren Aussagen sind. So wie es bei dir @Derfnam ein roter Faden ist, (EDIT b helpstar: bitte keine persönlichen pauschalisierenden Aussagen) Ich weiß bis heute nicht warum du davon ausgehst, dass der Rest von uns, wie du schon alles weiß und schon alles gesehen hat. :D

@mer
RT ist schon wichtig, aber erst am dem Moment wo eben ein einschalten des Features ein Leistungsplus bedeutet. Was ja in der Theorie mit nVidias Weg der extra Hardware für RT möglich wäre, da so die "normalen" Teile der GPU nicht belastet wären. Praktisch, aber kosteste es sogar teils 60% der Leistung, wenn man RT stärker genutzt hat. Und noch immer, selbst in der zweiten Generation verzeichnet man noch einen Malus. Und somit ist RT für mich eben ein Feature auf das ich verzichten kann. Denn kein Game sieht mit RT on überragend aus und mit RT off schlecht.
Und ja DLSS ist für mich auch ein Werkzeug um eben den Malus den RT bringt zu kaschieren, vor allem Leistung vor in Form einer höheren Auflösung (4k) vor zu gaukeln, die effektiv nicht vorhanden ist. Denn wäre die Leistung vorhanden um 4k da zu stellen, ohne das es eine Diashow ist, bräuchte man DLSS nicht (halt wenn RT nicht noch da wäre).
 
Zuletzt bearbeitet von einem Moderator :
und wieder alle durchatmen und auf das Thema fixieren.
 
Ist doch ok, wer RT nicht braucht, kauft eben AMD. Aber was gibt es denn sonst noch an großartigen optischen Verbesserungen seit DX11?
HDR sieht nur auf TVs oder sehr teuren Monitoren wirkungsvoll gut aus, Ohne RT ist man aber optisch so ziemlich auf dem Stand 2016 stehen geblieben.

@helpstar Hast ja recht. :)

Ich hätte mir bei ähnlichen Ergebnissen ebenso eine AMD Karte kaufen wollen, wenn RT ebenfalls so gut umgesetzt worden wäre.
 
HDR hat auch das Problem, das es viel zu viele Standards gibt (HDR 400,600,1000) und der Effekt eigentlich nur bei sehr guten HDR Bildschirmen zur Geltung kommt. Beim LG Nano finde ich den HDR Effekt ganz nett, aber zu schwach. Beim Acer Predator cg437kp fand ich den Effekt eher zu stark, ich brauche das nicht das mich helle Scenen quasi blenden - K.O. Kriterium bei diesem Modell war jedoch die Schlierenbildung, gerade bei dunkleren Bildausschnitten. Am PC kommt dann noch erschwerend hinzu, das der Windows Desktop mit kompatibilitätsproblemen zu kämpfen hat, da musste ich viel verstellen damit die Farben nicht so blass wirken. Ich vermute mal, das bei OLED´s der Effekt besser zur Geltung kommt - für mich ist HDR aber aktuell genauso wenig beeindruckend wie die Raytracing Schatteneffekte. Raytracing Spiegelungen finde ich hingegen recht gut, aber letztlich gibt es eh noch viel zu wenig Unterstützung seitens der Spiele.

DLSS 2.1 wäre mein Wunschkandidat für alle kommenden großen Produktionen. Vergleichbare Qualität und deutlich mehr FPS - gefällt mir zur Zeit am besten.
 
@Eragoss

Spiele ohne HDR schauen nur fad und blass aus für mich. Der Unterschied ist für mich absolut mind-blowing.

Aber Du hast damit recht, dass es sich am Monitor scheidet. Entweder ein OLED TV oder einen sau-teuren GSync-Ultra Monitor mit FALD und 1000 nits (oder das entsprechende Freesync Pendant).

Mit allem anderen kann man es eigentlich nicht annähernd korrekt beurteilen.
 
Beim LG Nano finde ich den HDR Effekt ganz nett, aber zu schwach
HDR ist mehr als nur Spitzenhelligkeit.

10bit statt 8 bit Farbtiefe, resultiert in jetzt 1024 anstatt 256 Abstufungen von Schwarz bis Weiß.

Man hat nicht nur ein "helleres" Bild, sondern deutlich naturnähere Farben bzw. Farbabstufungen.

Bei RDR2 find ich das hervorragend eingesetzt.
Zu Beginn der Schnee als Effektkanone (Spitzenhelligkeit wenn die Tür aufgeht) und später dann diese unglaubliche Lichtstimmung.
Einfach mal im Spiel HDR an und aus machen, der Unterschied ist - gerade in den Schatten - enorm.

HDR ist der Unterschied zwischen einem Baum mit Rinde und einer schwarzen Silhouette.

Mein Sony hat afaik auch nur HDR600, aber das ist genug um mir abends die Augen auszubrennen. Einen 1000er muss ich jetzt ehrlich gesagt gar nicht haben, sonst kann man im dunkeln ja gar nix mehr schauen.

Generell: Farbtiefe > Helligkeit; Versteift euch nicht auf die Nits.
 
Zuletzt bearbeitet :
HDR bedeutet eine größere Spannbreite der Helligkeit bei gleichzeitig feiner Detailtreue der Abstufungen. Also helle Bereiche während das Bild gleichzeitig auch sehr dunkle Bereiche hat, ohne dass irgendetwas absäuft.

Das funktioniert auch in 8 bit erstaunlich gut, aber 10 bit ist natürlich besser. HDR nutzt keine lineare Skala für die Farbintensität der Kanäle, im Gegensatz zu SDR, deswegen reicht auch 8 bit.

Aber man braucht zwingend einen Monitor, der entweder eine aktive Matrix hat oder eben ausreichend viele FALD Segmente, die die Helligkeit unabhängig vom Rest des Bildes steuern lassen.
 
Zuletzt bearbeitet von einem Moderator :
Soweit ich weiß hat mein Nano 8+2Bit FRC Farbtiefe, bei den Einstellungen kann ich bis zu 12 Bit/4k/120hz (4:4:4) auswählen - wobei ich keinen Unterschied erkenne ob 10 Bit oder 12 Bit gewählt ist - zwischen 8 und 10 Bit meine ich aber auch das die Abstufung bei den Farben besser ist. RDR2 habe ich mir gestern für 5€ als Onlinevariante gekauft, da werde ich das nochmal mit und ohne HDR testen. Am besten fand ich HDR bisher bei diesen Youtube Testvideos. Ich muss da nochmal testen, vielleicht ist das subjektive empfinden unterschiedlich bzw. stimmte an meinen Einstellungen etwas nicht.



@RX Vega_1975 der hat nur 100Hz interpoliert, 50Hz nativ. Ich würde hier zur größeren Variante raten NA 867, NA 866 bzw. NA 863 (alles die gleichen Modelle für unterschiedliche Länder). Soll es noch besser sein, dann jedoch eher OLED.
 
Welchen hast du von diesen 3 unterscheidlichen Modellen, sind ja alles die Selben nur Kennziffer für Europaländer differenziert, oder?
Oled meinst den 48 Zoll LG für 14xx Euro ?
 
Hab den LG 49NANO863NA, da war die Amazon App auf ungarisch voreingestellt 🥴, aber nun ist alles auf Deutsch. "867" ist für den deutschen Markt gedacht.

Richtig, die OLED´s kosten ca. 14xx Euro aufwärts.

Der Nano ist zum Glück GSync / FreeSync (VRR) kompatibel (RTX 3080, HDMI 2.1)
 
Wenn es einen 34" OLED gäbe, würde ich mir den vlt. sogar holen. Aber 47" sind einfach zu groß für meinen Schreibtisch. Also muss es beim popeligen Acer x27 bleiben :)
 
Nun gut,- und kostet ein Drittel vom OLED 48 Zoller.
Dass die Preise des 48-er Formates nicht fallen ist dem Panel geschuldet da jenes vom 75 Zoller des OLED stammen
und wohl auch der Corona Krise.
 
Oben Unten