Genau diese ständig wiederholte Aussage auf CB, dieses so sehr zu generelle Wort "besser" kann ich im Zusammenhang mit DLSS / FSR einfach nicht mehr hören. Und jedes mal, bei jedem Test auf CB nutzen die da wieder dieses nichts-sagende "besser". Nennt doch das Kind mal beim Namen! Was ist besser? Mehr Bildruhe, weniger Flimmern, glatteres AA? Oder ist besser = grüner = farbiger = blumiger? Oder gibt es mehr Details als überhaupt möglich? Oder was für Stuss noch? Nennt das Kind beim Namen! Besser ist so eine non sense Aussage.(x) wenn man sich der Meinung von Wolfgang(CB) anschliesst, ... ist 4k-Nativ auch tot, weil FSR2 oft besser ist als TAA
Bei FSR mag das sicher sein, bei DLSS 2+ nicht immer. Blurring bei schnellen Moves, ok. Kann mal passieren. Aber generell ist das Bild oft flimmerfreier, knackiger und auch oft genug "detailreicher" als natives UHD. Dazu kommen meist die besseren Latenzen. Mit detailreich meine ich eine angelernte KI, die sogar noch auf große Entfernung Balkongeländer, Dachzinnen und anderen Popel sauber rekonstruiert, der mit nativ schon fehlt.Besser wird das Bild NIE. Nichts und niemand kann etwas "besser" machen, als von den Designern ursprünglich kreiert. Nativ ist und bleibt das beste, ever. Man kann Bildruhe rein bringen, that's it.
DLSS / FSR schmieren, ghosten, lassen Details verschwinden weil die Auflösung *niedriger* ist, etc. Nennt das Kind beim Namen und lasst diesen "besser" Schwachsinn.
Nee, DLSS und frame generation braucht man nur für 90 oder 120 fps.kauf ne 4090 und stell DLSS ein, wenn du 60 FPS willst
Daran wird sich auch so schnell nichts ändern.Wenn man sich so die diversen Hardware-Foren durchliest, sehen doch viele AMD doch nur als Preisdrücker für die eigentlich gewünschten Nvidia-Karten.
Danke, so sollte es geschrieben werden, was genau verbessert wird - nicht dieses pumpe "besser".Bei FSR mag das sicher sein, bei DLSS 2+ nicht immer. Blurring bei schnellen Moves, ok. Kann mal passieren. Aber generell ist das Bild oft flimmerfreier, knackiger und auch oft genug "detailreicher" als natives UHD. Dazu kommen meist die besseren Latenzen. Mit detailreich meine ich eine angelernte KI, die sogar noch auf große Entfernung Balkongeländer, Dachzinnen und anderen Popel sauber rekonstruiert, der mit nativ schon fehlt.
Bei NV ist auch net Alles Sahne, ... rbar gibts nur per Inspektor und wenn man Pech hat funzts net oder kommt sich neuerdings mit ds in die Quere.
Für schnelle Shooter ist RDNA2+3 nach wie vor ideal.
... Und in meinen Fällen zumindest verwischt DLSS mehr als nativ, ausnahmslos. Hinzu kommt schmieren und ghosting. Das ist mMn eben nicht "besser" als nativ.TAA verwischt den Hintergrund stärker als die neuen Upsampler.
Also im CB-Forum @BlackFireHawk probierts von sich aus und gewinnt dadurch doch Hier+Da gut minFps.RBar ist bei NV wohl nur proforma. Stand heute sind es vielleicht 20 Games in welchen vom Treiber aus RBar aktiviert wird. Weshalb? Hat NV keine Lust die Profile zu testen, optimieren, pflegen? Funktioniert es nicht? Oder nicht richtig? Weiss das jemand?
Doch, das kann es. Feinste Hintergrunddetails werden teilweise dazuberechnet, die es im Originalbild gar nicht gibt. Das mag manch einem nicht gefallen. Verschmiert ist da nichts mehr, schlechter als das Original auch nicht, dank einstellbarem DLSS-Schärfefilter oft klarer.kann etwas einfach nicht "besser" sein, das gar nicht da ist (= tiefere Auflösung) und dazu "erfunden" wir
Absolut, der FPS Gewinn ist ein Segen, wenn man es braucht, da sag ich nix dazu. Ich hab Mühe damit, dass DLSS angeblich das Bild "besser" macht, was einfach nicht immer der Fall ist. Und noch mehr Mühe hab ich damit, dass man das den Leuten so verkauft, um schlecht optimierte Spiele durch zu bringen. Mach DLSS rein, passt schon, dann hast du deine FPS und noch ein "besseres" Bild dazu.Nee, DLSS und frame generation braucht man nur für 90 oder 120 fps.
DLSS 2+/3 sorgt dafür, dass kleine Karten überhaupt noch ruckelfreie Bilder darstellen können, und das auch noch ohne Qualitätsverlust.
Ernsthaft? Nvidia sorgt also mit sinnlosen Grafikfeatures dafür, dass AMD nicht mehr hinterherkommt? Spiel z.B. Cyberpunk mal mit und ohne RT-Reflexionen, dann siehst du dass gerade in den Bereichen die Spiele realitätsnaher machen, AMD aufholen muss, um nicht ganz den Anschluss zu verlieren.
DS ist noch eine andere Geschichte, scheint bei dem Game irgendwie noch gar nicht richtig implementiert.Also im CB-Forum @BlackFireHawk probierts von sich aus und gewinnt dadurch doch Hier+Da gut minFps.
... schau mal in den RC-Thread
Test - Ratchet & Clank: Rift Apart im Test: Radeon RX gibt ohne Raytracing richtig Gas
Der Vgl. der Datenträger ist interessant. Da kann ne Sata-SSD mit dem Zwischenpuffern im Ram halt gleichmäßiger gecached werden. Was genau macht denn dann Intel-ARC anders als AMD? (wenns dort auch Probleme gibt)www.computerbase.de
Das er extra die ds-Dateien ersetzen mußte ist natürlich aufwendig (bei jedem Spielstart)
die original ds- Dateien beißen sich mit rBar
Neues dazu erfinden oder generieren ist weder nativ-entsprechend, schon gar nicht "besser" als das Original, weil es eben nicht der Feder der Designer entstammt, sondern erfunden = unwahr ist.Doch, das kann es. Feinste Hintergrunddetails werden teilweise dazuberechnet, die es im Originalbild gar nicht gibt. Das mag manch einem nicht gefallen. Verschmiert ist da nichts mehr, schlechter als das Original auch nicht, dank einstellbarem DLSS-Schärfefilter oft klarer.
Gerade bei DLSS3 gegenüber FSR2 kann Nvidia "besser" ruhigen Gewissens behaupten, weil es sichtbar besser ist. Einige wenige Spiele ausgenommen, versteht sich.
Haha, ja das sieht man bei all den schlechten Konsolen - Ports, auf der alten ollen PS5 läufts, aufm PC nicht mehr.Wie lange macht man schon Werbung mit RTX I/O ?
(hats ja selbst "erfunden")
Schon dumm das nur ne billige PS5 so richtig funzt.
(ne NV-GPU ist moooore als ne PS)
bezgl. rBar hat evtl. der Salesmanager gar kein Interesse
the more you buy the more you save
--> wenn die minFps net reichen muss was neues Großes her