News RADEON VII und eine mögliche DLSS-Alternative

@scully1234 sorry, hatte den Poster verwechselt, hab meinen Post angepasst
, aber schön zu lesen das ich da nicht alleine dastehe mit meiner eher positiven Meinung über DLSS :)
 
@Affenzahn:
Ein simpler 4k-Monitor kostet keine €250 mehr. Ob ich persönlich damit zocken würde, das steht auf einem anderen Blatt.
 
@Affenzahn:
Ein simpler 4k-Monitor kostet keine €250 mehr. Ob ich persönlich damit zocken würde, das steht auf einem anderen Blatt.

Naja, wer auf einem 4k Monitor zocken möchte, sollte berücksichtigen das die Grafikkarte entsprechend teuer / leistungsstark sein sollte. Bevor man sich für 250€ einen zu kleinen und billigen 4k Bildschirm hinstellt, wäre ein guter WQHD Monitor ggf. doch die bessere alternative.

Ich persönlich nutze einen TV mit niedrigen Input Lag / 40 Zoll curved als Monitor - war so gesehen auch nicht so extrem teuer, aber da macht dann auch 4k bei der Diagonale richtig spaß.
 
Aber dir war beim Kauf sicherlich schon klar dass du dein CurvedTV nicht mit ner RX480 befeuert werden kann.

DLSS ist für mich zur Hälfte Failsafe für Idioten, zur andren Hälfte Buzzword-Bingo.
 
Das Scully sich über alles was von AMD kommt negativ auslässt, ist doch inzwischen in allen einschlägigen Foren bekannt. Faszinierend ist hieran nur, dass es immer noch Foristen gibt, die Ihn nicht auf der Ignore Liste haben sondern mit ihm versuchen sachlich zu argumentieren. Guckt euch bei CB/PCGH etc. um. Da haut er denselben Stuss raus, nur um zu bashen, egal was in der News steht.

hab ihn jetzt auf ignore gesetzt... erinnert mich nen wenig an trollyan aus 3DC X-D
 
behauptet hier immernoch wer, dass man geforce experience braucht, um dlss nutzen zu können? ich nutze geforce experience nicht, die dlss algorhitmen kommen mit den grafiktreibern. Wer Sie permanent auf dem aktuellsten stand halten möchte nutzt geforce experience. wer auf den nächsten treiber warten kann, lässt die extra software weg.

Ich persönlich finde den Leistungszuwachs durch dlss genial. dlss ist auch auf niedriger auflösenden monitoren über downsampling nutzbar und hängt vor allem dann taa ab. in 4k muss man überlegen, ob man die performance mitnimmt mit leichten qualitätseinbusen oder nicht.

mfg
 
Hier muss man denke ich auch Differenzieren, über welches 4K wir sprechen. Ich habe 3840*2160 als 4K auflösung am Monitor. Wenn man mit Widescreen TFT spielt, sind das mitunter ja Welten zum echten 4K. Wer mit 3840*1200 Pixel spielt hat gegenüber 2160p 44% weniger Pixel zu "echtem" 4K zu schubsen. Anders herum, beträgt der Abstand von 3840*1200 zu 2160p 80%!!! Das macht viele Spiele in "4K" auch mit kleineren Karten gut spielbar gegenüber 2160p.

behauptet hier immernoch wer, dass man geforce experience braucht, um dlss nutzen zu können? ich nutze geforce experience nicht, die dlss algorhitmen kommen mit den grafiktreibern. Wer Sie permanent auf dem aktuellsten stand halten möchte nutzt geforce experience. wer auf den nächsten treiber warten kann, lässt die extra software weg.

Ich persönlich finde den Leistungszuwachs durch dlss genial. dlss ist auch auf niedriger auflösenden monitoren über downsampling nutzbar und hängt vor allem dann taa ab. in 4k muss man überlegen, ob man die performance mitnimmt mit leichten qualitätseinbusen oder nicht.

mfg

Da ich keine RTX habe, war mir das nicht klar. Aber das heißt im Umkehrschluss doch auch, dass du immer auf Verbesserungen durch DLSS bis zum nächsten Treiber warten musst. Sicher kein Problem, wenn man Spiele immer später kauft, wenn bereits entsprechend ausgereifte Profile vorhanden sind. Aber wer AAA Titel direkt zum Start kauft und spielt, wird da doch nicht mit glücklich. Da kann es doch auch mal 4 Wochen dauern, bis man eine Verbesserung bekommt in DLSS. Bis dahin dann nicht spielen oder aus lassen? Oder stellt man dann doch die Auflösung runter? Finde ich entsprechend unglücklich. Ich denke deswegen gehen viele weiterhin von einem Online Zwang aus, damit man ständig die Verbesserungen geschickt bekommt.
 
Also mal meine Meinung:

Sollte mit DirectML eine DLSS Alternative möglich sein, welche auch über normale Shader laufen, wäre dies klasse. Ich gehe allerdings davon aus, dass dies entsprechend Leistung kostet, da die Shader ja dann nicht für das Rendern zur verfügung stehen.

Für AMD würde dies aber eine vielleicht bessere Auslastung bedeuten, bei Nvidia frage ich mich, ob die Tensor Cores auch mit DirectML einsetzbar sind.

DirectX Raytracing z.b. könnte auch in Software laufen, Nvidia kann aber hierfür auch die RT Cores nutzen.
 
@Eragoss: es geht doch darum, dass beim Moni der tiefe Griff in die Tasche nicht mehr nötig ist. Und dass das für die Grafikkarte ähnlich ist schreibe ich dir nur der Vollständigkeit halber, Herr Ex-2080Ti-Besitzer^^.
Oder anders: RTX 2080 + 250 Euro-Moni mit 2160p --> unter 1000 Euro. Kommt mit deiner MSI nicht ganz hin, ist aber locker mit ner Ventus möglich.
Außerdem - und da herrscht die eigentliche Kurzsichtigkeit - gibt es auch Leute, die ne so hohe Auflösung für ihren Officekram (oder anderes, jedenfalls zum Arbeiten) bevorzugen UND auch mal n bißchen spielen wollen. Oder eben keinen Fernseher haben, sondern ihre Filme am PC-Moni gucken. Beide benötigen dafür keine Dickschiffkarte, die skalieren dann ggf runter oder passen die Detailquali an oder beides, was weiß ich.
Ich will jetzt gar nicht groß auf die teils recht grenzdebil daherkommenden Kundenstammeleien kommen, die zB zum ASUS dort hingekritzelt wurden, aber eines steht fest: der Preis kommt an.
 
Hab 768€ für die MSI im Oktober über ebay(mit 8%Gutschein/MediaMarkt) gezahlt, würde fast hinkommen mit den 1.000€ bei einem 250€ 4k Monitor. Für 250€ bekommt man ein 28Zoll 4k Monitor, ich wäre da unsicher ob das dann für Office wirklich viel spaß macht (wäre alles ziemlich klein bzw. müsste man die Skalierung hoch drehen). Mein Grundgedanke wäre eher der das das Verhältnis, zumindest für gamer, nicht ganz ausgewogen wäre. Wer 250€ für einen Monitor ausgibt, da wären 750€ für eine Grafikkarte recht viel. Da würde ich eher zu einen guten WQHD Modell greifen und eine Grafikkarte für 300-400€. Dann kann man alles in nativer Auflösung und vollen details zocken und auf 28 Zoll sieht wqhd recht gut aus.

Wenn die ganze Geschichte für Office ist, da reicht eine 1050TI oder RX 560, Spiele kann man damit dann in FullHD mittlere details zocken, beim Monitor würde ich aber auch bei office zu einer größeren Diagonale tendieren bzw. mehrere kleinere Monitore (2 Monitore im Büro finde ich angenehmer wie einen großen)
 
Also ich habe ja auch einen 27Zoll 4K Monitor und ich würde den nicht mehr hergeben.

Klar muss man Skalieren. Ich habe diese auf 150% stehen, was von der Schriftgösse vergleichbar mit einem 27Zoll WQHD oder einen 24Zoll FullHD Schirm ist. Ich muss auch sagen, dass nur sehr wenige Programme verschwommen aussehen.
Man sollte auch nicht vergessen, dass die Schaltfläschen skaliert werden, aber nicht unbedingt der Inhalt. Wenn ich z.b. ein Foto öffne, profitiere ich sehr deutlich von der hohen Pixeldichte.

Die Schriften sind auch deulich schäfer, glatter, es ist alles viel angenehmer.

Persönlich würde ich bereits jetzt, eher auf ein paar Details verzichten (also schwächere Grafikkarte) als auf die Klarheit vom Bildschirm, unter die Leistung einer 2070 würde ich aber nicht unbedingt gehen.
 
Mein 24er ist schon ziemlich groß für den PC-Tisch, mehr als arcDaniels 27 oder der 28er im Link oben paßt einfach nicht. Das Problem bzw ein Platzproblem allgemein werde ich sicher nicht exklusiv haben.
Wobei das alles das eigentliche Thema maximal streift, aber ich wollte es wenigstens mal erwähnt haben :)
 
Ich sitze hier vor einem 40" UHD Minitor und einem 32" UHD-Monitor. Das reicht, um den ganzen Raum gut auszuleuchten :D

Excel? Mega. Fotos? Noch besser. Spielen? Geht auch. Wieder verkleinern? Nee, niemals. Die Augen werden nicht jünger :D
 
(2 Monitore im Büro finde ich angenehmer wie einen großen)
^This. Dann sogar lieber 2x24"FullHD als nur 1x27"WQHD!

Aber: zum Daddeln ist ein großer viel schöner als 2 kleine(re) oder selbst 2 gleich große - wer will schon die Rahmen in der Mitte haben? Und 3 große mit einer schönen Auflösung ab WQHD packt keine Graka (3xWQHD>1x2160p)... :(

In einer ruhigen Minute müsste ich mal BF5 auf dem großen 4K-TV ausprobieren... aber jetzt müsste ich dafür die ganze externe WaKü temporär mit ins Wohnzimmer umziehen... och nööööö...
 
Das Scully sich über alles was von AMD kommt negativ auslässt, ist doch inzwischen in allen einschlägigen Foren bekannt. Faszinierend ist hieran nur, dass es immer noch Foristen gibt, die Ihn nicht auf der Ignore Liste haben sondern mit ihm versuchen sachlich zu argumentieren. Guckt euch bei CB/PCGH etc. um. Da haut er denselben Stuss raus, nur um zu bashen, egal was in der News steht.

Sehe ich das gerade richtig, dass du hier andere Member dazu aufforderst Scully auf eine Ignore-Liste zu setzen, weil er hier die Wahrheit sagt? Kannst du das bitte ein bisschen erläutern welche seiner Aussagen falsch war? Können die Leute die so einen Post liken äußern was sie an diesem Beitrag so spannend fanden?
 
Man kann es mit DLSS und DirectX ML so halten, wie ich meine Sachen kaufe: Entweder ich habe das Geld und kann mir XY kaufen oder ich habe es nicht, analog dazu hat man eben das Geld für eine entsprechend leistungsstarke Grafikkarte oder nicht und weitergeführt kann die Grafikkarte dann 2160p nativ flüssig darstellen oder eben nicht. Allerdings kann ich auch sehr gut nachvollziehen, dass man nach einem großen und guten 4k Fernseher nicht noch ein Jahr bis zum nächsten Jahresbonus warten will mit der Grafikkarte :D
Es wird sicher seine Anhänger finden, gerade eben in Konsolen, HTPCs, Schüler-/Studenten-PCs und hört da auch noch nicht auf. Ich für meinen Teil habe noch kein UHD Gerät im Haus, daher sehe ich das ziemlich entspannt.

Und wie ich im Eingangspost schon geschrieben habe, es ist eine Trickserei, ähnlich Texturkompression, welche die Hersteller schon seit Jahren einsetzen oder auch Adaptive Sync, später wird es Farbkompression geben um 8K Inhalte an die Peripherie zu transportieren.

Sehe ich das gerade richtig, dass du hier andere Member dazu aufforderst Scully auf eine Ignore-Liste zu setzen, weil er hier die Wahrheit sagt? Kannst du das bitte ein bisschen erläutern welche seiner Aussagen falsch war? Können die Leute die so einen Post liken äußern was sie an diesem Beitrag so spannend fanden?
Es geht hier weniger um das WAS er sagt, sondern WIE er es sagt. Die aggressive Grundstimmung, die in seiner Wortwahl mitschwingt. Btw, ich habe ihn nicht auf ignore, ich suche mir meine Auserwählten selbst aus.
 
Ich schiebe hier noch mit 2 FHD Monitoren durch die Gegend. Also stellt euch mal nicht so an. ;)
 
Ich schiebe hier noch mit 2 FHD Monitoren durch die Gegend. Also stellt euch mal nicht so an. ;)

habe auch "nur" 1920*1200 auf 24".... langt dicke, aber demnächst wohl WQHD, aber wie immer ohne freesync oder g-sync, weil die können alle keine richtige farbdarstellung, sowas gibts nur bei monitoren ohne sync X-D
 
habe auch "nur" 1920*1200 auf 24".... langt dicke, aber demnächst wohl WQHD, aber wie immer ohne freesync oder g-sync, weil die können alle keine richtige farbdarstellung, sowas gibts nur bei monitoren ohne sync X-D
Deine Aussagen erblüffen mich wirklich, ich weiss nicht was ich hier noch antworten soll...
 
Oben Unten