News AMD veröffentlicht weitere Benchmarkergebnisse von AMD RADEON VII

Wer nicht gerade pro-gamer ist und damit sein Geld verdient, für den sollte der doch geringe Mehrverbrauch als Gamer egal sein.

Aber aber z. B. Folding@Home in teils 24/7 betreibt, dann reden reden wir nicht mehr von 9 Euro im Jahr sondern im Monat, bei deutlich schlechteren Resultaten.

Also kommt es wieder auf den Einsatzzweck an, ob die paar Watt mehr einen Stören oder nicht.
 
Deus Es war doch mal das Beispiel für primitive Shaders, würde mich nicht wundern wenn das jetzt geht.
Wobei es auch viel VRAM braucht... hmm..
 
War das Spiel nicht als für die Präsi von HBCC?
 
Zum Thema Verbrauch: für mich zählen absolute Performance, Anschaffungspreis und Lautstärke. Nur bei der Lautstärke spielt mittelbar der Verbrauch rein, weil was weniger verbrennt wird weniger warm muss weniger gekühlt werden kann leiser laufen. Und dann noch ein bisserl beim „Verschleiß“. Zu heiß ist auf Dauer da auch doof. Ansonsten ist mir der Verbrauch völlig wumpe, das Geldargument zieht in der Liga mal gar nicht! Allenfalls mag Verbrauch das i-Tüpfelchen sein, bei ansonsten gleichwertiger GPU.

Das einzige, was ich gelten lasse, ist der ökologische Aspekt, also dass man für X% mehr Performance nicht Y% mehr Strom verjubeln will. Das lasse ich als Vernunftargument gerne gelten, aber a) das hat mit den kosten nichts zu tun und b) dann greift man im Zweifel wohl eh nicht da oben ins Regal.
 
@Besterino
Du gehörst doch auch jetzt zu dem MoRa3 Club, da kann die die Hitzeentwicklung auch praktisch egal sein. Ob nun 300W oder 500W ist dem Mora so ziemlich egal.
 
Das Problem beim Verbrauch ist halt das es jemand anders mittlerweile besser hinbekommt ohne 7nm überhaupt angefasst zu haben ,versteh nicht warum sie da überhaupt Diskusionen gibt da hängt es halt bei AMD bisher .( wenn den Angaben von AMDs Präsi glauben darf, was die genau nuckelt wissen wir erst nach Tests.)ist halt ne Eigenschaft der Karte , muss je nicht die für jeden Kaufentscheidend sein.


Und auch mit nem Mora merkt man den Unterschied zwischen 300 und 500w entweder an der Wassertemperatur oder der Lüfterdrehzahl .
 
Als ich noch die 3xGTX580 OC drinne hatte merkte man das daran, dass ich keine Heizung im Winter anmachen brauchte. Da reichte dann der PC völlig aus...
Die 2xGTX1080ti hällt er dagegen sehr kühl. Beide unter 40 Grad...
 
Also nach 3h Furmark war die GPU/Temp bei 38 Grad und das Wasser bei 30,4 (ohne OC). Powertarget muss ich die Tage mal mit Spielen.

Ich hab mal ne Weile 2 TitanXp und eine 1080Ti mit 2 Xeons mit zusammen 48 Kernen bisserl crunchen lassen... da ging - ganz ohne WaKü die Temp im Keller von sonst ~23 Grad hoch auf 29,8... mal abgesehen von der Geräuschkulisse und dem - dann in der Tat abartigen Stromverbrauch - war das aber nur ein Test. Dauerhaft will man sowas nicht zu Hause.
 
Wenn ich das Powertarget von den beiden ti`s anhebe, laufen die konstant bei 2,06 GHz ohne weiteres zutun. Also keine Spannungserhöhung oder sonstwas. Des reicht... Zumindest mir und meinem FluSi...
 
Ich glaube zwar nicht das die Vega VII für mich interessant wird, aber auf den Test bin ich trotzdem schon gespannt. Vor allem ob es wirklich einen Performance Gewinn gibt, wenn man beide Karten auf den selben Takt und gleiche Speicherbandbreite bringt. Die veröffentlichen Benchmarks lassen das ja schon etwas vermuten. Und wenn dem so ist, frage ich mich, ob AMD jetzt die Features, welche Vega schon bieten sollte, aber scheinbar ja nie aktiv waren nun richtig implementiert hat.
 
Also jetzt mal ehrlich Jungs, wer ne Karte für 700,- € kauft wird sicher nicht auf die letzten Watt gucken. Und wer ne 1080TI hat, der kennt die 300 Watt auch durchaus vom eigenen OC und wie der Chef auch schon gesagt hat, gibbet die 300 Watt auch bei der 2080 mit OC. Warten wir mal die richtigen Tests von Igor ab. Dann wissen wir, was wirklich Sache ist und wie die Merhleistung zustande kommt. Die Primitive Shader wären natürlich eine Überraschung, aber warum sollte das nicht auch irgendwann mal klappen bei den Roten.
Ich bin jedenfalls ein potentieller Käufer, nicht weil ich ein Fanboy bin, sondern wenn ich mir das aktuell gebotene auf dem Markt ansehe, ist die Karte absolut in der engeren Auswahl. RT ist als Technologie interessant, aber warum sollte ich das mitbezahlen, wenn ich es eh zurzeit nicht nutzen kann (ich spiele kein BFV oder FF). Wie gut und ob das RT sich durchsetzen wird, steht noch aus. Aktuell sieht es eher schwach aus und ich denke da sind wir uns einig, wenn es sich durchsetzt, kauft man lieber eine 7nm RT Karte in einem Jahr mit doppeter RT Power. DLSS ist für mich persönlich keine attraktive Lösung. Ich will lieber natives 4K statt ein hochgerechnetes Bild. Das ist meine persönliche Meinung, ihr müsst mich nicht vom Gegenteil überzeugen. Bleibt bei der 2080 noch die eigentliche Leistung. Wenn die AMD im Toleranzbereich der 2080 liegen wird, dann entscheide ich mich hier lieber für die AMD mit mehr (doppeltem) Speicher. Und das hat ja Nvidia auch schon so gemacht bei der 1080TI, indem sie dieser 11GB statt 8GB gegeben haben, weil die Leistung des Chips sonst nicht ausgeschöpft werden kann und diese auch in 4K noch zu gebrauchen ist/war. Auch wenn ich bald 42 Jahre alt werde, kann ich mich noch erinnern, dass die 11GB damals ein wichtiger Kaufgrund in der Leistungsklasse war. Warum sich das jetzt ändern sollte, verstehe ich nicht wirklich.

Aber entschieden wird erst nach dem Test vom Chef.
 
Naja das RT Gedöns ist noch zu schwach und leistungshungrig.
Dazu gibt es jetzt schon Games die in FHD und WQHD an die 7-8GB VRAM brauchen.
Das RT Zeugs braucht dann nochmals ne Schippe oben drauf.
Damit sind die 2060, 2070, 2080 jetzt schon raus und die 16GB der Radeon sind,
dazu noch mit massiver Speicherbandbreite, eine klare Ansage fürs gleiche Geld.
 
Hier schrieb wer, das es Cherrypicking ist was AMD da betreibt. Also 26 Spiele auf zu listen und das ganze mit einer Intel CPU zu testen (was ja auch sehr viele Techseiten so machen), empfinde ich jetzt eher nicht als Cherrypicking. Aber gut, hat jeder eine andere Meinung.

Interessant wird es doch erst, wenn die Techseiten ihre Tests raushauen. Schade das es erst einmal keine Custom Karten geben wird. Im Spätsommer/Herbst steht dann doch endlich mal ein neuer Rechner an. Und ich hätte gerne eine Zen2 mit einer Sapphire Radeon VII kombiniert. ;)
 
Hier schrieb wer, das es Cherrypicking ist was AMD da betreibt. Also 26 Spiele auf zu listen und das ganze mit einer Intel CPU zu testen (was ja auch sehr viele Techseiten so machen), empfinde ich jetzt eher nicht als Cherrypicking. Aber gut, hat jeder eine andere Meinung.

Interessant wird es doch erst, wenn die Techseiten ihre Tests raushauen. Schade das es erst einmal keine Custom Karten geben wird. Im Spätsommer/Herbst steht dann doch endlich mal ein neuer Rechner an. Und ich hätte gerne eine Zen2 mit einer Sapphire Radeon VII kombiniert. ;)
Bei der ersten Präsentation kann ich das Argument mit dem cherry picking nachvollziehen, aber Hitman mit 7,5% Verbesserung ist nun wirklich kein Aushängeschild. Fallout76 wäre es hingegen schon gewesen...
 
Igor´s Test abwarten.
Karte dürfte bereits in der kommenden Woche bei Ihm eintreffen, wenn gar nicht früher.
 
Und wer ne 1080TI hat, der kennt die 300 Watt auch durchaus vom eigenen OC


300W... niedlich... bei 400W fängt meine 1080Ti dann langsam an "warm" zu werden ;)

würd ich die nicht jetzt wegen der vega abstossen, würde ich nochmal nen shunt mod machen... nur zum sehen ob sie auf der terrasse bei -5°c. 2400MHz machen würde :unsure::devilish:
 
300W... niedlich... bei 400W fängt meine 1080Ti dann langsam an "warm" zu werden ;)

würd ich die nicht jetzt wegen der vega abstossen, würde ich nochmal nen shunt mod machen... nur zum sehen ob sie auf der terrasse bei -5°c. 2400MHz machen würde :unsure::devilish:

Mein abgelöster 6700K wird auch als fünfte Herdplatte genutzt :geek:
 
Verbrauch ist jetzt mal sekundär (aber ein Punkt). Meine 1080ti bleibt bis zum nächsten Jahr, wird aber wohl keine AMD Karte, nur Ende des Jahres ein Ryzen 2 System.
 
Oben Unten