HerrRossi
Urgestein
- Mitglied seit
- Jul 25, 2018
- Beiträge
- 6.824
- Bewertungspunkte
- 2.256
- Punkte
- 113
Hast du dich auch so aufgeregt, als Jensen mal wieder was von "twice the performance" fantasiert hat?Richtiges Marketing geht anders:
Hast du dich auch so aufgeregt, als Jensen mal wieder was von "twice the performance" fantasiert hat?Richtiges Marketing geht anders:
Ab 2:40 die Performanceeinschätzungen:ltt ist zumindest sehr optimistisch
Ich denke mit der 4090 hat Nvidia einige auf dem falschen Fuß erwischt. Die Customhersteller haben sich ja auch auf 600W mit ihren Kühlern eingestellt. Letztlich liefert die Karte bei 450W schon mehr als genug Leistung. Könnte mir gut vorstellen, dass die Leistungsinfos die AMD hatte auch auf der ursprünglich vermuteten 600W Karte beruht haben und Nvidia konnte die Verbesserungen, die zum endgültigen Produkt geführt haben sehr lange verborgen halten. Wenn die 600W Variante mehr verbraucht und weniger geleistet hätte würde das mit den Specs der neuen AMD-Karten gut zusammenpassen. Dann wäre AMD deutlich näher dran und könnte mit besserem Verbrauch auftrumpfen.Dann musst Du die Slider im Wattman ausgrauen
Da ich weiß, wie das normalerweise verteilt wird und was mal angedacht war, denke ich schon, dass man AMD mit der 4090 auf dem falschen Fuß erwischt hat und man dort jetzt drauflegen musste. Davon sprechen die Boardpartnerkarten Bände.
So wird es sein. Die 4090 ist nicht einzuholen, weder in Raster- und schon gar nicht in RT-Leistung. Dafür ist das Monster aber auch $600 teurer und frisst mehr Strom.Die vorgestellte 4090 hat das Ganze aber sehr zum Nachteil AMDs verschoben. Die Karte ist einfach eine Macht. Da beißt die Maus keinen Faden ab. AMD muss sich halt jetzt mit der 4080/16 auseinandersetzen.
Du weisst ja nicht, welche Modelle dann mit den kleineren Modellen noch kommen. Man kann sich da ja auch einige Kombinationen aus Chips und VRAM vorstellen. Und historisch gesehen, gab es die Abstufungen mit XTX, XT, XL etc. bei vielen Modellreihen von AMD/ATI oder auch die Abstufungen mit z.B. 7970, 7950, 7870, 7850, 7770, 7750 usw.AMD macht Nvidia den Blödsinn mit der Namensgebung nach, 7900 XTX vs. XT Was soll das? Warum die kleine Karte nicht 7800 XT oder XTX nennen? Der Preisunterschied ist aber so gering, da werden die meisten Käufer eh bei der XTX zugreifen.
Und dann hypen sie FSR 3.0 so wie Nvidia ihr DLSS 3.0 Für schwächere Karten ist das ja okay, beim Topmodell finde ich solche Softwarekrücken einfach nur befremdlich. Aber wenigstens kann das jeder nutzen und es ist nicht RDNA3 exklusiv.
Die Raster Performance pro EUR und Watt dürfte allerdings weit vor Nividia liegen, bei Raytracing werden wir es sehen, $999 ist auf jeden Fall eine Kampfansage. Die kleinen Seitenhiebe am Ende der Präsentation waren ganz amüsant
Ich kann mir den nicht mehr angucken, viel zu sehr AMD biased.Laut MLD...
Genau das, da weiss man dann direkt auf den ersten Blick, was einen erwartet. Tut mir leid, ich mag sowas einfach nicht. Wenn man einen Chip nachschiebt ist das ja noch okay, wie zB. 6700 XT vs. 6700. Wobei mir jetzt auffällt, dass sie das beim Launch der RX 6800 auch gemacht haben, einmal mit XT einmal ohne.7970, 7950, 7870, 7850, 7770, 7750 usw.
Wenig informierten Leuten wird in den sogenannten Fachgeschäften so viel Mist erzählt, da ist die Namensgebung bei Grafikkarten das kleinste Problem. ;-)Genau das, da weiss man dann direkt auf den ersten Blick, was einen erwartet. Tut mir leid, ich mag sowas einfach nicht. Wenn man einen Chip nachschiebt ist das ja noch okay, wie zB. 6700 XT vs. 6700. Wobei mir jetzt auffällt, dass sie das bei der RX 6800 auch gemacht haben, einmal mit XT einmal ohne.
Ich mag es trotzdem nicht, sowas stiftet nur Verwirrung, besonders bei den weniger informierten Leuten.
Nein, und das habe ich mich auch nicht über die Folien von AMD mit bis zu 1.7 mehr Performance.Hast du dich auch so aufgeregt, als Jensen mal wieder was von "twice the performance" fantasiert hat?
Die Hersteller beklagen sich doch schon darüber, dass die Kühler für die 4090 oversized und damit zu teuer sind, weil für 600W+ ausgelegt. Und laut Igor ist die Marge für die Hersteller bei AMD noch enger als bei Nvidia. Da wäre es doch sinnfrei diese selbst für die 4090 zu teuren Kühler auf die, vermutlich, genügsameren und billigeren AMD-Karten zu packen. Macht keinen Sinn in meinen Augen.Laut MLD sitzen die AIBs auf den dicken Kühlern weil keine/wenig 4090 Chips da sind, also kommen die auf die Radeon.
Die erspare ich uns besser. Bis neulich.Stell dir selbst die Frage und gebe dir eine ehrliche Antwort…
Das ist noch nicht bestätigt, oder hast du dafür eine Quelle?Und dann hypen sie FSR 3.0 so wie Nvidia ihr DLSS 3.0 Für schwächere Karten ist das ja okay, beim Topmodell finde ich solche Softwarekrücken einfach nur befremdlich. Aber wenigstens kann das jeder nutzen und es ist nicht RDNA3 exklusiv.
Franz Azor sagt im Interview, dass FSR 1 und 2 nicht auf bestimmte Hardware angewiesen ist und man mit Absicht einen offenen Standard haben will. FSR 3 kommt erst noch, aber so wie er sich dort äußert, würde es mich sehr wundern, wenn das ab FRS 3 plötzlich nicht mehr der Fall ist.Das ist noch nicht bestätigt, oder hast du dafür eine Quelle?
Bisher weiß man nur das FSR 3 nächstes Jahr erscheint und die FLUID MOTION Technologie bringt, wobei hier auch nicht näherDas ist noch nicht bestätigt, oder hast du dafür eine Quelle?
Glaubst du ernsthaft dass außerhalb der Hardwareforen und Influencer ernsthaft in größerer Menge OC betrieben wird? So wie ich das sehe dreht sich das in den Foren sogar eher in UV um.Dann musst Du die Slider im Wattman ausgrauen
Wurde wimre so im Stream gesagt.Das ist noch nicht bestätigt, oder hast du dafür eine Quelle?
Das galt in erster Linie für FSR an sich, bezüglich FSR3 wurde im Stream wortwörtlich gesagt das "in combination" mit den neuen Einheiten der 7000er Radeons die großen Fortschritte entstehen. Also ich wäre da eher noch vorsichtig..Wurde wimre so im Stream gesagt.