NVidia Gerüchte: Nvidias Super-Refresh - mehr Shader-Einheiten bei gleichen Preisen?

P

Paul Stanik

Guest
Nvidia-logo-800x800-1.jpg


Paul Stanik submitted a new blog post

Continue reading the Original Blog Post.
 
Interessant, daß gerade die 2080ti nicht erwähnt wird. Denn für die stünde ja ein fertiger Chip bereit.
 
Interessant, daß gerade die 2080ti nicht erwähnt wird. Denn für die stünde ja ein fertiger Chip bereit.

Wie meinst Du das?
Die Karte basiert auf dem TU102 von dem bzgl. eines Refreshes bisher nicht die Rede war.
Zudem ist die Karte mit ihren 68 SMs bereits sehr nahe an den 72 SMs des Vollausbaus dran. Eine Erhöhung um bspw. 2 SMs und optional etwas schnelleren Speicher würde nicht gerade die Welt aus den Angeln heben.
Und wenn Du mit "fertig" meinst, einfach den Vollausbau zu verwenden ... das halte ich markttechnisch für schwierig. Erstens kostet der Chip nicht umsonst so viel. Zweitens zahlen Kunden für den Vollausbau mindestens 2600 €, bspw. in Form der Titan RTX (und noch deutlich mehr für die Quadro RTX 6000 und 8000). Jetzt den Vollausbau plötzlich für den halben Preis zu "verschleudern" und wohlmöglich gar noch mit einem unveränderten (weil "fertigen") Chip, würde nVidia lediglich wieder bzgl. seiner Preispolitik in die Bredouille bringen.
nVidia schränkt bereits die Titan RTX zur Abgrenzung ggü. den Quadros ein, einerseits durch deutlich beschränkterer Treiber, andererseits auch funktionell. Beispielsweise (soweit ich mich erinnere) ist die für DL-relevante Matrixmultiplikation hier auf eine 16/16-Genauigkeit beschränkt, während die Quadros auch ein FP32-Ergebnis berechnen können, also mit 16/32 arbeiten. Hinzu kommt u. a. der fehlende ECC-Support bei den günstigeren Karten; irgendwie muss nVidia ja schließlich rechtfertigen, warum der gleiche Chip von der Quadro RTX 6000 hin zur Titan RTX bereits min. 1200 € günstiger verkauft wird.

Wenn sich die Gerüchte bewahrheiten und nVidia nun tatsächlich auch die RTX 2080 über eine reine Speicherbeschleunigung hinweg aufwertet, dann wird man wohl eine mit 64 CUs ausgestattete Vega 20 als Consumer-Karte fürchten und wird hier proaktiv tätig. AMD wird hier (neben der MI60) wohl erst mal Apple und seine Radeon Pro-Karten bestücken. Wenn man nach einiger Zeit jedoch ausreichend viele, voll funktionsfähige Chips auf Lager hat, wäre eine Askopplung Consumer-Segment durchaus denkbar (wenn man auch hier mit nur geringer Marge rechnen kann).
Was mir jedoch im Artikel fehlt, ist ein Hinweis darauf, dass über die Quelle dieser Specs rein gar nichts bekannt ist, d. h. es handelt sich hierbei (zumindest bisher) schlicht um ein weiteres Gerücht und nicht mehr aber vermutlich werden wir schon Mitte nächster Woche ein paar Fakten erfahren.
 
Ich vermute, dass es in den kommenden 6 Monaten neben der Titan RTX noch ein Modell über der 2080 ti geben wird und danach ist es dann auch bald schon wieder Zeit für eine neue Serie, die wird mutmasslich in den nächsten 12 bis 18 Monaten in den Läden stehen. Reines Bauchgefühl.
 
2080 mit 10GB Vram wäre interessant, alles andere wäre nach wie vor ein Downgrade und ne 2080ti ist massiv überteuert.
 
edit by helpstar: Foto gelöscht, welches darstellte, dass bei der Präse nur eine imaginäre RTX2060s statt einer RTX2070 mit der RX5700 verglichen wurde.

Status Quo (y)


Ich vermute, dass es in den kommenden 6 Monaten neben der Titan RTX noch ein Modell über der 2080 ti geben wird und danach ist es dann auch bald schon wieder Zeit für eine neue Serie, die wird mutmasslich in den nächsten 12 bis 18 Monaten in den Läden stehen. Reines Bauchgefühl.

Was gibts da zu überlegen ,natürlich wird die 2080 Ti auch bald vom Vollausbau beerbt, wenn lange genug gesammelt wurde für einen flächendeckenden Release

Und die Titan RTX läuft nebenher noch mit ihrem großen Vram Pool

Was ist daran auch großartig anders zu vergangenen Launches?

Und ich garantiere auch das wenn das passiert ,die Heinis wieder kommen ,und den Titan Käufern einreden wollen, sie müssten sich vera.... vorkommen;)

Ampere braucht ja schließlich als Profi Titan Wachablösung ,dann auch wieder einen Platz im Sortiment
 
Zuletzt bearbeitet von einem Moderator :
du solltest echt weniger grünes Zeugs schnüffeln ...........
 
Das Foto...?
 
Also wenn @HerrRossi's Einschätzung schon etwas optimistisch ist, dann ist @scully1234's ("natürlich wird sie ...") doch schon gar als völlig verträumt zu bezeichnen.
Von einem TU102-Refresh war bisher nichts zu hören, ein entsprechends Vorgehen seitens nVidia gab es bspw. in den letzten beiden Generationen Pascal und Maxwell auch nicht und schlussendlich wäre der Markt für einen solchen Refresh (mittlerweile) voraussichtlich viel zu klein für den Aufwand, zumal dieser ja nicht nur bei nVidia, sondern auch bei allen Partnern läge. Entsprechende Überlegungen kämen schon von der Zeitlinie her überhaupt nur in Frage, wenn die Karte möglichst zeitnah erscheinen würde, d. h. bestenfalls innerhalb des 3. Quartals. Danach wird der voraussichtliche Abstand zu Ampere bereits zu gering, sodass etliche Interessenten eher noch die paar Monate abwarten würden, zumal man eh überlegen muss, dass der Markt für eine dedizierte GPU jenseits der 1000 € nur extrem klein ist und die, für die diese Investition überhaupt in Frage kommt, sich wahrscheinlich schon mit einer entsprechenden Karte ausgestattet haben werden.
Im Profimarkt sähen die Absatzmöglichkeiten gar noch schlechter aus, da der TU102 nur auf der RTX 6000 und der mit mehr Speicher ausgestatteten RTX 8000 genutzt wird, die zudem beide schon den Vollausbau nutzen, d. h. hier bliebe von dem Refresh nur die etwas höhere Speicheranbindung übrig. Hier setzen Kunden jedoch eher auf zertifizierte, stabile Treiber und erwarten höhere Leistungssprünge für ein Upgrade, wie sie die Folgegeneration mit Ampere bieten könnte.

Zudem gehe ich davon aus, aber das ist nur meine persönliche Meinung, dass der Ampere-Launch eher im 1.HJ 2020 stattfinden wird, da man sich wahrscheinlich einen zeitlichen Abstand zur Etablierung der neuen Generation noch vor AMDs "Navi 20" und auch vor Intel wünscht. Die sich zudem verdichtenden Gerüchte für einen Fertigunsschwenk zu Samsung könnten auch mit einem ersten Ampere-Tape-out in Verbindung stehen, was zeitlich mit einem Release im 2. Quartal bis zur Jahresmitte hin passen würde. Man wird sehen ...

Und btw, dein "poor Navi"-Kommentar ist völlig unsinnig. Zumindest glaubhafteren (aber weiterhin) Gerüchten zufolge (entgegen dem vermeintlichen Kratzen an gar einer RTX 2080), soll die größere Navi zumindest RTX 2070-Niveau erreichen oder (teilweise) gar überbieten können. Die RTX 2060 Super wird sich leistungstechnisch zwar in Richtung der originalen RTX 2070 bewegen, diese aber nicht übertreffen, d. h. Navi würde in diesem Fall weiterhin grundlegend über dem Niveau einer RTX 2060 (Super) liegen. Und wenn das ursprüngliche Leistungsgerücht korrekt war, dann wird Navi halt jetzt nur noch gleichziehen oder etwas unter einer RTX 2070 Super liegen, was AMD aber mit einer entsprechenden Preispolitik durchaus kompensieren kann, sodass man am Ende dennoch ein gutes, alternatives Produkt mit einem attraktiven P/L-Verhältnis erhält.
Für einen Großteil der PC-Spieler ist völlig irrelevant, was sich bereits jenseits der Preisregion einer 2070 abspiel, was etliche immer zu vergessen scheinen, insbesondere Spieler mit HighEnd-Karten jenseits der 800 € und/oder 4K-Monitoren. Irgendwie fehlt denen allzu oft der Bezug zur Realität, denn derartig teuere Hardware inkl. oder gar insbesondere 4K-Gaming ist derzeit weiterhin einer kleinen Nischengruppe vorbehalten und daran ändert auch der persönliche Freundeskreis nichts (der vielleicht überwiegend eine RTX 2080 Ti verwendet, statistisch jedoch vollkommen irrelevant ist).
Um das ganze mit ein paar Zahlen zu unterfüttern, die zwar nicht gottgegeben und unumstößlich sind, jedoch aufgrund der extrem großen User-Zahlen wohl mit den bestmöglichen Eindruck vermitteln dürften: Auf Steam erreichen alle RTX-Kartentypen zusammen gerade einmal eine Verbreitung von 2,6 %, wobei bereits die GTX 1080 alleine eine höhere Verbreitung aufweist und die Brutter-und-Brot-Karten sind hier die GTX 1060/1050er mit zusammen bereits 31,4 % Verbreitung. Einen ähnlichen Realitätscrash erlebt man auch bei 4K, denn nur 1,6 % der primären Displays verfügen über eine entsprechend hohe Auflösung. Wenn man extrem optimistisch ist, könnte man noch die Gruppe "Other" hinzuaddieren, in der sich jedoch auch ungewöhnliche und oftmals kleinere Auflösungen verbergen können, käme damit jedoch bestenfalls auf einen Wert von nur 3,2 % als optimistischen Indikator für eine 4K-Verbreitung.
 
. Danach wird der voraussichtliche Abstand zu Ampere bereits zu gering, sodass etliche Interessenten eher noch die paar Monate abwarten würden, .

Schwachsinn hoch zehn ,denn Ampere wird wie sein Vorgänger Volta ein HPC Design /Tesla Workstation , und nicht der direkte "Konkurrent " zu Turing außer vielleicht als Titan Branding wirst du den nicht als Geforce sehen, also muss auch nur dort Platz geschaffen werden, was einen Wechsel von full Fat Turing in das 2080 TI Line Up nicht unwahrscheinlich erscheinen lässt

Nvidia teilt seit geraumer Zeit seine Architekturen in seine Anwendungsgebiete , und Ampere ist definitiv nicht die Turing Ablösung, somit hat dieser auch noch gut Raum u Zeit für Refreshes jeglicher Art(wie gerade geschehen) ,neue Leistungsklassen als Kaufanreiz ,oder Shrinks auf 7nm

ein entsprechends Vorgehen seitens nVidia gab es bspw. in den letzten beiden Generationen Pascal und Maxwell auch nicht


Bezüglich Full Fat Chip helfe ich deinem Gedächtnis gerne mal auf die Sprünge Titan vs 780 Ti umgelabelt ,Titan vs Titan Black umgelabelt



Also erzähle hier nicht das Nvidia nicht schon Klassen vorher das so gehandhabt hat explizit auch bei Titan Modellen die in den TI Sektor wanderten, wenn die Fertigung u das Volumen es zugelassen hat
 
Zuletzt bearbeitet von einem Moderator :
Wo steht den, dass Nvidia Ampere der Volta-und nicht der Turingnachfolger wird? Ich habe keine offizielle Aussage von Nvidia gefunden.
 
wohingegen Ampere schon den Volta-Nachfolger darstelle
https://www.pcgameshardware.de/Nvid...ews/2018-Ampere-Volta-Turing-Spieler-1251289/

Am Ende ist genau dies eingetreten: Die Volta-Architektur deckt das Datacenter-Segment ab und auf die Pascal-Architektur folge bei den GeForce- und Quadro-Karten eben die erwähnte Turing-Architektur. Dabei vollzieht NVIDIA in den finalen Produkten zwar eine mehr oder weniger strikte Trennung.
https://www.hardwareluxx.de/index.p...-7-nm-was-uns-zur-gtc19-erwarten-koennte.html

Turing für Gamer, Ampere folgt Volta nach

https://www.pcbuildersclub.com/2018...folgt-volta-nach-moeglicherweise-hoher-preis/


noch mehr Quellen?
 
Zuletzt bearbeitet von einem Moderator :
Bitte differenziere zwischen "Gerücht", "offizielle Aussage von Nvidia" und "unabhängige Tests". Ein Gerücht kann stimmen, muss aber nicht. Es macht daher wenig Sinn, auf Gerüchtebasis zu argumentieren.
 
das sind keine Gerüchte das hat der Designer von Turing selbst höchsteigen auf einer Präsentation preis gegeben das Nvidia zweigleisig fährt bei den Architekturentwicklungen

Einmal HPC Design in dem Fall hier Ampere , u danach wieder Quadro u Geforce, und danach wieder HPC

Diese Spezialisierung ist der hervorragenden Effizienz der letzten Generationen geschuldet , denn kein Design muss jetzt mehr unnützen Ballast mit umherschleppen, der im entsprechenden Szenario gar nicht gewünscht ist, wie z.B eine enorme Anzahl an DP Shadern in Geforce oder Quadro Produkten
 
Zuletzt bearbeitet von einem Moderator :
Das streitet keiner ab. Aber mir ist nach wie vor keine offizielle Aussage von Nvidia bekannt, die aussagt, dass Ampere der Volta-Nachfolger wird.

Es ist daher zumindest theoretisch möglich, dass eine Architektur, mit einem uns nicht bekannten Namen, die Nachfolge von Volta antritt.

Edit: Es ist übrigens sehr unschön, wenn Forumposts massiv bearbeitet werden, nachdem bereits darauf geantwortet wurde.

Mein Forumpost bezog sich ausschließlich auf folgenden Teil des vorigen Forumposts:

das sind keine Gerüchte das hat der Designer von Turing selbst höchsteigen auf einer Präsentation preis gegeben das Nvidia zweigleisig fährt bei den Architekturentwicklungen
 
Zuletzt bearbeitet :
Ampere bekommt 7nm EUV so ja es wird gewiss der hochpreisige Monsterchip (HPC) diesen teuren Prozess beerben , was anderes macht ökonomisch null Sinn für den Anfang.

Mit Geforces deckst du keine etablierten Margen u noch dazu das Risiko einer neuen Fertigung ab

Da brauch ich nicht erst ne Stellungnahme von Nvidia um das logisch einzuordnen , die es vor dem Release so oder so nicht gibt

Zudem stehen sie auch nicht unter Druck von AMD um hier zeitgleich noch nen 7nm EUV Testbalon für Geforces u Quadros zu fahren

Ampere bereitet den Weg so wie das Volta (12nm) vorher für Turing (12nm) getan hat, ohne unnötiges Risiko
 
Zuletzt bearbeitet von einem Moderator :

Irgendwann, in einem Land weit, weit entfernt, bekam die schlagzeilensüchtige Presse mal den Namen "Ampere" in den Hals und mutmaßte diesen gleich als Turing-Nachfolger (wahrscheinlich weil derzeit kein Flugzeugabsturz oder Trump-Twitter-Faux Pas zur Hand war). Später dann, als man eine nahende, erste Verlautbarung seitens nVidia erwartete, die jedoch ausblieb, mutmaßten einige, dass Ampere eher ein dediziertes Datacenter-Produkt werden könnte. Aktuell liegen jedoch dazu keine verlässlichen Informationen vor. (Abseits dessen, eine solche Randbemerkung "Ampere = Datacenter only?" war in einem meiner Posts vor einigen Tagen bereits zu lesen.)

Schlussendlich hat das aber nichts mit obiger Thematik zu tun, denn Ampere steht hier als Platzhalter für den nächsten Turing-Nachfolger; das kann direkt Ampere selbst sein oder ein irgendwie anders benannter Chip. Dass nVidia sich in 2020 mit heruntergelassener Hose erwischen lassen wird und AMDs Navi 20 und Intel Xe im Consumer-Segment nichts entgegenzusetzen haben wird, erscheint mir jedoch höchst unwahrscheinlich und da beide mit aktuellen Fertigungsverfahren aufwarten werden, wird es nVidia sich ebensowenig leisten können, hier ein deutlich älteres Fertigungsverfahren zu verwenden, denn dadurch müsste man einen Teil des aktuell effizienteren GPU-Designs zur Kompensation des Fertigungsrückstands aufwenden.
Darüber hinaus dürfte es auch nicht in nVidia Interesse liegen, bspw. erst im 4. Quartal mit einem Consumer-Update auf dem Markt zu erscheinen und dann unmittelbar mit AMD und Intel konkurrieren zu müssen; deren Marketing wird hier zweifelsfrei etwas mehr Vorlaufzeit und eine ungeteilte Aufmerksamkeit der Presse bevorzugen. (Ob AMDs "größere Architekturüberarbeitung" Navi 20 eher früher oder später in 2020 erscheint, weiß ich nicht; ich gehe mal hier eher vom späteren Fall aus.)

Darüber hinaus stellt sich auch die Frage, ob Samsung sich mit diesem noch sehr neuen Fertigungsverfahren (die Volumenproduktion läuft erst seit Anfang des Jahres) an einen solchen "Monsterchip" derzeit heranwagen wird. Die Produktion wird aufgrund des neuesten Verfahrens eh schon sehr teuer und wird sich bei schlechtem Yield noch deutlich weiter verteuern.

Hier gibt es noch einige Variablen mehr aber ob das Kind am Ende Ampere genannt wird, ist erst mal zweitrangig.

Auch wenn nVidia nicht müde wird, darauf hinzuweisen, dass Turing einen besseren Marktstart hatte als Pascal (wobei hier die Frage ist, welche Metrik sie für diese Aussage heranziehen), so haben sie im Zuge seiner Veröffentlichung dennoch unzweifelhaft eine harte Abwertung hinnehmen müssen (Nasdaq). Der Kurs ist innerhalb der zwei, drei Monate nach der Vorstellung von Turing um 50 % eingebrochen und hat sich seit dem kaum erholt und steht derzeit immer noch bei tiefen 145 US$. Ein weiterer Punkt, der eher für ein früheres als späteres Release einer neuen general purpose GPU spricht, die Turing beerbt.
 
Man kann es auch so zusammenfassen: Nvidia wird weniger vom Wettbewerb als von den eigenen Shareholdern getrieben.
 
Mal schauen ob sich die Anzahl der Tensor Cores bei den "Super"-Modellen auch verändert.
Sonst bleibt die neue RTX 2060 S trotz 8 GB GDDR6 für Raytracing in Spielen weiterhin zu schwach und
mit einem Preis über 300 € auch noch unattraktiv.
 
Die Anzahl der RTX Titel ist meines Wissens immer noch an einer Hand abzählbar, ausreichende Performance hin oder her.

DLSS (Doesn't Look So Sharp) dürfte als Selling-Point auch dahin sein.

Eigentlich sollte man den Die-Space gar nicht erst für Tensor-Schrott verschwenden, wenn er sowieso - in seiner verbauten Form - keinen sinnvollen Nutzen erfüllt.

Allerdings bin ich kein BWLer ;)
 
Oben Unten