Grundlagenartikel Warum die Leistungssteigerung von Nvidias Ampere durchaus gewaltig sein könnte - die Boardpartner müssen bereits jetzt in die Übungsphase

Bin auch nicht so in der Materie drin, was heißt das den jetzt für mich als Kunden?
Werden die 3000er Karten noch teurer wie die 2000er, weil ich wollte meine 2080 verkaufen wenn die neuen kommen, aber sollten die noch teurer werden wie die 2000er Serie, dann wart ich auf den 5700XT Nachfolger.
 
Für mich hört es sich so an, Nvidia > teuer > teurer > am teurersten, bis der Kunde nur eine Alternative sieht und sich für entscheidet.
Nicht nur die Leistungssteigerung von Ampere wird gewaltig sein, sondern auch der Aufpreis. Da wird die Titan RTX im Vergleich ein Schnäppchen :devilish:
Genau wie das Thema "SLI-Brücken". Die flexible Brücke war als kostenloses Zubehör immer dabei und dann entwickelte Nvidia etwas neues für Pascal ( 1070, 1080, 1080Ti ), die "High-Bandwith-Brücke" ( SLI-HB-Bridge ab 40 € ).
Später auch für Turing ( RTX 2080, RTX 2080Ti ), die NVLink-Bridge ( ab 65 € ).
Sie können technisch noch so gut sein, nur es nützt wenig wenn die Frametimes trotzdem schlechter ausfallen wie mit einer einzelnen Grafikkarte 😁
Auf die Multi-GPU Unterstützung und Probleme in Spielen möchte ich gar nicht eingehen.

Bei den alten SLI Brücken hat sich der Grafikspeicher nicht addiert, zwei Grakas mit je 4GB VRAM hatten zusammen auch nur 4 GB.
Mit NVLink addiert sich der Grafikspeicher, also 8GB im Beispiel. Wäre mir die 20E Aufpreis ur HB Brücke wert....wenn ich SLI mögen würde.
 
Bin auch nicht so in der Materie drin, was heißt das den jetzt für mich als Kunden?
Werden die 3000er Karten noch teurer wie die 2000er, weil ich wollte meine 2080 verkaufen wenn die neuen kommen, aber sollten die noch teurer werden wie die 2000er Serie, dann wart ich auf den 5700XT Nachfolger.

Eine 3080 wird vermutlich teurer sein als die 2080, vermutlich aber auch deutlich schneller. Möglicherweise ist die 3070 schneller und preiswerter als die alte 2080. In der Vergangenheit war die 1070 schneller und dabei sogar günstiger als die 980ti. Die 2070super ist zumindest genauso schnell wie die 1080ti aber günstiger.
 
Bei den alten SLI Brücken hat sich der Grafikspeicher nicht addiert, zwei Grakas mit je 4GB VRAM hatten zusammen auch nur 4 GB.
Mit NVLink addiert sich der Grafikspeicher, also 8GB im Beispiel. Wäre mir die 20E Aufpreis ur HB Brücke wert....wenn ich SLI mögen würde.
Die "alten" Brücken wo sich der Speicher nicht addiert hat, waren kostenlos. Der "Aufpreis" beträgt also 65€ ;)
Herstellungswert um die 15€.
 
Ich spiele mit dem Gedanken, die 2080ti zu verkaufen, solange man noch einen ordentlichen Preis erzielen kann. Von der Technikseite habe ich keine Ahnung 🙈
Ich würde da schön abwarten, die Füsse hochlegen und Tee trinken :D
Du weißt ja nicht genau, wann die 3000er Generation (3080Ti) tatsächlich raus kommt und zu welchen utopischen Preis.
Kann ja gut sein, dass diese dann 1,5K€ kostet und die Preise für eine gebrauchte 2080Ti relativ stabil bleiben werden, so das du letztenendes dennoch deine 750€ oder mehr dafür bekommst. Dass selbe war damals zum Generationswechsel 1080Ti zur 2080Ti auch. Kurz vor erscheinen der 2080Ti sind die 1080Ti für 500€ weg gegangen, eine Monat später auf einmal für 650-750€.
Deswegen mache ich mir erstmal keine Sorge und warte erst mal ab, we der Markt darauf reagiert 👍
 
Ist AMD denn seit Navi im Verhältnis zur Performance günstiger? Sehe ich nicht so.
In den Testberichten zu den neuen AMD Navi Modellen habe ich wie viele andere auch, meine Unzufriedenheit über den Preis ausgedrückt.
Nvidia hat über die Jahre gezeigt wie man das Verhältnis zwischen Performance und dem Verkaufspreis "regelt" und mit Navi folgt AMD jetzt nur dem Beispiel. Leider sind die Zeiten wo man beim Aufrüsten für's gleiche Geld mehr Leistung bekam, vorbei.✌
 
Schon lustig wie hier Meldung zu Produktionstechnik potentiel neuer NV Karten mit AMD Spam beflastert wird .

mich stimmt die Meldung zuversichtlich das meine beiden Paacalkarten endlich eine lohnendes Upgrade bekommen und ich nicht die selbe Leistung wie schon 2016 als Angebot erhalte .
 
Ich denke auch, das Füße hochlegen und abwarten angesagt ist. Möchte irgendjemand Erdebeertee mit Hirsekeksen?

Denn ich glaube das, bis die potentielle 3080 Ti in einer Boardpartner-Version tatsächlich in nennenswerten Stückzahlen für Endkunden verfügbar ist und es ebenso einen gescheiten Flüssigkeitskühler dafür gibt, es mit Sicherheit Weihnachten oder gar schon 2021 ist.
 
Ich freu mich drauf!
 
mich stimmt die Meldung zuversichtlich das meine beiden Paacalkarten endlich eine lohnendes Upgrade bekommen und ich nicht die selbe Leistung wie schon 2016 als Angebot erhalte .

Kann ja sein, im Moment ist der Bepreisungstrend aber daran bemessen, was der Vorgänger leistete und kostete. Gleiche Leistung fürs gleiche Geld.

Wenn hier also ein ordentlicher Leistungssprung stattfinden sollte, sind wir damit sind wir dann wohl bei 1000€ für midrange und 1700€ für highend 🤡
 
Zuletzt bearbeitet :
Für mich ist es interessant zu sehen, dass der Kostendruck anscheinend so extrem hoch ist. Weil Sacklöcher usw. sind jetzt keineswegs ungewöhnliche Maßnahmen, wenn Wert auf die Signalintegrität gelegt wird. Meiner Meinung nach muss der Kostendruck schon enorm sein um bei Grafikkarten usw. komplett darauf zu verzichten.
 
@Deridex
Zum einen das, zum anderen ist das wahrscheinlich eh alleine dem Speicherinterface geschudlet. Der wird wie bisher gelegentlich nämlich auch mal schmaller (als 256bit), aber eben viel hochfrequenter. Das ist alles.
Für mehr braucht man das eh nicht auf einem Graka-PCB mit verlöteter GPU und verlötetem Speicher. Kein Vergleich mit dem was Mainboardhersteller zu meistern haben ;)

Sonst geht man von 12nm auf 7nm. Da drf man eben mind. den Schub erwarten den AMD damit innerhlab des eigenen Sortiments hinbekommen hat.

Und damit... Ok, ich will nicht gleich von einer ganzen Sau sprechen, aber hier wird ein Ferkel kurz durch ein Minikaff getrieben. In einer Form die keineswegs richtig schlimm ist ;), aber auch nichts womit man mehr als diese 2 Seiten füllen müsste...
 
Unterschätze die Anforderungen von HDMI, PCIe und Displayport nicht. Das Zeug und die RAM-Anbindung ohne die genannten "Hilfsmittel" sauber zu realisieren erfordert schon eine gewisse Leidensfähigkeit vom Layouter oder eine hohe Kompromissbereitschaft. Ich tippe, das letzteres oft der Fall ist.

Bedenke bei 16x PCIe sind es 16 differentielle Leitungspaare. Pro HDMI und Displayport waren es (wenn ich mich recht erinnere) 4 differentielle Leitungspaare. Das Ganze muss dann auch noch Längenmäßig und Impedanzmäßig angepasst sein.
 
Ich rede aber eben nicht von Mainboards, sondern von Grakfikkarten, auf welchen alles auf 1/5 (?) der Fläche eines Mainboards verlötet ist. Oder andersrum:
Angesichts deiner Einwände, wie lange musste denn AMD für die Herstellung der W5700 üben?? Das Ding macht PCIe 4.0 x16, DisplayPort 1.4, maximale Auflösung 7.680 x 4.320, maximale Monitoranzahl 6.
🤔

Für mich siehts so aus, als wenn man für 18Gbps GDDR6 übt, weil NV das gerne für die <256bit Modelle hätte. Mehr Besonderheiten daran sehe ich erstmal nicht.
 
Zuletzt bearbeitet :
Laut Igor's Artikel geht es bei der verfeinerten Herstellungsweise um die Erreichbarkeit deutlich höherer Taktfrequenzen. Hat also wohl weniger etwas mit komplexen Schaltungen auf dem PCB zu tun, als mit der Verringerung von ungewünschten Reflexionen.
 
Zuletzt bearbeitet :
Davon rede ich doch. Höhere Frequenzen an den Speicher-Lötpunkten...

Auf einem Intelboard, mit einer CPU die nur draufliegt und angedrückt wird, kann man 5ghz mit 200W fahren. GPUs sind verlötet. Nicht erst seit gestern.

Was ist das besodnere daran? ;)
 
Zuletzt bearbeitet :
Für mich siehts so aus, als wenn man für 18Gbps GDDR6 übt, weil NV das gerne für die <256bit Modelle hätte. Mehr Besonderheiten daran sehe ich erstmal nicht.

a) Den teuersten GDDR6-Speicher in Form von 18 Gbps für die güstigsten Karten macht keinen Sinn. Das hat auch bereits die Vergangenheit gezeigt, denn nicht umsonst verbauen die Hersteller hier normalen oder gar langsameren GDDR, trotz ggf. noch einmal schmalerem Speicherinterface, so weiterhin nur reguläre 14 Gbps auf allen RTX-Karten (mit der einzigen Ausnahme RTX 2080 Super) und ebenso auf der GTX 1660 Super mit 192 Bit Interface, während die reguläre GTX 1660 gar nur mit GDDR5 auskommen muss. Auch die RX 5700(XT) verbaut nur 14 Gbps-Chips und die RX 5500 XT gibt sich trotz den 128 Bit mit nur 14 Gbps zufrieden (und verbaut nicht etwa 16 Gbps).

b) Wie Igor schon schrieb, scheint die Verfügbarkeit von GDDR6 mit 18 Gbps kaum gegeben zu sein, abgesehen davon, dass diese Chips den Platinenaufwand voraussichtlich auch nicht erforderlich machen würden und auch HBM fällt hier aus der Betrachtung raus, da der auf einem Interposer direkt mit den GPUs daher käme. Die Speicheranbindung wird also voraussichtlich nicht der Grund sein und PCIe 4.0 per se nicht (denn die gleichen Boardhersteller fertigen schon PCIe-4.0-Designs auf Basis von Navi, d. h. hierfür hätte nicht die Notwendigkeit für "Trockenübungen" gegeben).
Die plausibelste Erklärung ist ein Chip-to-Chip-Interconnect für ein Multi-Chip-Design. Intels Xe-Architetur ist offensichtlich bereits darauf ausgelegt (die HPC-Karte "Ponte Vecchio" verwendet gar 16 Chips) und nVidia stellte bereits im letzten Jahr in Tokyo ein entsprechendes Design für eine mögliche, neue HPC-Architektur vor. Vielleicht geht man den Weg nun auch für das Consumer/Visualization-Design, denn das, was man jetzt vorstellt, wird architektonisch mindestens bis 2022 reichen müssen. Das heißt, wenn Intel tatsächlich 2- oder 4-Tile-Designs in 2021 ausliefern kann, dass nVidia durchaus ein Problem mit einem weiterhin monolithischen Design vergleichbar zu Pascal/Turing hätte.
 
Zuletzt bearbeitet :
Also ich muss hier mal ein paar Dinge klarstellen, was Leiterplattenlayouts angeht.
1. Eine kleinere Leiterplatte ist nicht unbedingt einfacher zu Layouten. Erfahrungsgemäß ist das Gegenteil der Fall. Speziel für das Längentuning von Highspeedsignalen kann sehr viel Platz drauf gehen. Es gibt schließlich Frequenzabhängige Mindestradien für die Meander. Obendrein sollten die differentiellen Leiterpaare nicht zu nah bei einander sein usw.
2. Die Verbindung von Steckverbinder zur GPU muss, auch wenn alles fest verlötet ist, trotzdem auf der Leiterplatte erfolgen. Also wieder Leierplattenlayout.
3. Es ist relativ egal wie schnell eine CPU oder GPU taktet, solange das Ding die Umgebung nicht stört. Was relevant ist, sind die Schnittstellen von GPU/CPU zur Umgebung wie PCIe, RAM, HDMI, Displayport usw. Wenn natürlich ein neuer hochfrequenter Interconnect dazu kommt, kann es sein, dass hier angepasst werden muss.
4. Die Anforderungen für diese Schnittstellenart umfassen meist Impedanz gegen das nächste Plane, differentielle Impedanz, Intrapairlängendifferenz inklusive der Beachtung der Regeln für differentielles Routen, Interparlängendifferenz, maximale Anzahl an Durchkontaktierungen im Leitungspfad, Mindestabstand zu anderen Signalen, Mindestabstand zu anderen Highspeedsignalen, Mindestabstand zu Polygonen und natürlich noch Regeln wie man Reflektionen vermeidet.
5. 5GHz hört sich zwar für den User viel an, ist jetzt aber nichts, was man nicht handhaben kann. Die Kunst ist das möglichst billig hin zu bekommen. Rein zur Info: Selbst USB3 läuft ja scon mit 2,5 GHz. Und bezüglich der technischen Machbarkeit: Keysight verkauft Oszilloskope mit 256 Gs/s.
 
Oben Unten