Grundlagenartikel Warum die Leistungssteigerung von Nvidias Ampere durchaus gewaltig sein könnte - die Boardpartner müssen bereits jetzt in die Übungsphase

Wenn man dann noch bedenkt, dass NVIDIA 2 Milliarden USD für Forschung und Entwicklung (baut nur GPUs) [...]

Kleine Korrektur ;), konkret sehen die Zahlen folgendermaßen aus für die letzten beiden Jahre:
AMD : 1,43 ; 1,55 Mrd. US$
nVidia : 2,38 ; 2,83 Mrd. US$

Zudem ist bei nVidia zu berücksichtigen, dass sie auch viel im Automotive/AI/visual processing-Segment forschen, also auch deren Bemühungen sich nicht ausschließlich nur direkt auf GPUs beschränken. (Zudem würde ich annehmen, dass der relative R&D-Anteil für diese Segmente höher liegt, als ihr absoluter Anteil gemäß Revenue unmittelbar zurückschließen lässt.)
Was aber auf jeden Fall bleibt ist, dass nVidia deutlich mehr Ressourcen für GPUs zur Verfügung stehen als AMD, was auch nicht verwundern sollte.
 
Das ist nicht wieder nur leib oder lieb gemeint, dass ist Fakt. Du bist auch einer von denen, die einen auf der Autobahn nicht auf die linke Spur lassen, richtig?
Ich fahr einen TT-RS Stufe1. Ich blockiere die linke Spur hinter mir nie. Und neben mir warten die Leute irgendwie immer von alleine, bis ich passiere.
 
@gerTHW84 I stand corrected - keine Ahnung wie ich auf die Zahlen kam. Heise schrieb ja auch:
Das Budget für Forschung und Entwicklung (R&D) hat Nvidia innerhalb eines Jahres von 605 Millionen auf 712 Millionen US-Dollar erhöht. Zum Vergleich: AMD hat laut seinen letzten Geschäftszahlen im gleichen Zeitraum 406 Millionen US-Dollar in seine Forschung und Entwicklung investiert – zusätzlich zu GPUs auch in CPUs.

Quelle: https://www.heise.de/newsticker/mel...-Grafikkarten-bluehen-wieder-auf-4587183.html
 
@gerTHW84: I stand corrected [...]

Nicht falsch von heise.de dargelegt, aber auch nicht übermäßig leicht verständlich geschrieben, insbesondere mit Blick auf Leser, die Bilanzen eher seltener lesen.
Konkret wird hier nur das 3. Quartal 2020 (!) besprochen, das bei nVidia Ende Oktober endet (bei nVidia unterscheiden sich Geschäftsjahr und Kalenderjahr). Die Quartale vergleicht man entweder zum Vorquartal (Q2Q), also bspw. 3Q20 mit 2Q20 (teilweise jedoch schwierig aufgrund möglicher saisonaler Effekte) oder von Jahr zu Jahr (Y2Y), also bspw. 3Q20 mit 3Q19 (Aug. - Okt. 2018). heise.de bezog sich bei der R&D-Angabe auf die Y2Y-Änderung des jeweils dritten Quartals mit 605 Mio. US$ für 3Q19 und jetzt 712 Mio. US$ in 3Q20 bei nVidia. (Die Gesamtausgaben pro (Geschäfts)Jahr belaufen sich auf die schon von mir zuvor genannten Werte. ;))

Btw.: War nicht "besserwisserisch" sondern rein informativ gemeint; insbesondere da sich die Zahlenverhältnisse signifikant änderten (AMD zu nVidia).
 
Zuletzt bearbeitet :
Och, Bilanzen und Geschäftsjahre / Kalenderjahre & Co. sind für mich eigentlich kein Ding - drum wundert es mich so, dass ich da so über daneben gehauen hab. ;)

Und kein Stress, war nicht "besserwisserisch" angekommen - wo kommen wir denn da hin, wenn man groben Unsinn nicht mehr korrigieren darf...? :D
 
Weil es mich hier gerade unvermittelt aus den Schuhen gehauen hat, mal was zum Wundern, Lachen oder Weinen, je nachdem ...
Bezugnehmend auf meinen vorausgegangenen Hinweis zur NVLink-Brücke von EVGA für rd. 90 US$, was sich auch so in etwa mit den Werten des nVidia-Shops deckt, dort 80 US$ für die NVLink-Brücke für eine Quadro 6000 oder 8000.
Direkt daneben sind zwei NVLink-Brücken für die GV100 abgebildet, die tatsächlich zwei Brücken verwendet und dadurch ggü. den Quadro's den Durchsatz auf 200 GiB/s verdoppeln kann. nVidia verlangt für den Spaß aber dann auch mal eben 600 US$ in ihrem Shop.
Hier ist wohl einer bei den Automobilbauern in die Lehre gegangen und hat zu viel Gefallen am Optionsgeschäft gefunden? :)

*) Nun muss man natürlich auch erklären, dass nVidia die GV100 in seinem Shop zuletzt für rd. 9.000 US$ anbot, d. h. wenn man ein Tandem hat, hat man bereits 18.000 US$ ausgegeben (exkl. VAT) und anscheinend denkt sich nVidia hier einfach, dass die 600 US$ doch dagegen vergleichweise klein/günstig erscheinen, wenn man den kumulierten Kartenpreis berücksichtigt. Ich denke hier kann man wohl ohne Übertreibung annehmen, dass nVidia bei diesem konkreten Produkt deutlich über 500 % Marge einfährt. Und die nun neu kommenden Karten werden voraussichtlich auch wieder neue/eigene Brücken erfordern ... ;)
 
Vielen Dank, Igor, für den feinfühligen Einblick ins Graka-Geschehen und danke ebenfalls allen Beteiligten für die vielen informativen Kommentare. Wollte wissen, was gerade auf dem Graka-Markt so los ist, bin auf den Artikel gestoßen und zack - ich mach fast 'nen Backdrill vor Freude bei den Kompetenzen hier... Btw, bin zufrieden mit ner 1080 in Full-HD unterwegs, aber es ist gut zu wissen, dass neue Performance-Monster kommen werden, weil dann das Aufrüsten mehr Sinn macht.
 
aber es ist gut zu wissen, dass neue Performance-Monster kommen werden, weil dann das Aufrüsten mehr Sinn macht.
Die sind für den Aufrüster bisher IMMER gekommen. Es ist immer nur eine Frage der Geduld...
 
Vielen Dank, Igor, für den feinfühligen Einblick ins Graka-Geschehen und danke ebenfalls allen Beteiligten für die vielen informativen Kommentare. Wollte wissen, was gerade auf dem Graka-Markt so los ist, bin auf den Artikel gestoßen und zack - ich mach fast 'nen Backdrill vor Freude bei den Kompetenzen hier... Btw, bin zufrieden mit ner 1080 in Full-HD unterwegs, aber es ist gut zu wissen, dass neue Performance-Monster kommen werden, weil dann das Aufrüsten mehr Sinn macht.
Willkommen im Club :)
 
Vorweg: Ich bin kein Elektrotechniker und nur ganz normaler User aber ich frage mich schon was sich nV davon verspricht. Es muss ja irgendwelche technischen und wirtschaftlichen Vorteile haben und ich denke da wird schon einiges an Zeit, Hirnschmalz und Geld reingeflossen sein. Wenn ich nicht ganz falsch liege, können die meisten(?) / alle(?) I/O-Blöcke in den GPUs mit den "neuesten" Fertigungsprozessen kaum geshrinkt werden.

Aus Laiensicht stelle ich mir das irgendwie so vor (korrigiert mich gerne wenn ich falsch liege :) ):

Da es auf absehbare Zeit wohl kaum schnelleren Speicher gibt, könnte nV die "bessere" Signalqualität nutzen um
- die Treiber? in der GPU für den Speicher schwächer/kleiner ausfallen zu lassen was entweder Fläche und/oder TDP einspart wenn dann "normaler" Speicher (14/16Gbps) genutzt wird und/oder
- bei den Top-Modellen mehr Saft zur Verfügung stellen um quasi "Haus-OC-Ram" (zB 18Gbps) ermöglichen zu können.
- keine Ahnung ob das möglich ist aber könnte durch die bessere Signalqualität damit der Ram generell mit weniger Spannung angesprochen werden? Also statt der üblichen 1,35V bei GDDR6 zum Beispiel 1,25V? Falls ja, wäre das ja definitiv für die Notebook-Chips interessant?
- wird dadurch auch das Layout der Leiterbahnen für den Speicher einfacher?

Bei NVLink könnte ich mir bei gleicher "Leistung" des I/O-Blocks eine Erhöhung der Datenrate vorstellen (NVLink 3.0?). Für den semi-/Pro-Bereich in Bezug auf RT und DL vielleicht nicht gerade unwichtig. Es ist mir schon klar das es da Steckverbindungen gibt die mit Sicherheit nicht optimal sind aber nunja, aus Laiensicht stelle ich es mir halt so vor das ein saubereres Signal ohne (großartige) Änderungen das trotzdem ermöglichen könnte.

Keine Ahnung ob die neue Generation Ampere/Hopper/Leberwurst dann auch HDMI 2.1 bringen wird, aber die Datenrate ist ggü HDMI 2.0b ca. 2,6 mal so hoch (14,4 -> 38,4 GB/s). Vielleicht könnten sie dadurch ebenfalls an der Leistung/Dimensionierung des "Display-Blocks" eventuell Fläche und TDP einsparen? Klar, im Vergleich zu GDDR6 ist die Datenrate ja eher bescheiden aber die Strecke bis zum Stecker ist auch wesentlich weiter.

Generell gefragt, können durch die "bessere" Signalqualität damit Bauteile auf der Platine eingespart oder zumindest qualitativ nicht so anspruchsvolle und somit günstigere Bauteile verwendet werden? Falls ja, würde das ja durchaus einen ganzen Rattenschwanz nach sich ziehen der im Endeffekt Kosten sparen und vielleicht sogar die Mehrkosten der Platine mehr als ausgleichen könnte. Falls dadurch sogar Die-Fläche und TDP-Budget eingespart werden könnte, wäre das also im Endeffekt eine Win-Win Situation für alle?

Sind wie gesagt, alles nur Überlegungen eines Laien. :)

MfG aus dem Ruhrpott :D
 
Wie gesagt... Wenns nicht mit irgendeinem hyper GDDR6 zusammenhängt, dann bleibt in der Tat nur HDMI 2.1.
 
Angeblich wird GA102 40% schneller als TU102 und wird mit 12GB RAM gepaart.
 
Wenn die 2080Ti so gerade an dem 60FPS bei 4K kratzt, machen 40% für durchaus einen elementaren Unterschied.
 
Jetzt fehlt nur noch jemand der sich vergangenen Tage erinnert und mal ansagen könnte wieviel Plus bei NV die letzten 4 Generationen so jeweils brachten.

"Komm raus komm raus, wo immer du bist"... 🙃
 
Wenn die 2080Ti so gerade an dem 60FPS bei 4K kratzt, machen 40% für durchaus einen elementaren Unterschied.
Gerade bei den min fps wäre das schon eine ordentliche Steigerung, zB. bei RDR2 von ca. 40 auf roundabout 56, da ist man dann schon nah dran an der "magischen" Grenze. Aber warten wir mal ab, ob es wirklich so einen Schub geben wird, angeblich wurde sich ja vorrangig auf die Raytracing-Leistung konzentriert.
 
Wäre ja auch nicht verkehrt und eifnach nur logisch. Das zieht schon spürbar an den fps, grad unterhalb der 2080ti.

Ob man dafür aber Backdrill treiben muss...
 
Zuletzt bearbeitet :
Keine 7nm TSMC, sondern 10nm++ von Samsung? :) (eine Art "8.6"nm)
Hmm... Kein EUV jedenfalls, wenn alles stimmt.
 
Abwarten 😉
 
Oben Unten