Frage Wieso verbraucht Lovelace so viel?

Kane009

Mitglied
Mitglied seit
Apr 16, 2022
Beiträge
24
Bewertungspunkte
21
Punkte
3
Ich habe eben gerade meine 970 durch eine 3070 ersetzt. Die neue Karte bringt fast genau 3x so viel fps wie die alte. Nenn-TDP ist 220W für die 3070 und 148W für die 970. Inspiriert durch Igors Artikel konnte ich den Durst der 3070 noch weiter zügeln (900mV @ 1860 MHz = 183W).
Die RTX 4060 soll jedoch laut Gerüchten mehr als die 3070 verbrauchen, obwohl sie vermutlich ähnlich viel leisten wird. Aber eigentlich sollte sich doch durch den 5 nm Prozess (statt 8 nm wie bei Ampere) die Effizienz um 30-50% (?) verbessern, wenn man alles andere gleich lassen würde, oder sehe ich das falsch? Der Chip alleine ist ja für ca. 75% der gesamten TDP einer Graka verantwortlich.
Gibt es eine Übersicht über die normierte Effizienz der einzelnen Strukturgrößen? Warum scheinen bei CPUs die Strukturverkleinerungen die Effizienz mehr zu steigern als bei GPUs?
 
Das ganze Thema ist etwas zu komplex, als dass man es allein auf die Zahl einer Strukturgrösse reduzieren könnte. Für eine genauere Beurteilung fehlen einem auch viele Informationen zum Aufbau der Strukturen und der Herstellungsprozesse. Man bekommt ja nur die Informationen, die Hersteller öffentlich machen und das ist nicht gerade viel.

Wenn man eine Struktur verkleinert, werden die Wege kürzer und die nötigen Strommengen für eine Schaltung kleiner. Daher sinkt der Strombedarf bei Verkleinerungen meist. Man ist aber auch schon länger im einem Bereich, in dem die Isolationsschichten zwischen den Leiterbahnen so klein sind, dass eine gewisse Menge Elektronen durch die Isolation migriert. Wenn man die Schicht noch dünner macht, migriert mehr Strom und man hat mehr Verlust (und im schlimmsten Fall sogar einen Kurzschluss). Dadurch kann der Stromverbrauch durch Verkleinerungen auch grösser werden. In der Produktion versucht man das soweit möglich zu optimieren, so dass der Strombedarf sinkt und die Verluste trotzdem nicht zu gross werden und die Einsparungen zunichte macht.

Eine Strukturgrösse Bezeichnet schon länger auch keine definierte Grösse mehr. Man verkleinert nicht nur, sondern stapelt die Transistoren oder ordnet sie anders an, so dass mehr auf eine bestimmte Fläche passen. Wenn die Menge pro Fläche grösser wird, wählt man dafür eine kleinere Nummer die man Strukturgrösse nennt. Was dann verändert wurde, bleibt dem Hersteller überlassen und die Grössen der Hersteller sind auch nicht vergleichbar.

Daneben gibt es aber auch noch Veränderungen im Aufbau der Schaltungen. Ein Prozessor hat einen ganz anderen Aufbau als eine GPU. Schon eine GPU hat unterschiedliche Recheneinheiten beispielsweise für RTX. In einer CPU hat man dagegen Einheiten, die vorausschauend heraus zu finden versuchen, welche Befehle bald ausgeführt werden könnten. Diese werden dann parallel schon voraus berechnet oder zumindest vorbereitet. Wenn der Befehl dann wirklich ausgeführt wird, kann das Resultat bereits da sein. So wird der Prozessor bei gleichem Takt schneller. Verbesserungen in solchen Bereichen sieht man als Anwender nicht, da einem die Hersteller das nicht genau erklären. Es wirkt sich aber auch auf die Effizienz des Prozessors aus.

Welche Prozessor- und Recheneinheiten verbaut sind, hat natürlich einen Einfluss auf die Verfahren, mit denen die Prozessoren hergestellt werden. Wie stark sich da CPU und GPU von einander unterscheiden, kann ich nicht abschätzen.

Am Schluss ist auch wichtig, wie stark man an die Grenze einer Technik geht. Wenn man eine CPU/GPU nahe der Leistungsgrenze laufen lässt, wird die Verlustleistung exponentiell grösser. Wenn man den Takt etwas zurück nimmt, wird die Verlustleistung bedeutend kleiner. Gut, das ist allgemein bekannt, aber eben auch ein Einflussfaktor.

Somit sind es viele Einflussfaktoren, die die Effizienz beeinflussen. Über die Veränderungen in den meisten Bereichen fehlen einem aber jegliche Informationen, so dass man nur anhand der bekannten Daten etwas spekulieren kann. Ohne Insiderwissen wird man da auch nicht mehr beurteilen können.
 
Ich würde eh erst einmal Tests abwarten. Ich denke da sieht man dann, was an den Gerüchten dran ist.
 
Gerade eben wurden auf 3dcenter mögliche (maximale) Stromverbrauchslimits für die verschiedenen neuen Chips gepostet. Für den AD106 sind das 260W (!!!) für 36 SM @ 128 Bit. Das wären 7,2W/SM. Man vermutet 34-36 SM bei realen 230W Verlustleistung für die 4060. Die 3070 dagegen hat 46 SM @ 256Bit bei 220W, das sind 4.8 W/SM. Den Nachteil an Hardwareeinheiten und Busbreite wird die 4060 wahrscheinlich mit sehr hohem Takt kompensieren, um auf ähnlichem Level wie die 3070 rauszukommen. Ist ja gut möglich, dass die Lovelace-Chips mit 10% weniger Leistung gleich um 1/3 weniger Strom ziehen. Ich hab den Eindruck, früher hat man normale Produkte verkauft, die sich dann bei Bedarf übertakten ließen (mit all den negativen Begleiterscheinungen), und heute werden die Produkte schon standardmäßig völlig am Limit übertaktet verkauft, um im Wettbewerb gut dazustehen, und jeder normale Mensch lädt sich nach dem Kauf gleich als erstes den MSI Afterburner runter, um das Gerät wieder mit vernünftigen Settings betreiben zu können.
 
Erstmal abwarten, beim 12900K hieß es zuerst auch, 300W und mit Luft unkühlbar. Aber dass man den Afterburner immer bemühen muss, um leiser und kühler zu fahren, wenn es kein umschaltbares Silent-BIOS gibt, befürchte ich auch. Falls es kein vernünftiges luftgekühltes Modell einer 4080/4090 gibt, bleibt die 3090 halt lange drin.
 
Oben Unten