Frage Warum ist großer RAM immer langsamer als kleiner?

OldMan

Veteran
Mitglied seit
Mrz 28, 2024
Beiträge
134
Bewertungspunkte
54
Punkte
28
Standort
München
Ein freundliches Hallo zum Montagmorgen,

ich bezeichne mich jetzt nicht als absoluten Profi, aber ganz unwissen bin ich jetzt nicht was Computer anbelangt. Nur eine Frage stellt sich mir doch: Warum ist großer RAM langsammer als kleiner RAM, vor allem bei DDR 5. Unter groß verstehe ich hier alles über 64GB. Bei meinem kleinen System (Ryzen 9 5950x mit 128GB RAM) war das alles kein Problem. 4 Bänke voll besetzt und alles lief ohne Probleme. Jetzt bei dem 7950x3d ist es schlicht ein Grauß. 96GB RAM auf 2 Bänke verteilt geht so, aber mit 192GB und 4 Bänken ist es schlicht Sch.....! Es läuft zwar aber ziemlich "langsam" mit nur 4200. Darüber hinaus bekommt man keinen "flinken" Speicher der Latenzen in dem Bereich der 16 oder 32 GB Module hat. Warum ist das bitte so? Ich bin bisher immer davon ausgegangen dass der höhere Preis für die Module auch eine entsprechende Performance mitbringen, aber weit gefehlt. Und, nur weil der RAM mehr Kapazität hat muss er ja nicht langsamer sein, war bei DDR4 ja auch nicht so.
Kann mir da jemand von Euch mal ein wenig auf die Sprünge helfen warum das so ist?
 
Lösung
Ich glaube da muss man prinzipiell erstmal 2 Faktoren unterscheiden:
- wie gut kommt der IMC (Speichercontroller) der CPU mit mehreren Ranks klar
- wie "flink" sind die DDR5 ICs an sich

Prinzipiell verlierst du mit mehr als 1 Rank bei DDR5 einiges an Takt-Potential, aber die Timings kannst du relativ gleich straff fahren.
Um jetzt mal Zahlen aus dem Himmel zu greifen, "guten" DDR5 gibts mit 1 Rank (2x 16 GB) bei 7200c34 oder 2 Ranks (2x 32 GB) bei 6000c28, nur so als Beispiel.

Bei den ICs hast du aktuell nur 16 Gbit und 24 Gbit zu Auswahl, ergo maximal 24 GB für ein Single Rank Modul und 2 x 24 GB für ein Dual Channel, 1 Rank pro Channel, Kit.
Bei den 24 GB ICs gibt's aktuell meines Wissens jeweils 1 pro Hersteller:
- Samsung 24...
ECC ist hier ja nicht das Problem, wobei natürlich das oD-ECC bei DDR 5 kein wirkliches ECC ist. Und das SPD, so habe ich es zumindest "erlesen" ist die Verbindung zwischen dem Speichercontroler der CPU und dem RAM: Zitat eines Speierherstellers: "DDR5 verwendet einen neuen Baustein, der das Serial Presence Detect (SPD) EEPROM mit zusätzlichen Hub-Funktionen integriert, den Zugriff auf den externen Controller verwaltet und die Speicherlast auf dem internen Bus von der externen entkoppelt."
Ich dachte auch immer das SPD von Speed kommt, ist aber nicht.
Dann sagst Du, warum große Daten länger dauern zum kopieren als kleine. Das ist die Sicht von den Daten heraus. Ein 2TB NVMe ist ja auch nicht zwingend schneller als eine 4 TB NVMe. Auch wenn der Vergleich etwas hinkt. Aber wenn ich nun 20 Instruktionen bei gleicher Taktrate auf einem RAM mit niedrigen Timings, also kleinem RAM, ausführe dann ist das eben schneller als wenn ich 20 Instruktionen auf einem RAM mit hohen Timings, also großen RAM, schreibe. Und das hängt an den Timings. Und genau dieser Grund interessiert mich warum die Timings bei großen RAM Riegeln höher sind als bei kleinen.
Danke, dass habe ich noch nicht auf dem Schirm mit DDR5.

Ich nutze schon richtiges Multi-Bit ECC mit 8 Bit pro Speicher Modul mehr.
Das Anhängen der Prüfsumme kostet eben etwas Latenz, dient aber der Sicherheit. (besser Einmal richtig, als 2 mal mit Fehler)

Ich weiß was du meinst, aber die Latenz ist ganz ohne Daten, also nur wie lange braucht der IMC bis Zelle X von 0 auf 1 wechselt.
Die Bandbreite ist das Maß der Leistung für Speichermedien, nicht die Einzelzeit für das Ansprechen der Speicherzellen.

Speicherzellen sind übrigens nichts anderes als Kondensatoren, mit allen Elektrischen Eigenschaften die diese haben. ;)
 
Ich glaube da muss man prinzipiell erstmal 2 Faktoren unterscheiden:
- wie gut kommt der IMC (Speichercontroller) der CPU mit mehreren Ranks klar
- wie "flink" sind die DDR5 ICs an sich

Prinzipiell verlierst du mit mehr als 1 Rank bei DDR5 einiges an Takt-Potential, aber die Timings kannst du relativ gleich straff fahren.
Um jetzt mal Zahlen aus dem Himmel zu greifen, "guten" DDR5 gibts mit 1 Rank (2x 16 GB) bei 7200c34 oder 2 Ranks (2x 32 GB) bei 6000c28, nur so als Beispiel.

Bei den ICs hast du aktuell nur 16 Gbit und 24 Gbit zu Auswahl, ergo maximal 24 GB für ein Single Rank Modul und 2 x 24 GB für ein Dual Channel, 1 Rank pro Channel, Kit.
Bei den 24 GB ICs gibt's aktuell meines Wissens jeweils 1 pro Hersteller:
- Samsung 24 Gbit B-Die (ist grottig, gerade bei mir auf der Bench)
- Micron 24 Gbit RevB (taktet sich so mittelmäßig, aber mit relativ lockeren Timings, Test ist online
- Hynix 24 Gbit M-die (taktet sich sehr gut, aber ein wenig lockerer als 16 Gbit A-Die oder M-Die, habe ich hier aber nie einen Artikel zu gemacht)

Mit letzterem IC und einem guten Board sollten auch 2 Ranks (2x 48 GB) bei z.B. 6000c30 möglich sein. Habe leider kein solches Kit hier.

Mit 4 Single Rank Modulen hat man zwar effektiv auch 2 Ranks pro Channel und die selbe Kapazität, z.B. 4 x 24 GB, aber mit 2 RAM-Modulen pro Channel verlierst du nochmal mehr Takt. 2 große Module sind also immer 4 kleinen Modulen vorzuziehen.
 
Lösung
Also ich würde es mal kurz und knapp so zusammenfassen.
Je mehr an einer Datenleitung hängt, bei 4 statt 2 DIMMs oder Dual Rank Modul oder großen ICs mit hoher Speicherdichte,
umso schlechter wird die Qualität des Signals.
Durch die erhöhte Leistung leidet die Steilheit der Signalflanken, es kommt leichter zum übersprechen aus benachbarten Leitungen,
der Abbau der Ladungsträger dauert länger usw...
Darum wird, je mehr Speicher verbaut wird, die maximale Geschwindigkeit begrenzt und/oder Latenz erhöht.

@OldMan
Grob umrissen von mir keine Garantie auf Vollständigkeit.
 
@Zecka @skullbringer @8j0ern zuerst mal vielen Dank für die Geduld und die sehr vielen Infos die meinem Verständnis hier auf die Sprünge geholfen haben! Nun verstehe ich auch woher, vor allem in Bezug auf die Latenzen, die Unterschiede kommen. Ich war bisher der Annahme dass es eben auch 48Gbit ICs gibt. Da es aber nur 24Gbit Bausteine gibt erklärt dann natürlich sehr vieles. Die Annahme von mir kam daher weil die Boardhersteller ja alle erst im Frühjahr per BIOS Update eine 256GB RAM Unterstützung implementiert haben. Die Erklärung von @skullbringer erklärt für mich auch warum es aktuell noch keine 64GB Module auf dem Markt gibt, zumindest nicht für den PC-Markt. Im Serverbereich gibt es die ja schon länger.
Somit vielen Dank.
@skullbringer du schreibst: "Mit letzterem IC und einem guten Board sollten auch 2 Ranks (2x 48 GB) bei z.B. 6000c30 möglich sein. Habe leider kein solches Kit hier." So ein Kit mit der Spezifikation gibt es aktuell auf dem Markt nicht. Kann man durch manuelles Tuning eventuell erreichen, aber nach Spezifikation bei den Herstellen bekommst Du aktuell max. CL32 und das aber nur bei JEDEC Betrieb.
 
@OldMan

Bezüglich on-DIE ECC, mit HWinfo64 kann man auslesen welche ECC Technik genutzt wird.

HWinfo64_ECC_MultiBit.jpg

Bei mir ist es wie gesagt Multi-Bit ECC, die Speicher Module haben 64 Bit für Daten und 8 Bit Extra für Prüfsummen (72 Bit in Summe).
Und das mit einem Desktop Mainboard. ;)
 
@Zecka @skullbringer @8j0ern zuerst mal vielen Dank für die Geduld und die sehr vielen Infos die meinem Verständnis hier auf die Sprünge geholfen haben! Nun verstehe ich auch woher, vor allem in Bezug auf die Latenzen, die Unterschiede kommen. Ich war bisher der Annahme dass es eben auch 48Gbit ICs gibt. Da es aber nur 24Gbit Bausteine gibt erklärt dann natürlich sehr vieles. Die Annahme von mir kam daher weil die Boardhersteller ja alle erst im Frühjahr per BIOS Update eine 256GB RAM Unterstützung implementiert haben. Die Erklärung von @skullbringer erklärt für mich auch warum es aktuell noch keine 64GB Module auf dem Markt gibt, zumindest nicht für den PC-Markt. Im Serverbereich gibt es die ja schon länger.
Somit vielen Dank.
@skullbringer du schreibst: "Mit letzterem IC und einem guten Board sollten auch 2 Ranks (2x 48 GB) bei z.B. 6000c30 möglich sein. Habe leider kein solches Kit hier." So ein Kit mit der Spezifikation gibt es aktuell auf dem Markt nicht. Kann man durch manuelles Tuning eventuell erreichen, aber nach Spezifikation bei den Herstellen bekommst Du aktuell max. CL32 und das aber nur bei JEDEC Betrieb.
Ein großes Problem ist auch, dass diese dual-rank Konfigurationen nicht wirklich gut optimiert sind, einfach weil es nicht viele Nutzer gibt. Die meisten Gamer sind mit 32 GB als single-rank Config happy, während bei DDR4 16 GB als standard single-rank Option schon knapper war.

Wenn es nicht viele Nutzer gibt, optimiert das auch kein Mainboard Hersteller, dann gibt es nicht viele Kits, dann kaufen sich nicht viele Leute so ein Kit, dann gibt es keine Nachfrage und keine Nutzer und so dreht sich das leider im Kreis. Btw samplen DDR5 Hersteller auch solche Kits einfach nicht, weil zu teuer. Und welcher Tester kauft sich mal eben ein 400 Euro RAM Kit?

Also ja, wenn du so eine Config möchtest/brauchst, ist das größtenteils unerforschtes Gebiet und du wirst trotz QVL und Versprechen diverser Hersteller wahrscheinlich die eine oder andere Frustration haben.

Kits gibt es aber, anhand der Timings müsste das z.B. mit ziemlich großer Wahrscheinlichkeit Hynix 24 Gbit M-Die sein:
https://geizhals.de/g-skill-ripjaws...f5-6800j3446f48gx2-rs5k-a2960419.html?hloc=de

Ob das XMP mit 6800 c34 auf jedem Board stabil läuft, waage ich mal zu bezweifeln, aber rechnerisch ist das auf dem Niveau von 6000c30. Versuch macht klug (und ein bisschen arm)
 
- Hynix 24 Gbit M-die (taktet sich sehr gut, aber ein wenig lockerer als 16 Gbit A-Die oder M-Die, habe ich hier aber nie einen Artikel zu gemacht)
Mit letzterem IC und einem guten Board sollten auch 2 Ranks (2x 48 GB) bei z.B. 6000c30 möglich sein. Habe leider kein solches Kit hier.

Ich habe ein Corsair Kit mit 2 Modulen zu je 48 GiB (sind Hynix M) an meinem 7950X3D auf einem X670E Steel Legend in 6000 CL30 im Betrieb; keinerlei Fehler im Betrieb, im Memtest86 und in Karhu feststellbar.
 
Zuletzt bearbeitet :
Oben Unten