Reviews SSD & HDD Storage Storage drives

Teamgroup T-FORCE Cardea Z540 PCIe 5.0 NVMe SSD review – Fast and not quite cheap

What does dynamic pSLC cache actually mean?

Let’s now move on to a somewhat more technical detail that most people are probably not fully aware of. A lot has already been written about pSLC cache, so there’s no need to go through it again in detail, at most as a little refresher. Here we go..

To increase the write speed, the so-called “pseudo-SLC cache” (pSLC) is often used in consumer products, although it can now also be found in various industrial solutions. For this purpose, part of the NAND capacity is configured as SLC memory, in which only one bit per cell is stored. Accordingly, this memory can be written and read very quickly. As it is not dedicated, i.e. not real SLC memory, it is called pseudo SLC. Such a cache can be used for all memory types that store several bits per flash cell, i.e. three bits as in the case of TLC. The pSLC cache also uses a significantly higher voltage for the one bit, which offers a certain level of security and is therefore better than Fast Page.

The use of pSLC cache offers a speed advantage, especially when the storage medium is not loaded with read or write accesses between the writing of large amounts of data. These idle times are used by the storage medium to move data from the cache to the TLC area.

Figure 1 – Pseudo SLC cache (pSLC)

 

But everyone knows the disadvantages of the pSLC. When the fast pSLC cache is full, the speed drops significantly, as further write accesses to the storage medium must first free up the pSLC by moving older data from the cache to the TLC memory. But what is hidden behind “dynamic pSLC cache”?

Dynamic pSLC cache has now also found its way into industrial storage solutions, but only with very severe restrictions. In contrast to the static pSLC cache, up to 100% of the NAND flash is used dynamically as a pSLC cache, depending on how full the storage medium is. The cache can therefore comprise up to 1/3 of the total memory size.

However, the write speed of the storage medium depends not only on the amount of data that is written without interruption, but also on the fill level of the memory. And this is precisely what makes the write speed in the life cycle difficult to predict.

Figure 2 – Dynamic pSLC Cache and Performance (based on Swissbit study)

Although NAND flash manufacturers advise against dynamically changing the configuration of flash blocks as pSLC or TLC memory for reasons of reliability, the consumer sector, where temperature windows are not so important, takes a more relaxed view.

All manufacturers of dynamic NAND storage media, including Micron, permanently switch back to TLC mode after a specified maximum number of program and erase cycles. Before this, the storage medium achieves the best values, especially for short write operations that do not require the entire capacity. After a certain period of use, however, the medium is permanently slowed down and this should never be ignored. The E26 from Phison is quite good at dynamically changing the configuration of flash blocks, but it can’t outwit physics either.

Effects in practice

In practice, the whole thing looks like this: on the empty T-FORCE Cardea Z540 2TB, the SLC cache still reaches a size of approx. 210 GB, while it is then reduced to a third on the drive that is 75% full. In both cases, the data rates then collapse when writing, but this is always the case and nothing new.

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

1,662 Kommentare 997 Likes

Ich finde es auch bei diesen PCIE-5 SSDs immer wieder faszinierend, daß die Lesegeschwindigkeit so deutlich unter den Schreibgeschwindigkeiten bleibt. Mir ist klar daß das Aufsuchen (und Finden) von Datenblöcken sich deutlich komplizierter gestaltet als das Schreiben (solange genug Platz auf der SSD ist). Vielleicht würden die Firmen, die SSD Controller, NAND Architektur und auch die SSD Treiber fürs System entwickeln etwas mehr Arbeit in beschleunigtem Zugriff investieren, wenn wir der Lesegeschwindigkeit mehr Aufmerksamkeit geben würden, oder vielleicht sogar Vorrang vor noch größerer Schreibgeschwindigkeit. Vielleicht bin ich in einer deutlichen Minderheit, aber mein Eindruck von besserer Schwupdizität ist mehr von schnellerem Zugriff auf Daten geprägt als Schreiben mit 12000 oder "nur" 10000 GB/s. Der Fortschritt v.a. beim Lesen von kleinen Dateien ist im Vergleich, leider, eher dürftig.

Antwort 3 Likes

L
Legalev

Mitglied

53 Kommentare 51 Likes

Mein Problem alleine wäre schon mit Einbauposition.
Habe ein Asrock B650 PG Lightning Board. Damit bin ich sehr Zufrieden.

Graka Vertikal verbaut. Müsste ich wieder Waagrecht einbauen.
Aber wahrscheinlich könnte ich eine SSD mit PCIe Gen. 5 und ausladenden Kühlern gar nicht verbauen.

Zu nah an der Graka.
Also neues Board mit "besser" Positionierten PCIe Gen. 5 Slot kaufen.

Sollte man vielleicht auch als Negativen Punkt erwähnen

Antwort Gefällt mir

c
carrera

Mitglied

97 Kommentare 65 Likes

@eastcoast_pete : da bin ich völlig bei Dir.

davon abgesehen: solche Klopper-Kühllösungen können doch bei Festspeicher nicht wirklich das Ziel sein. Vielleicht schafft es die Hardwareindustrie ja, Standards zu entwickeln und Komponenten zu bauen, die mit wenig abzuführender "thermischer Energie" auskommen und trotzdem schnell und zuverlässig sind - es muß ja nicht immer der längeste Balken sein.

Antwort 3 Likes

a
anton_

Mitglied

85 Kommentare 24 Likes

Hab das selbe Board, läuft wirklich toll, stabil und guter Support.

höhere Kühler wären kein Problem, das geht schon, je nach Graka (hab ne A750 drin).

Ich bin am überlegen, da ich eh noch ne SSD brauch, ne Gen5 zu holen, mit größeren passiven Kühler drauf, da ich nen brauchbaren Luftstrom durchs Gehäuse hab

Aber n bisschen warte ich noch, grad fahren erste HErsteller (Kioxia) die Produktion wieder hoch, da könnte sich am Preis Markt was tun

Mal sehen, vielleicht wirds auch die Corsair Pro mit Wasserkühler :D

Antwort Gefällt mir

m
mkossmann

Mitglied

32 Kommentare 32 Likes

Für 99.99% der Benutzer bringt so eine SSD keine spürbaren Vorteile ( spürbar heißt hier : Der Benutzer kann ohne Benchmarks in einem Blindtest unterscheiden ob die "schnelle" PCIe5 SSDs oder doch eine "lahme" PCIe4 SSD verbaut ist).
Und damit bleiben nur noch die Nachteile übrig:
Monsterkühler und höherer Preis

Antwort 8 Likes

p
pintie

Veteran

185 Kommentare 133 Likes

naja.. wenn der cache auf der ssd voll ist bricht die schreibgeschwindigkeit auch ein.

Der M.2 Standart ist da halt schon einfach schlecht. Und ja es gibt schon länger alternativen, setzt sich aber bisher erst langsam beim Servern durch.

nennt sich E3.S da gibts dann verschiedene Varainten. Baumform ähnlich M.2 nur etwas größer. Wärme wird auf deutlich mehr fläche verteilt. abgesehen davon vom handling besser und es geht wieder hotplug.

E3.S Standart: https://europe.kioxia.com/content/d...d/data-center-ssd/asset/EDSFF_Infographic.pdf

oder wir sind wieder fast bei der 2,5" Bauform. auch da hat man sehr viel mehr Oberfläche, vernüftige robuste Gehäuse und weniger Probleme. Auch hier hotplug.. und Kabel auch bei PCIe5 möglich.

Mann muss nicht mehr auf dem Mainboard hinter der GPU suchen sondern macht die SSD in einen 2,5" slot.
mit etwas Luftrom alles gut.

bin gespannt ob sich das im consumer markt auch durchsetzt. Hat auch für die Hersteller vorteile.

in 2,5" bekommt man da gerade bis 32 TB Preis / TB ist je nach Modell auch nicht weit weg von den consumer Modellen.
Außerdem kann man sehr lange schreiben bevor der Cache voll ist, die Dinger haben Kondesatoren damit beim Stromausfall noch alles gesichert werden kann und die IOPS sind weit über den consumer Modellen. auch länger als 2 Sekunden.

wird man ohne Benchmark einen Unterschied zu einer samsung 990 Pro M.2 merken ? im normalen use case daheim - Nein...

Antwort 1 Like

Klicke zum Ausklappem
echolot

Urgestein

1,097 Kommentare 845 Likes

Kühler wird es proportional mit der Transistorgröße, wobei dann wieder zeitgleich die Geschwindigkeiten gesteigert werden. Da das Hauptaugenmerk auf Geschwindigkeitszuwachs liegt, weiß man wo die Reise hingeht. 🤷‍♂️

Antwort Gefällt mir

m
mkossmann

Mitglied

32 Kommentare 32 Likes

M.2 wurde mal für Laptops entwickelt, SATA Express, das für Desktops vorgesehen war, war eine Totgeburt
Was sich dann bei den Anschlüssen U.2 oder U.3 nennt.
Jain Da gibt es E.1S, E1.L , E3.L, E3.S Und da noch 2 Breiten. Diese Bauformen sind aber für den Einbau in Racks ausgelegt. Und brauchen eine Adaptierung wenn man sie in ein übliches PC-Gehäuse einbauen wollte.
Solidigm hat die D5-P5336 als 2,5" U.2 und E.1L bis 61TB angekündigt

Antwort Gefällt mir

Martin Gut

Urgestein

7,909 Kommentare 3,675 Likes

Ich habe mir gerade angeschaut, was es da so gibt. Ich breche deswegen aber nicht gerade in Begeisterungsstürme aus und M.2 finde ich deswegen auch nicht schlecht so dass man es durch U.3 ablösen sollte.

Als erstes kommt es natürlich auf die Anwendung an. Für Serveranwendungen sehe ich solche SSDs, aber nicht im Privatbereich. Ich weiss nicht, welcher Normalanwender so viel so schnellen Speicher braucht und bereit ist dafür 4000.- bis 6000.- hinzublättern. Solche Datenmengen braucht man höchstens für langfristige Datensicherungen. Dafür nimmt man aber auch heute noch lieber HDs, da die günstig sind und dazu die Daten deutlich länger zuverlässig speichern.

Kabel und grössere Gehäuse sehe ich auch nicht unbedingt als Vorteil. Gerade bei höheren Geschwindigkeiten werden längere Distanzen mit Kabeln immer schwieriger und führen gerne zu Problemen. Man sieht das Beispielsweise bei Riserkabeln für Grafikkarten. Je kleiner die Distanz, um so zuverlässiger lassen sich hohe Geschwindigkeiten erreichen. Direkt verbaut ist darum zukunftsfähiger als mit Kabeln. Kabel können jetzt noch machbar sein. Um sich die Möglichkeit höherer Geschwindigkeiten für die Zukunft offen zu halten, wäre es aber nicht ideal auf Kabel zu setzen.

Ja, der hohe Stromverbrauch ist blöd und die Wärme nicht einfach abzuführen. Nur weil ein Gehäuse gross ist, ist die Kühlung aber nicht immer besser. Bei U.3 kenne ich mich nicht aus. Bei SATA-SSDs sind aber oft die selben Bauteile verbaut wie auf einer M.2. Heute sind das auch eher veraltete die für die selbe Leistung mehr Strom verbrauchen als M.2. Die Bausteine sind meist nicht grösser. Dazu sind sie oft nicht mal über Wärmeleitpads mit dem Gehäuse verbunden sondern die Platine liegt einfach offen in der Box. Dann verhindert die Box nur, dass der Luftstrom direkt zu den Bauteilen kommt. Man muss die Kühlung also genauer anschauen und allenfalls verbessern.

Hot-Plug braucht man eigentlich auch nur für Wechselmedien oder in Servern, die man nicht unterbrechen kann. Für einen System-Datenträger auf dem die Windowsinstallation läuft, geht das nicht. Die Systendisk kann man im Betrieb nicht entfernen.

Von mir aus gesehen ist U.3 (und ähnliche) einfach eine andere Technik die für eine andere Anwendung konstruiert ist. Dem entsprechend hat sie ihr Vor- und Nachteile. Wenn man so etwas braucht, kann es sinnvoll sein, sonst aber nicht. Bis jetzt habe ich aber keinen Bedarf an 32 TB-Wechseldatenträgern die die höchsten Geschwindigkeiten über längere Zeit durchhalten können. Ob die vielen IOPS lesen irgendwo einen Vorteil bringen, bezweifle ich.

Antwort 1 Like

Klicke zum Ausklappem
p
pintie

Veteran

185 Kommentare 133 Likes

U.2 und U.3 wird es bei PCIe5 praktisch nicht mehr geben. Hauptproblem: die U.2/3 anschlüsse müssen aufgelötet werden. die E3 sind ja direkt auf der Platine.
Man ist ja in einem Bereich angekommen in dem nicht nur die Leitungslängen sondern auch breiten ein Thema werden. Und da gibt es an der Stelle bei dem U2 Stecker Probleme.

Und ja ist erst mal alles auf Server und viel Lüftung ausgelegt. Gibt aber schon angekündigte Produkte die da auch für privat interessant werden könnten.

Für alles unter threadripper sehe ich das Problem in der Menge der PCIe Lanes die das Mainboard hat.
normal einmal PCIe5x16 für die GPU und dann 2x PCIe5x4 jeweils in M.2 Form.
Adapter von M.2 auf E3 hab ich getestet - hat keiner stabil funktioniert. (im PCIe4x4 Modus schon).

Gibt Adapter von einem normalen PCIe5 x8/16 Steckplatz auf die E... die funktionieren, aber halt nicht auf den üblichen consumer Systemen, da muss dan die GPU auf x8 laufen.

Die neuen AMD Ryzen kommen auch als Epyc Variante in AM5 Sockel - das wird spannend. Könnte passieren das da auch anschlüsse für PCIe5 kommen.

61TB in 2,5" kannte ich noch nicht - sehr nett. aber sicher auch nicht günstig.

Antwort Gefällt mir

Klicke zum Ausklappem
p
pintie

Veteran

185 Kommentare 133 Likes

ja bei Kabel bin ich voll bei dir. Aber da ist wieder der punkt mit den wenigen PCIe Lanes auf den üblichen Prozessoren. Und über Chipsatz kann ich gleich was langsames verbauen.

Hotplug - naja ich nutze sowas als "usb-stick"

die IOPS und Latenzen merkt man sehr viel mehr als 20GB/s

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,662 Kommentare 997 Likes

Wobei man ja bei Boards die M.2 und U.3 Slots haben richtig aufpassen muss. U benutzt ja deutlich höhere Spannungen, und wenn man es schafft, da eine M.2 SSD anzuschließen und bootet, geht die SSD kaputt.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,662 Kommentare 997 Likes

@pintie: Ich hatte ja auch "(solange genug Platz auf der SSD ist)" geschrieben, denn klar, wenn weniger oder fast kein pSLC Cache mehr möglich ist, verlangsamt sich auch die Schreiberei sehr. Lesegeschwindigkeit dagegen ist (soweit ich weiß) viel weniger abhängig vom Füllungsgrad. Wäre interessant, ob die jeweiligen R&D Abteilungen bei Samsung, Kioxia, WD, Seagate und auch den Controller Herstellern hier an Verbesserungen arbeiten.

Antwort Gefällt mir

m
mkossmann

Mitglied

32 Kommentare 32 Likes

Für M.2 an U.x brauchst du immer einen Adapter , der dann auch einen Spannungswandler enthält, in die umgekehrte Richtung wird die Spannungsversorgung werden die bei M.2 nicht vorhandenen 12V üblicherweise durch einen SATA-Stromversorgungsanschluß bereitsgestellt.

Meines Wissens werden bei M.2 auch 30 mm Breite und 110 Breite definiert. Bei einer 30110 M.2 würde sich sowohl das Kühlproblem entspannen und es wäre auch Platz für mehr Flash vorhanden.
@pintie
Die E.x.y Formfaktoren sind konzipiert um hotplugfähig auf eine Backplane gesteckt zu werden. Die Steckverbinder sind da nicht auf Anschluß per Kabel optimiert.
Wo man Kabel für den Anschluß von Backplanes mit PCIe an Motherboards oder HBAs braucht wurde vor kurzem Coppr-Link definiert.
Da die Anzahl der PCIe-Lanes der CPU durch den Sockel ( Bei AM5 28) begrenzt ist, wird auch ein AM5 EPYC nicht mehr Lanes bereitsstellen können. Und da der 8xx Chipsatz für RYZEN 9000 abenfalls nicht aufgebohrt wurde ...

Antwort 1 Like

Martin Gut

Urgestein

7,909 Kommentare 3,675 Likes

Definiert wurden sie.

Bei Mainboards findet man die Länge von 110 teilweise. Die Breite von 30 mm habe ich aber noch auf keinem Mainboard gesehen. Ich weiss nicht, ob das sonst irgendwo verwendet wird.

Bei den SSDs hat sich 2280 durchgesetzt, also 22 mm x 80 mm. Auch kürzere Slots sind weniger verbreitet sowohl bei Mainboards als auch bei SSDs.

Für WLAN-Module ist 2230 verbreitet. Man sieht es oft nicht, da die Module direkt bei der Slotblende unter einer Abdeckung verbaut sind.

Grösser wäre somit machbar. Die Mainboardhersteller müssten für 30110 M.2 aber deutlich mehr Platz auf dem Mainboard freihalten. Das ist für die Hersteller aber recht schwierig, da der Platz auf den Mainboards sehr eng ist. Man kann das Temperaturproblem ja durch einen grösseren Kühlkörper mit mehr Lamellenfläche und eventuell einem kleinen Lüfter lösen. Da erreicht man auch deutlich mehr Kühlfläche als nur mit einer etwas grösseren Platine.

Antwort 1 Like

Klicke zum Ausklappem
p
pintie

Veteran

185 Kommentare 133 Likes

ja das ist klar. Ich meinte das da evtl auf die üblichen 2 M.2 slots verzichtet wird und dafür entweder ein oder zwei stecker kommen, oder... der dritte PCIe Steckplatz PCIe5x8 direkt an der CPU ist.

ich meine ich hätte da ein video von der computex gesehen wo das so ist. glaube supermicro.
Also keine M.2 Steckplätze, aber 3 PCIe x16 leisten die dann entweder 16 / 0 / 8 oder 8/8/8 belegbar sind + die option den untersten auch 4/4 zu teilen.

ich habe einige Samsung PM1735 im einsatz - sowas in neu mit PCIe5 würde da einige Möglichkeiten bringen. (wobei die im normalen Gehäuse auch einen guten Luftstrom wollen wenn man die auslastet. sind ohne viel Luft im Desktop im idle schnell bei 45-55°

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,662 Kommentare 997 Likes

Wobei die Wärme vor allem vom Controller kommt; das NAND trägt schon etwas bei, aber die Controller sind immer schön hell in IR Bildern. Allerdings kommen jetzt ja die ersten Controller in den Markt, die in deutlich effizienteren Strukturen (7 oder 6 nm) gefertigt werden. Laut Hersteller Angaben sollen die besseren Fertigungsknoten plus besseres Design den Stromverbrauch bei vergleichbarer Leistung fast halbieren. In vieler Hinsicht scheinen die derzeitigen PCIE-5 SSDs wie das TeamGroup hier unter dem Banner "Von Intel lernen heißt Siegen lernen"* zu arbeiten, d.h. Leistung erzwingen mit der elektrischen Brechstange.
*Angelehnt an einen historischen Slogan, den zumindest @Igor Wallossek auch kennen wird.

Antwort 1 Like

G
GPUModder

Mitglied

66 Kommentare 17 Likes

Ich für meinen Teil finde die Entwicklung der PCIE-5 SSDs eher in die falsche Richtung. Ohne gute Kühlung sind dauerhaft hohe Transferraten nicht möglich, dass haben bereits viele Tests gezeigt. Jetzt werden die Dinger auch noch aktiv gekühlt. Das mag in gewissen Szenarien ein Vorteil sein, allerdings glaub ich geht das am 95% Einsatzfall vorbei. Ich für meinen Teil habe lieber Ruhe in der Kiste und warte beim laden, kopieren usw. einen Ticken länger. Auch kann ich mir nicht vorstellen, dass die Lebensdauer der Hardware das gut heißt, wenn die Temperaturen hoch sind. Irgendwie fühl ich mich erinnert an die X570 Boards von AMD mit Minilüfter. Jetzt brauchen sie das nicht mehr und so eine Entwicklung würde ich mir auch bei den SSDs wünschen. Beeindruckend ist die Leistung schon aber für mich passt irgendwie die Praxistauglichkeit für den Normalo nicht. Zudem könnte ich mir vorstellen dass sich Kollisionen zwischen Grafikkarte/CPU Kühler und SSD ergeben könnten. Bekommen wir hier eine ähnliche Situation wie bei CPU Kühler und RAM Kit? Keine Ahnung. Ich finde es auf jeden Fall nicht gut. Entscheiden muss das natürlich jeder für sich selbst.

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

10,435 Kommentare 19,477 Likes

Mit den neuen Controllern ist das Thema Hitze dann auch Geschichte :)

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung