Praxis-Artikel: Budget Homelab Part 1 – Vom 8-Port Switch zum 19” Netzwerkschrank

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.115
Bewertungspunkte
10.333
Punkte
1
Standort
Redaktion
Da meine Blog-Style Artikel oft eine rege Beteiligung hervorrufen und sich in unserem Forum viele Netzwerk-Nerds herumtreiben, habe ich mich entschieden, euch mit auf meine kleine Reise vom 8-Port Switch zum 19“ Netzwerkschrank zu nehmen. Während Igor anlässlich der Computex Messe live aus Taiwan berichtet hat und sich nach der Messe erst einmal etwas sammeln […] (read full article...)
 
n bisschen erinnert mich das an meinen Schrank, aber
- ich hab gleich einen mit 60 tiefe genommen, da hatte auch die NAS spielend Platz
- die Noctua Redux hab ich auch oben drin, mit Hutschienen Netzteil von Meanwell (hab hinten eine Hutschiene verbaut, mit Dehn Überspannungsschutz für Strom und Netzwerk,...). Zusätzlich hab ich dem Schrank (+ PC daneben) ne eigen Stromleitung ab Verteiler gezogen, inkl eigenem FI/LS
- Switch (8 Port SFP+, und n 16 Port Pro Max POE) und Router(UDM SE) alles von Unifi, mit 2 getrennten Internet Zugängen (Docsis und FTTH)
- ich hab ganz unten ne USV drin
- Keystone ist fein, ja. da hab ich neben die RJ45 auch die Glasfaser Ports drauf, und die Anschlüsse vom Proxmox Server, falls ich da mal lokal drauf muss
 
mit nem ryzen klappt das aber wohl eher nicht (okay, monolithic vielleicht), der iod & das interconnect wollen halt ihre 18w selbst im deep idle
Das ist genau das was mich so stört. Ich hab damals mal mit nem Atom 330 als Home und Mediaserver rumgedümpelt. Lief eigentlich super für die Zeit, heute taugt das Ding zu nix mehr, liegt im Schrank und wird ab und zu mal für das warme Nostalgiegefühl ausgepackt. Aber auch da war das Problem das der Chipsatz die meiste Leistung verbraten hat (waren glaub um die 36W, während der Atom ja nur 5W tdp hatte und ich schon mit nem DCDC Wandler als Netzteil gearbeitet hatte) . Am besten wäre ja nen System das als Gesamtpaket im Idle irgendwo um die 10W liegt. Solche Boards bekommt man zwar als SoCs, die haben dann aber wieder nur eine pcie Lane, nur einen Sata oder keins von beidem. Ich denke die Technik dafür würde grundsätzlich existieren, aber der Marktbedarf ist einfach nicht da.
 
Mit 'nem Ryzen 5600G, 32GB (ECC RAM, aber ohne ECC-Funktionalität) und SSD-Datenträger sind ca. 13W idle möglich. Das geht schon in die richtige Richtung. Mein Mainfiler liegt allerdings bei 75W im idle - mit 5950X, 64GB ECC RAM, Dual-10Gbit NIC, 3 SSDs und einigen Gameservern. Der Stromverbrauch dürfte hier gerne noch geringer sein.
 
Für nen Storage Server fehlt ECC, für Multimedia hinsichtlich transcodes fehlt die Rechenpower da kein Intel QuickSync.
Abgesehen von den Servern im Unternehmen hat kein einziges Gerät bei mir ECC.
Mit regelmäßigen Integritätsprüfungen braucht es das auch nicht im Homelab
 
Herrlich. Wieder so eine pauschale Aussage mit allgemeinem Gültigkeitsanspruch, die leider zu kurz springt und mangelndes Wissen offenbart. Und schon wieder von einem der Autoren hier, während die Community sich um eine differenzierte Diskussion bemüht. Offenbar will man lieber Unzulänglichkeiten mit dem Holzhammer verteidigen als sich mit dem Thema mal vernünftig auseinander zu setzen.

Ich bin echt kurz davor, meinen Account hier zu löschen. Aber Kurzschluss-Reaktionen sind selten die besten, ich nehm erstmal ne Auszeit. Bleibt halt in Eurer Bubble, ist anscheinend hübsch da.
 
Das sehe ich sehr ähnlich wie @Besterino

Ich hätte es auch gut gefunden, wenn man das Vorhaben eventuell erst im Forum diskutiert hätte. Ich bin mir sicher, dabei wären super Vorschläge zusammen gekommen.
Und einiges Lehrgeld, was der Autor selbst schon gezahlt und eingesehen hat, hätte man sich sparen können - ist doch alles in allem eine sehr gute und fähige Community hier. DANN den Praxis Blog ;)
 
Naja, für mich gehört bei allem was mit Datenspeicherung als Kernzweck zu tun hat - und das ist bei einem zentralen Storage wie nem NAS nunmal immer der Fall - immer das Thema Datensicherheit dazu (sogar definitiv mehr als Datenverfügbarkeit, also typischerweise RAID). Das ist aber wohl eben zeitaufwändiger, komplizierter und weniger massentauglich als einfach irgendwelche Consumer Hardware zusammen zu stöpseln und schnell sagen zu können „läuft“. Irgendwie.

Wie gesagt, das Ergebnis mag ja sogar Consumer-Hardware sein, aber das ist eben im Hinblick auf vernünftige Datenhaltung und Verlustrisiko (was eigentlich die Priorität sein sollte!) die SCHLECHTESTE Lösung.

Dann kommt noch hinzu, dass die Mehrkosten dafür meist sogar total überschaubar sind - aber die wenigsten haben eben sowas gebraucht zu Hause liegen.

Auf den informierteren Leser wirken solche Hardwarezusammenstellungen dann eben schnell etwas „meh“, jedenfalls wenn weiterführende Infos oder zumindest Links zum Thema ECC ja/nein und Backupstrategie fehlen, aber auf der anderen Seite nen RAID besonders hervorgehoben wird. RAID hilft im Prinzip NUR bei der Verfügbarkeit und NUR bei Fehlern auf/Ausfall einer Platte. Bei allem anderen halt nicht.

Da ist mir dann…



…einfach zu wenig. Da steht auch an verschiedenen Stellen „sicher“ und für die „wichtigen Daten“ würden wenige TB ausreichen - ja und wie geht der geneigte Autor denn nun mit den wichtigen Daten um? Steht ja nur im Konjunktiv…

Und wie schon jemand anderes schrieb, 3 Platten vom gleichen Hersteller vom gleichen Händler mit gleichem Kaufdatum - neee, das gehört sich nicht: die sind im Zweifel alle aus der gleichen Charge und wenns bei der Herstellung mal nen Serienfehler gab, hast Du das Risiko gleich mal 3. Wer also seine Platten eh selbst kaufen muss und nicht wie der Autor gestellt bekommt - für den ist das a) null Aufwand und b) mit minimalen Mehrkosten verbunden, wenn man nicht zu allen Datenträgern das absolut billigste Modell des einen Herstellers nimmt. Wäre m.E. nen Hinweis wert gewesen - wenn man sich dazu mal Gedanken gemacht bzw. Eingelesen hätte.



Genau das ist für mich eben bei nem NAS-Einsatz, einen Artikel dazu und für diese Seite einfach zu wenig. Das atmet einfach „keine Ahnung vom Thema“ und/oder keine Lust gehabt, die Zeit zu investieren. Da sucht man mit viel Aufwand nen Gehäuse und schreibt den Hersteller an, aber die Zeit, mal ASRock(rack) oder Gigabyte für nen AM4-Mainboard mit ECC-Support anzuschreiben war wohl nicht da… wie
schon an anderer Stelle geschrieben: das Gigabyte Brett gibt es aktuell für 80 Euro. Wem das seine Daten nicht wert sind, kein Verständnis.

Der Artikel erweckt leider eher den Eindruck, dass der Verfasser eben NICHT weiss, wie man mit kritischen Daten umgeht (und ob seine eigenen Daten eigentlich in die Kategorie fallen sollten oder nicht). Trotzdem schreibt er zu dem Thema - warum eigentlich? Clicks?

Da darf man sich dann m.E. über kritische Anmerkungen nicht wundern. Zumal aus den anderen Threads dazu auch schon Anmerkungen kamen.

Sorry, meine Meinung.

Nochmal: man kann nach sorgfältiger Abwägung gerne Consumer-Hardware für alles verwenden. Aber „Riesenaufwand“ und „keine zusätzlichen Investitionen“ ist keine sorgfältige Abwägung, stimmt in vielen Fällen noch nicht einmal und nimmt die Abwägung schon vorweg bzw. ist bestenfalls auch nur eine Meinung.

Konstruktiver Vorschlag: macht oder sucht Euch einen Artikel, der das Thema Datensicherheit im NAS/Server mal vernünftig darstellt, dann könnt Ihr immer darauf verweisen und müsst nur noch mit einem Satz erklären, warum Ihr das alles für den jeweiligen Artikel außer Acht lasst. Zack, stellt Ihr alle Nörgler wie mich dauerhaft ruhig. :)
In meinen Augen hatte @Alexander Brose seine Ziele/Bedürfnisse schon klar dargestellt. Wenn Du allerdings Datensicherung für Deinen Beruf/Betrieb brauchst, sind es ganz klar weitaus andere Bedürfnisse. Und dann muss man ja die professionellen Lösungen einsetzen, angefangen mit ECC RAM im Server (NAS) über entsprechende RAID Versionen bis zur strickten Beachtung der 1,2,3 Regel (mindestens 1 Backup Off-Site).
Auch wenn's nur als Planspiel gemacht wird, was wäre denn eine preiswerte Lösung für einen Home Server mit größerer Datensicherung, den Du entweder hast oder einsetzen würdest? Ich frag aus echtem Interesse, ich brauche sowas momentan nicht, aber das kann sich ja ändern.
 
3 gleiche HDDs aus der gleichen Serie, gleich alt ist schon mutig.
Ich spiegele die Daten, die ich nur ungern verlieren würde, auch auf HDDs die von verschiedenen Herstellern sind. Falls halt doch mal eine ganze Charge einer Reihe Probleme hat.
Und, obwohl man die manchmal nicht mehr so einfach findet, fand und finde ich die Statistiken von Backblaze sehr hilfreich beim Auswählen der HDDs.
 
@eastcoast_pete: genau für solche Fragen ;):


Das teuerste in der Zusammenstellung ist das Case. :p Da lässt sich natürlich noch deutlich sparen.

Ich selbst hab gerade auf sowas ähnliches mit dem gleichen Board, ner 4x m.2 Adapterkarte, 100Gbit NIC und nem 5950X gewechselt. Frisst halt mehr Strom, aber immer noch besser als mein Epyc-System. :)
 
Wobei @GPUModder in seinem Post ja nur seine Lösung beschrieben hat, und das ist ja völlig okay und ich fand's auch interessant.
So war mein Post auch gedacht. Viele Wege führen nach Rom und jeder hat andere Anforderungen. War bestimmt nicht gedacht als "so hätte der Threadersteller es machen sollen". Finde das Projekt nämlich sehr spannend und freu mich schon auf den nächsten Teil. Immer wieder interessant sowas zu lesen, um für sich selbst die eine oder andere Idee zu entwickeln. :)
 
@eastcoast_pete: genau für solche Fragen ;):


Das teuerste in der Zusammenstellung ist das Case. :p Da lässt sich natürlich noch deutlich sparen.

Ich selbst hab gerade auf sowas ähnliches mit dem gleichen Board, ner 4x m.2 Adapterkarte, 100Gbit NIC und nem 5950X gewechselt. Frisst halt mehr Strom, aber immer noch besser als mein Epyc-System. :)
Bei der Konfiguration (100 Gbit NIC usw) bist Du allerdings auch nicht mehr im Bereich "typischer Homeserver" 😀. Du hast ja dann wahrscheinlich auch den entsprechenden Switch usw dazu, denn sonst macht so ein NIC keinen Sinn.
Und Deine Liste für ein erschwingliches DIY NAS habe ich mir mal gebookmarked✔️
 
Klar, das ist Quatsch für alle realen Einsatzzwecke.

Aber der Basis-Build gerade mit dem Board ist halt m.E. extrem flexibel mit 1x PCIe 16x mit bifurcation teilbar in bis zu 4/4/4/4 PCIE4 (mit der richtigen CPU), 1x PCIe x4 und nochmal m.2 x1 PLUS einige SATA-Anschlüsse. Da kann man wirklich nahezu alles mit bauen, bis auf ein RAM-Monster - dafür bräuchte man dann eben eine RDIMM-Plattform. Und das wäre dann wohl noch weniger „Homeserver“… ;)

Kann man mit der richtigen CPU entweder was mit ECC bauen oder maximal stromsparend halt auch ohne, jeder wie er will. :p
 
Also ich finde es schon sehr interessant wie hier die Gemüter hochkochen, nur weil jemand sein "Projekt" seines Hobbys beschreibt :oops:
Und, @goch warum soll man das hier VORHER diskutieren? Es geht doch darum einmal Einblick zu bekommen wie jemand sein Hobby "lebt" und wie er an die für Ihn gestellte Herausforderung geht. Klar geht es immer besser, aber ICH finde es sehr interessant wie Andere die Herausforderung angehen und solch ein Projekt weiterentwickeln, Schwachstellen des Designs selbst erkennen und beheben. "Lehrgeld" bezahlt jeder und hier ist es doch in einem recht überschaubaren Rahmen. Nur so lernt man aber. Ich bin mir auch sicher, dass wenn es hier um ein paar tausend Euros gegangen wäre und er sich nicht sicher gewesen wäre ob seine Lösung das Optimum ist, er sich hier Rat geholt hätte oder zumindest um eine Review seiner angedachten Lösung gebeten hätte.

Und ich freu mich schon auf den nächsten Teil der Storry und bin gespannt wie sich das weiterentwickelt. Und Danke dass Du uns an deinem Tun teilhaben lässt, solch einen Beitrag zu schreiben ist ja schließlich auch Arbeit und kostet Zeit.
 
@goch warum soll man das hier VORHER diskutieren

Aus dem gleichen Grund, wie auch jede andere Frage hier im Forum:
bei Unsicherheiten (zB von dem Kauf und der Konfiguration) sich dem Wissen der Allgemeinheit bzw. Spezialisten auf gewissen Gebieten hier im Forum zu bedienen und damit die möglichst beste Lösung durch eine fundierte Informationslage zu finden.

Wie ich finde, gerade für so ein (tolles!) Projekt, bei dem man sich nicht ganz Zuhause fühlt, ideal.
 
Hallo alle zusammen,
Igor ich hätte ein 19 Zoll case mit kleinem Bildschirm und Tastatur Schublade genommen. Ich hab das bei mir ähnlich aufgebaut und ab und zu nach Updates von unraid gibt es Probleme mit dem reboot. Da wäre die Lösung sehr hilfreich um Fehler zu erkennen.
Gruß
 
Mein TrueNAS-Server hat auch ECC-RAM, obwohl die Daten eher unwichtig sind. Dafür habe ich immer noch keine USV, was wohl die größere Sünde ist 😟
 
@HerrRossi: Klar, eine USV ist nie verkehrt, aber mit modernen COW-Filesystemen droht maximal der Verlust einzelner Dateien (die halt zum Zeitpunkt des Stromausfalls gerade offen sind und geschrieben werden). ZFS z.B. ist nahezu immer konsistent, d.h. die Wahrscheinlichkeit einen ganzen Verbund wegen z.B. defekter Partitionstabelle zu verlieren, geht gegen Null (Restrisiko bleibt bei IT immer ;)). Wichtiger wird die USV, wenn Du (I/O heavy) VMs laufen lässt und noch schlimmer, wenn Du keine sync-writes aktiviert hast. Dann kann (nicht: muss!) es hässlicher werden, wenn eben für die VM kritische Files / Daten weg oder korrupt sind.

Aber wenn die Daten unwichtig sind… so what. :)
 
Wenn ich Dateien auf den Server schiebe, dann knallt ZFS ja erst das RAM voll. Kommt es während dessen zum Stromausfall, dann sind die Dateien weg. Ja, vermutlich sind sie dann noch auf dem Rechner, von dem ich kopieren wollte, wenn man verschiebt statt kopiert kann das aber anders aussehen.
Meine wichtigsten Daten habe ich doppelt und dreifach gesichert, auf zwei Rechnern, auf USB-Sticks (keine Fotos und Videos), auf externer HDD und SSD und auf dem Server.
 
Oben Unten