Raid System
Raid System
Ich bin im Moment dabei mir einen kleinen Homeserver zu basteln, mit openmediavault soweit habe ich auch alles zusammen was ich brauche.
Nur eines macht mir noch etwas Kopfschmerzen, und zwar handelt es sich hier bei um das Raid System.
Ich habe nun 4 HDD zu je 4TB (alle 4 HDD sind 4 TB WD Black BULK 3.5 Zoll)
Brauche ich nun wirklich ein Raid System, wenn ich im Netz lese schreibt der eine Ja und der andere wiederum Nein, wenn ich nun alles was ich gelesen habe zusammen fasse komme ich auf ein 50 zu 50 Ergebnis.
Hilft mir nicht weiter... ich brauche Klarheit....
Kann mir einer von euch vielleicht weiter helfen?
Nur eines macht mir noch etwas Kopfschmerzen, und zwar handelt es sich hier bei um das Raid System.
Ich habe nun 4 HDD zu je 4TB (alle 4 HDD sind 4 TB WD Black BULK 3.5 Zoll)
Brauche ich nun wirklich ein Raid System, wenn ich im Netz lese schreibt der eine Ja und der andere wiederum Nein, wenn ich nun alles was ich gelesen habe zusammen fasse komme ich auf ein 50 zu 50 Ergebnis.
Hilft mir nicht weiter... ich brauche Klarheit....
Kann mir einer von euch vielleicht weiter helfen?
Re: Raid System
Glaubst du wirklich, wenn hier 10 Leute antworten, daß es dann klarer wird?Sv3n hat geschrieben:Nein, wenn ich nun alles was ich gelesen habe zusammen fasse komme ich auf ein 50 zu 50 Ergebnis.
Hilft mir nicht weiter... ich brauche Klarheit....
Kann mir einer von euch vielleicht weiter helfen?
Vermutlich werden 5 sagen, daß du kein Raid brauchst und die anderen 5, daß man ohne Raid überhaupt nicht überleben kann.
Ein Raid hilft eigentlich nur dann, wenn eine einzelne Platte zu wenig Kapzität hat.
Ein Raid hilft nicht gegen Datenverlust durch Schusseligkeit, also versehentliches löschen.
Ein Raid hilft bedingt gegen Datenverlust durch Hardwaredefekt, zumindest, wenn es kein Kamikaze-Raid (aka Raid-0) ist.
Gegen Datenverlust sowohl durch Schusseligkeit als auch durch Hardwaredefekt hilft nur Backup.
Wenn dir die Kapazität einer einzelnen Platte ausreicht, brauchst du kein Raid. Das verbraucht dann auch deutlich weniger Strom und kommt letzten Endes viel billiger.
Backup brauchst du sowieso, ob mit oder ohne Raid, aber auch das ist günstiger, wenn nur die Kapazität einer Platte gespeichert werden muß.
- heisenberg
- Beiträge: 4146
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Raid System
Ich wiederhole mal den überstrapazierten Satz: Ein RAID ist kein Backup.
Ein RAID bietet zwar Redundanz und einen gewissen Schutz gegen Hardwareausfall, hilft aber nicht gegen versehentliches löschen, Datenzerstörung durch Schadsoftware(Verschlüsselungstrojaner), falls das Dateisystem von Windows-Kisten gemountet ist, oder durch das gleichzeitige Ausfallen von mehr Platten, als das RAID ausgleichen kann.(RAID5: Max. 1 Platte darf ausfallen).
Insofern ist es die Frage ob Du weiter investieren willst, um diese 4 x 4 TB auch noch zu sichern oder ob Du sagst: Hey diese Daten nicht wichtig. Wenn sie halt weg sind, sind sie weg; oder ob Du vielleicht nur einen kleinen Teil sichern willst.
Aber grundsätzlich: Ja. Man will in irgend einer Form schon eine Redundanz haben, weil man nicht möchte, dass bei dem Ausfall einer einzigen Platte gleich alles futsch ist. Und ein RAID im Level 1,10,5 oder 6 bietet diese Redundanz. Es mag noch andere Wege geben(LVM) aber RAID ist ein möglicher geeigneter Weg.
Und wenn ich RAID sage, dann meine ich entweder das Linux-Software RAID, oder ein richtiges teueres vernünftiges Hardware-RAID - wobei letzteres für Dich bestimmt nicht in Frage kommt weil Du bestimmt nicht 200 EUR oder mehr für einen RAID-Controller ausgeben möchtest. Von Fake-RAID Adaptern würde ich abraten. Denn die setzen RAID im Treiber um. D. h. wenn Dein Mainboard kaputt geht, brauchst Du exakt das gleiche nochmal, oder Du kannst Deine Daten abschreiben, weil das Format der Daten eben nicht offen und dokumentiert ist. Bei den teueren RAID-Controllern kauft man sich einfach den gleichen nochmal oder ein neueres Modell. Die neueren können die alten Daten dann üblicherweise lesen.
Ein RAID bietet zwar Redundanz und einen gewissen Schutz gegen Hardwareausfall, hilft aber nicht gegen versehentliches löschen, Datenzerstörung durch Schadsoftware(Verschlüsselungstrojaner), falls das Dateisystem von Windows-Kisten gemountet ist, oder durch das gleichzeitige Ausfallen von mehr Platten, als das RAID ausgleichen kann.(RAID5: Max. 1 Platte darf ausfallen).
Insofern ist es die Frage ob Du weiter investieren willst, um diese 4 x 4 TB auch noch zu sichern oder ob Du sagst: Hey diese Daten nicht wichtig. Wenn sie halt weg sind, sind sie weg; oder ob Du vielleicht nur einen kleinen Teil sichern willst.
Aber grundsätzlich: Ja. Man will in irgend einer Form schon eine Redundanz haben, weil man nicht möchte, dass bei dem Ausfall einer einzigen Platte gleich alles futsch ist. Und ein RAID im Level 1,10,5 oder 6 bietet diese Redundanz. Es mag noch andere Wege geben(LVM) aber RAID ist ein möglicher geeigneter Weg.
Und wenn ich RAID sage, dann meine ich entweder das Linux-Software RAID, oder ein richtiges teueres vernünftiges Hardware-RAID - wobei letzteres für Dich bestimmt nicht in Frage kommt weil Du bestimmt nicht 200 EUR oder mehr für einen RAID-Controller ausgeben möchtest. Von Fake-RAID Adaptern würde ich abraten. Denn die setzen RAID im Treiber um. D. h. wenn Dein Mainboard kaputt geht, brauchst Du exakt das gleiche nochmal, oder Du kannst Deine Daten abschreiben, weil das Format der Daten eben nicht offen und dokumentiert ist. Bei den teueren RAID-Controllern kauft man sich einfach den gleichen nochmal oder ein neueres Modell. Die neueren können die alten Daten dann üblicherweise lesen.
Re: Raid System
Erstmal danke für deine Antwort.
Deine drei Punkte reichen mir auch aus als Antwort das habe ich auch schon mal im positiven gelesen, also kann ich mir den Raid ersparen.
Das mit den Backups, das die erstellt werden ist klar.
Die Kapazität würde mir auch reichen.
Aber mal eine andere Frage, zu einem Raid 0 würdest Du mir abraten? (alle 4 Platten zusammen legen), wenn die obigen, 3 Punkte erfüllt werden/können?
Deine drei Punkte reichen mir auch aus als Antwort das habe ich auch schon mal im positiven gelesen, also kann ich mir den Raid ersparen.
Das mit den Backups, das die erstellt werden ist klar.
Die Kapazität würde mir auch reichen.
Aber mal eine andere Frage, zu einem Raid 0 würdest Du mir abraten? (alle 4 Platten zusammen legen), wenn die obigen, 3 Punkte erfüllt werden/können?
Re: Raid System
Wenn Dir 4TB als Gesamtkapazität reichen, könntest Du mit den 4 Platten ein RAID1 erstellen (2 Festplatten, einfache Redundanz) und die anderen beiden für ein tagesaktuelles Backup mit 2 verschlüsselten Sätzen verwenden, von welchen sich beispielsweise im monatlichen Wechsel immer eines in sicherer Entfernung befindet.
Damit hättest Du Vorsorge getroffen gegen Späße wie Malware-Attacke, Fehlbedienung, Diebstahl, Brand, Wasserschäden und je nach Entfernung auch einfachen Atomschlag.
EDIT: Es geht natürlich um TB, nicht GB...
Damit hättest Du Vorsorge getroffen gegen Späße wie Malware-Attacke, Fehlbedienung, Diebstahl, Brand, Wasserschäden und je nach Entfernung auch einfachen Atomschlag.
EDIT: Es geht natürlich um TB, nicht GB...
Zuletzt geändert von gehrke am 03.12.2016 00:03:42, insgesamt 1-mal geändert.
http://www.youtube.com/watch?v=PpUrMk3g_og (Angriff auf die Freiheit von Ilija Trojanow / Juli Zeh) - let’s encrypt
Re: Raid System
Raid-0 ist überhaupt nicht empfehlendswert, das stammt noch aus der Zeit als Platte teuer, lahm und klein waren, und man mit Raid-0 mehr Geschwindigkeit und Kapaziztät für möglichst wenig Geld bekam.Sv3n hat geschrieben:Aber mal eine andere Frage, zu einem Raid 0 würdest Du mir abraten? (alle 4 Platten zusammen legen), wenn die obigen, 3 Punkte erfüllt werden/können?
Eine aktuelle SSD ist aber schon schneller als ein Raid-0 aus 4 Platte. Wenn man also Geschwindigkeit braucht, nimmt man lieber eine SSD. Wenn das Datengrab letzten Endes über das Netzwerk verwendet wird, bremst sowieso das GBit-Netz, das langsamer ist als eine einzelne aktuelle Festplatte.
Beim Raid-0 entsteht ein kompletter Datenverlust, wenn eine einzelne Platte ausfällt. Die Ausfallwahscheinlichkeit steigt aber mit der Anzahl der Platte, so daß die Ausffallgefahr eines 4-Platte-Raid-0 auch viermal so hoch ist wie bei einer Platte. Nimmt man statt dessen lieber 4 einzelne Platten mit 4 einzelnen Dateisystemen, verliert man nur 25% wenn eine Platte ausfällt.
Wenn Raid, dann mindestens Raid-3 oder Raid-5, besser Raid-6. Die Sonderform Raid-1 besteht "nur" aus gespiegelten Platten, ergibt also keine höhere Geschwindikgkeit, dafür aber die höchste Ausfallsicherheit.
- heisenberg
- Beiträge: 4146
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Raid System
Eine kleine Korrektur: Ein Raid-1 bietet eine verdoppelte Lesegeschwindigkeit, da von 2 Platten gleichzeitig gelesen wird. Beim Schreiben ist das korrekt, da gibt es keinen Geschwindigkeitsvorteil.Raid-1 besteht "nur" aus gespiegelten Platten, ergibt also keine höhere Geschwindikgkeit, dafür aber die höchste Ausfallsicherheit.
----
IMHO kann man sich im Heimbereich das RAID-1 eigentlich auch sparen. Wenn man das z. B. täglich von einer Platte auf die andere synchronisiert bzw. kopiert, dann ist das ganze schon mal ein bisschen getrennt, was ich persönlich hier besser finde.
----
RAID ist halt dort super, wo Rechner kontinuierlich laufen müssen. D. h. z. B. als Server. Wenn dort eine Platte ausfällt, dann willst Du nicht erst das System herunterfahren, mal gemütlich die Platte wechseln und dann fährt man das halt wieder hoch. Da ziehst Du die Hot-Swap Platte, steckst die Ersatzplatte rein, die neue Platte synchronisiert sich wieder, das System ist durchgängig erreichbar und es gibt max. etwas schlechteren Durchsatz.
Da man zu Hause üblicherweise noch nicht mal HotSwap-Rahmen hat, ist da diese Möglichkeit gar nicht gegeben und meist laufen dort die Systeme sowieso nicht 24/7.
NACHTRAG
Wenn man als Stromkosten mal 20 ct pro KW/h ansetzt, dann kostet jedes Watt 1,60 EUR pro Jahr, wenn das System immer an ist.
Angenommen eine Platte verbraucht jeweils 8 W und ein sehr sparender Mini-Server vielleicht nochmal 10W also bei 4 Platten wären dass dann 4 x 8 W + 10 W => 42 W * 1,60 EUR = 67,20 EUR Stromkosten pro Jahr. Jetzt mal so ins Blaue dahingerechnet ohne weitere Überlegungen anzustellen(Stromsparmodus,...).
Re: Raid System
Nein, Raid-1 bietet eben keine doppelte Lesegeschwindigkeit. Die Daten werden immer doppelt gelesen und verglichen, um deren Konsistenz zu gewährleisten.heisenberg hat geschrieben:Eine kleine Korrektur: Ein Raid-1 bietet eine verdoppelte Lesegeschwindigkeit, da von 2 Platten gleichzeitig gelesen wird.
Privatehaushalte in Deutschland bezahlen etwa 30ct/kWh.Wenn man als Stromkosten mal 20 ct pro KW/h ansetzt, dann kostet jedes Watt 1,60 EUR pro Jahr, wenn das System immer an ist.
Re: Raid System
Mein Vermieter zahlt im Mom. 27,72ct für 100% Öko-Strom. Nachts 22,xx.MSfree hat geschrieben:Privatehaushalte in Deutschland bezahlen etwa 30ct/kWh.
Yellow würde im Moment wohl zu 23,83ct liefern in Berlin, Stuttgart und München wollen sie 23,95; 23,26 und 23,34.
In so fern liegt es wohl eher irgend wo in der Mitte. In den Städten eher bei 20ct auf dem Land eher bei 30ct.
rot: Moderator wanne spricht, default: User wanne spricht.
Re: Raid System
Sowas kostet dann aber halt 4000€ statt 400€. Außerdem brauchst du dann erst noch ein board oder einen Controler, wo du die 16 Platten anschließen kannst.MSfree hat geschrieben:Eine aktuelle SSD ist aber schon schneller als ein Raid-0 aus 4 Platte. Wenn man also Geschwindigkeit braucht, nimmt man lieber eine SSD.
Ne. Wenn die in Dauerleistung macht das Consumer zeug eher so ~400MBit/s beim kopieren von 2GiB Dateien werden die kleiner wird's schlimmer. Da hilft dir dann aber irgend wann auch kein RAID mehr.MSfree hat geschrieben:Wenn das Datengrab letzten Endes über das Netzwerk verwendet wird, bremst sowieso das GBit-Netz, das langsamer ist als eine einzelne aktuelle Festplatte.
Mann kann auch die Metadaten sichern und dann mit nem linear Raid oder btrfs ein Dateisystem über alle ziehen.MSfree hat geschrieben:Nimmt man statt dessen lieber 4 einzelne Platten mit 4 einzelnen Dateisystemen, verliert man nur 25% wenn eine Platte ausfällt.
Sowas nutzt alle laufwerke und verliert nur einen Teil der Daten, wenn ein Device drauf geht.
Code: Alles auswählen
mkfs.btrfs -d single -m dup /dev/sdb /dev/sdc /dev/sdd /dev/sde
Das kann man auch bsser machen.MSfree hat geschrieben:Nein, Raid-1 bietet eben keine doppelte Lesegeschwindigkeit. Die Daten werden immer doppelt gelesen und verglichen, um deren Konsistenz zu gewährleisten.
Zusammenfassend:
- RAID-0: Schnell aller platz verfügbar. (Eine platte fällt aus. Alles kaputt.)
- RAID-5: Sicher (Eine Platte kann ohne Datenverlust ausfallen. Bei zwei sind alle Daten weg) und etwas schneller. Nur noch 12GiB Plattenplatz
- RAID-10: Schnell und sicher (ein oder zwei platten können ohne Datenverlust ausfallen). 8GiB Verfügbar.
- 4 Dateisysteme: Normale Geschwindigkeit. Aber 4 Datisysteme. (Es gehen immer die Daten auf der jeweiligen platte kaputt.)
- linear bzw. single Raid: Ein Dateisystem aber normale Geschwindigkeit. (Es gehen immer die Daten auf der jeweiligen platte kaputt.)
Entsprechen würde ich vor einem RAID 10 eher zwei RAID-0 machen machen und auf eines das Backup schaufeln.
rot: Moderator wanne spricht, default: User wanne spricht.
- heisenberg
- Beiträge: 4146
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Raid System
Du hast recht. So einfach, wie ich mir das gemerkt habe ist es wohl nicht.MSfree hat geschrieben:Nein, Raid-1 bietet eben keine doppelte Lesegeschwindigkeit. Die Daten werden immer doppelt gelesen und verglichen, um deren Konsistenz zu gewährleisten.heisenberg hat geschrieben:Eine kleine Korrektur: Ein Raid-1 bietet eine verdoppelte Lesegeschwindigkeit, da von 2 Platten gleichzeitig gelesen wird.
Hier noch ein Kommentar aus man md:
Ansonsten würde ein Dateisystem mit Blockchecksummen(zfs,btrfs) ja eigentlich erheblich mehr aus dem RAID1/RAID10 rausholen, da die Konsistenz ja mit einer Platte schon festgestellt werden kann.man md -> RAID 1 hat geschrieben: Note that the read balancing done by the driver does not make the RAID1 performance profile be the same as for RAID0; a single stream of sequential input will not be accelerated (e.g. a single dd), but multiple sequential streams or a random workload will use more than one spindle. In theory, having an N-disk RAID1 will allow N sequential threads to read from all disks.
Re: Raid System
Bei btrfs wird bei raid1 erst einmal nur von einem Medium gelesen und die Daten werden mit der Prüfsumme überprüft, genauso wie es bei einem normalen btrfs ohne raid wäre. Die Lesezugriffe werden dann aber bei raid1 nach Prozess oder Thread auf die beiden Medien verteilt → es sollte also schon schneller gelesen werden. Nur bei Fehlern oder beim Überprüfen (scrub/Schrubben) werden alle Daten von beiden Medien gelesen, aber das muss man manuell anstoßen.
Wobei btrfs auch bei mehr als 2 Festplatten nur dafür sorgt, dass die Daten und Metadaten, auf zwei verschiedenen physikalischen Datenträgern gespeichert werden - es verhält sich also bei mehr als 2 Datenträgern mehr wie jbod+raid1 (behaupte ich jetzt einmal).
lvm2 bietet auch verschiedene Modi, ua mirroring und striping, was raid 1 und raid 0 sehr nahe kommt. Bei mirroring wird auf (beliebig viele) physikalische Volumes gespiegelt, gelesen wird afaik aber immer nur von einem und beim Striping können die Daten genauso auf beliebig viele physikalische Volumes verteilt werden.
Wobei btrfs auch bei mehr als 2 Festplatten nur dafür sorgt, dass die Daten und Metadaten, auf zwei verschiedenen physikalischen Datenträgern gespeichert werden - es verhält sich also bei mehr als 2 Datenträgern mehr wie jbod+raid1 (behaupte ich jetzt einmal).
lvm2 bietet auch verschiedene Modi, ua mirroring und striping, was raid 1 und raid 0 sehr nahe kommt. Bei mirroring wird auf (beliebig viele) physikalische Volumes gespiegelt, gelesen wird afaik aber immer nur von einem und beim Striping können die Daten genauso auf beliebig viele physikalische Volumes verteilt werden.
Re: Raid System
Cool endlich habe ich hier durch das RAID auch mal durch blicken können, alles verstanden soweit.
Wobei, würde ich RAID 0 nehmen und es geht mal was kaputt müsste ich doch dann nur wissen welche der 4 Platte es ist, oder?
Wobei, würde ich RAID 0 nehmen und es geht mal was kaputt müsste ich doch dann nur wissen welche der 4 Platte es ist, oder?
- heisenberg
- Beiträge: 4146
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Raid System
Ja. Genau. Dann hast Du alle Daten verloren, ersetzt die defekte Platte durch eine Neue, formatierst und fängst mit einem komplett leeren Dateisystem wieder bei 0 an. (Das mit den duplizierten Metadaten wie oben von Wanne erwähnt, habe ich selbst noch nicht gemacht. Falls das klappt, wären bei 4 Platten im RAID 0 nur ca. 25% unwiederbringlich verloren.)Wobei, würde ich RAID 0 nehmen und es geht mal was kaputt müsste ich doch dann nur wissen welche der 4 Platte es ist, oder?
Meine Empfehlung: Kein RAID 0!
Re: Raid System
Nein. Das gilt nicht für RAID 0! (Das ist IMHO. immer Striping. Das ist der Sinn davon.)heisenberg hat geschrieben:Das mit den duplizierten Metadaten wie oben von Wanne erwähnt, habe ich selbst noch nicht gemacht. Falls das klappt, wären bei 4 Platten im RAID 0 nur ca. 25% unwiederbringlich verloren.
Das gilt nur für LVM ohne stripng oder ein linear mdraid wenn man die Metadaten backupt. Oder eben btrfs im Mode single. Alle samt bleiben dann eben langsam.
Bei em RAID-0 stripng sind alle Daten weg. Wenn eine Platte ausfällt.
Dann fehlt dir halt von jeder Datei ein viertel. Da ist dann so ziemlich alles kaputt. Was du beschreibst ist ein RAID-10 oder RAID-01.Wobei, würde ich RAID 0 nehmen und es geht mal was kaputt müsste ich doch dann nur wissen welche der 4 Platte es ist, oder?
Da hast du dann jede einzelne Platte nochmal gespiegelt. Geht eine kaputt, läuft die andere Weiter. Da kannst du die kaputte dann austauschen und mdraid oder dein Raidcontroler erledigt den Rests automatisch selbst.
rot: Moderator wanne spricht, default: User wanne spricht.
Re: Raid System
Ich habe mich von Raids bei all meinen Heimservern verabschiedet. Die Zeit, das System neu aufzusetzen (ob aus einem Sicherungsimage oder ganz neu) ist mir kein Dorn im Auge. Von dem gesparten Geld realisiere ich mir lieber mehr Kapazität und Backupplatten.
Hmm...ich wuerde auch gar kein RAID machen sondern das als LVM bauen, dann ists auch kein wirkliches Problem die Kapazitaet zu erhoehen. einfach neue Platte rein, LVM vergroessern und gut ist.
ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!
Wenn davon auch noch 4 Stueck (vielleicht auch noch eng zusammen) haengen kanns Probleme mit der Temperatur und mit Vibrationen geben.
Hierfuer gibts von WD die Red Serie. Die ist extra fuer den Dauerbetrieb in NAS Systemen gedacht.
Ich hab hier eine 1 TB WD-Black als 2. Platte in meinem Comp unterm Schreibtisch, wenn ich die einfach so in einen 3,5" Schacht packe und dann wirklich drauf gearbeitet wird vibriert das ganze Gehaeuse. In so einem Einbaurahmen wo Sie vom Gehaeuse entkoppelt ist, gehts. Bei geschlossenem Gehaeuse hoert man sie dann gar nicht mehr.
Das geht aber natuerlich nur, wenn du genuegend 5 1/4" Einschuebe hast.
Gruss
Paddie
ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!
Wenn davon auch noch 4 Stueck (vielleicht auch noch eng zusammen) haengen kanns Probleme mit der Temperatur und mit Vibrationen geben.
Hierfuer gibts von WD die Red Serie. Die ist extra fuer den Dauerbetrieb in NAS Systemen gedacht.
Ich hab hier eine 1 TB WD-Black als 2. Platte in meinem Comp unterm Schreibtisch, wenn ich die einfach so in einen 3,5" Schacht packe und dann wirklich drauf gearbeitet wird vibriert das ganze Gehaeuse. In so einem Einbaurahmen wo Sie vom Gehaeuse entkoppelt ist, gehts. Bei geschlossenem Gehaeuse hoert man sie dann gar nicht mehr.
Das geht aber natuerlich nur, wenn du genuegend 5 1/4" Einschuebe hast.
Gruss
Paddie
- heisenberg
- Beiträge: 4146
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Raid System
Nicht freigegeben mag sein. Für den Dauerbetrieb geeignet? Definitiv! (Mache hier super Erfahrungen damit).ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!
Auch hier wieder: Backup haben oder so etwas lieber sein lassen, wegen erwähnter stark steigender Ausfallwahrscheinlichkeit pro zusätzlicher Platte.LVM vergroessern und gut ist.
Re: Raid System
Backup setz ich voraus...sonst waren die Daten eh nicht wichtig.heisenberg hat geschrieben:ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!Sofern du genug Platz im Gehaeuse hast und genuegend Lueftung ists ja OK . Ich hab im Keller einen HP Microserver stehen, da wirds trotz Luefter auch ganz schoen warm drin, da 4 WD Black und ich koennte da Eier drauf braten.Nicht freigegeben mag sein. Für den Dauerbetrieb geeignet? Definitiv! (Mache hier super Erfahrungen damit).
Auch hier wieder: Backup haben oder so etwas lieber sein lassen, wegen erwähnter stark steigender Ausfallwahrscheinlichkeit pro zusätzlicher Platte.
- sbruder
- Beiträge: 333
- Registriert: 24.06.2016 13:54:36
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Franken
Re:
Ja, WD will für Dauerbetrieb seine Red-Serie vermarkten, die auch besser für NAS geeignet ist aus mehreren Gründen:Paddie hat geschrieben: ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!
* geringerer Engergieverbrauch
* längere Garantie
Die Black-Platten sind auf schnelle Vorgänge (also z. B. Videobearbeitung) ausgelegt, also in einem hochperformanten Server für den eine SSD zu teuer ist leisten die bestimmt gute Dienste.
Für den Dauerbetrieb mögen sie nicht optimal sein, weil sie halt auf schnell und nicht auf langlebig ausgelegt sind. Habe das noch nie getestet, reine Spekulation!
Re:
Ich habe in Servern (24/7) mit Festplatten für den Desktopbereich keine guten Erfahrungen machen können. Ich kaufe auch nur Festplatten, die für Dauerbetrieb ausgelegt sind und mit 5 Jahren Garantie daherkommen oder kamen (siehe unten). Mit Festplatten für den Dauerbetrieb und 3 Jahren Garantie haben mein Umfeld und ich ebenfalls keine guten Erfahrungen gemacht. Man bekommt beispielsweise bei Ebay für wenig Geld neue 2TB Serverfestplatten, die ursprünglich mal 5 Jahre Garantie hatten, die allerdings auch schon so lange rumliegen. Mit denen habe ich bisher auch sehr gute Erfahrungen gemacht.Paddie hat geschrieben: ALLERDINGS.. sind die WD Black nicht wirklich fuer den Dauerbetrieb geeignet und von WD auch nicht dafuer freigegeben!
Paddie
Re: Raid System
Hatte selber 3 WD black 1TB&2TB längere Zeit im Dauerbetrieb - 2x 1TB davon in nem kleinen Gateway/Fileserver (wurden nach ca 1.5 jahren endlich ausgetauscht) und alle 3 dann noch testweise ein paar Monate in nem Storageserver (als 3. mirror).
Die black werden im Dauerbetrieb relativ warm, haben aber (wie alle Desktopplatten) nen niedrigeren max. Temperaturbereich - brauchen also mehr Kühlung und laufen dabei grundsätzlich ein paar Grad wärmer als z.B. direkt angrenzende RE. Zudem haben die wirklich ernsthafte Probleme bei Vibrationen durch viele angrenzende Platten (große spikes bei den Zugriffszeiten) und vibrieren selber auch relativ stark, verglichen z.b. mit WD RE, Se oder auch HGST Ultrastar 7k4000 & 7k6000. Die einzigen die noch mehr rumpeln, aber auch alle innerhalb 2 Jahren eingegangen sind, waren 4 Seagate Constellation ES3 (der 3. und definitiv letzte griff ins Klo mit Seagate...).
Enterprise-Platten unterscheiden sich aber nicht nur durch die Eignung für Dauerbetrieb - Vibrationstoleranzen sind höher (meist auch durch deutlich steifere Gehäuse und mehr Masse), Fehlerraten sind _deutlich_ niedriger (<1 in 10^15 vs <1 in 10^14), höhere MTBF, höhere anzahl load/unload zyklen durch wesentlich stabiler ausgeführte mechanik, die buffer sind größer und schneller ausgelegt usw...
Wer gerne Platten tauscht kann auch Desktopplatten verwenden - unterm strich spart man damit aber nix...
Zum Thema RAID:
HW-RAID ist praktisch obsolet - den Klotz muss man sich nicht mehr freiwillig ans Bein hängen. RAID-Controller lügen wie gedruckt, machen immer dann Probleme wenn man gerade keine brauchen kann (wenn Platten sterben...) und klatschen proprietäre Formate auf die Platte damit man keine Chance auf schnelles recovery hat wenn der Controller eingeht. Meistens sterben die Dinger durch ne alte BBU, aber ohne kann man die auch nicht betreiben, da sonst entweder der Cache inaktiv ist (und das Array performt wie ne einzelne alte ATA-Platte...), oder man massive Datenverluste bzw korrupte Dateisysteme in kauf nehmen muss.
HW-RAID war ein großes Ding in den 90ern und frühen 2000ern - die Zeiten sind zum Glück vorbei, auch wenns die Hersteller noch weiter Propagieren bzw es noch immer Betriebssyteme (Redmond...) gibt die keine brauchbaren Layer/Dateisysteme als Ersatz bieten.
DigitalOcean setzt für seine Nodes (SSD-only) ausschließlich dm-raid ein - das war bei internen Tests wohl um einige Faktoren schneller als HW-Raid Lösungen... (IIRC wurde das in diesem Vortrag erwähnt: https://youtu.be/zyB185IOrz8). Der Layer ist mittlerweile ziemlich ausgereift und schnell - mit Linux führt also eigentlich kein Weg an dm-raid vorbei, mit einer Ausnahme: ZFS.
LVM ist praktisch, aber hoffnungslos langsam. Eine VolumeGroup durch die man schon ein paar Platten rotiert hat ist für die Performance eine absolute Katastrophe. Da die Snapshotfunktion von LVM auch ziemlich unbrauchbar ist hat man mit LVM ausser dem "pooling" der Platten keine wirklichen Vorteile. Zudem wird das gesamtkonstrukt irrsinnig komplex: dm-raid -> LVM -> FS. Kein Layer weiß etwas vom anderen - das bremst jegliche Performance aus und kann ziemlich häßliche Gremlins rufen... LVM war eine Notlösung und ist IMHO spätestens seit es Dateisysteme wie ZFS gibt obsolet.
Für jedes neue System, speziell Storagesysteme, setze ich ausschließlich ZFS ein - auch wenn ZoL etwas hinter OpenZFS auf FreeBSD oder Illumos hinkt und die Integration ins System praktisch nicht vorhanden ist. Dank L2ARC und SLOG kann man mit kleinen, schnellen SSDs den gesamten Pool erheblich performanter machen, speziell wenn man hohe IOPS-Leistung benötigt (DBs, VMs).
Die black werden im Dauerbetrieb relativ warm, haben aber (wie alle Desktopplatten) nen niedrigeren max. Temperaturbereich - brauchen also mehr Kühlung und laufen dabei grundsätzlich ein paar Grad wärmer als z.B. direkt angrenzende RE. Zudem haben die wirklich ernsthafte Probleme bei Vibrationen durch viele angrenzende Platten (große spikes bei den Zugriffszeiten) und vibrieren selber auch relativ stark, verglichen z.b. mit WD RE, Se oder auch HGST Ultrastar 7k4000 & 7k6000. Die einzigen die noch mehr rumpeln, aber auch alle innerhalb 2 Jahren eingegangen sind, waren 4 Seagate Constellation ES3 (der 3. und definitiv letzte griff ins Klo mit Seagate...).
Enterprise-Platten unterscheiden sich aber nicht nur durch die Eignung für Dauerbetrieb - Vibrationstoleranzen sind höher (meist auch durch deutlich steifere Gehäuse und mehr Masse), Fehlerraten sind _deutlich_ niedriger (<1 in 10^15 vs <1 in 10^14), höhere MTBF, höhere anzahl load/unload zyklen durch wesentlich stabiler ausgeführte mechanik, die buffer sind größer und schneller ausgelegt usw...
Wer gerne Platten tauscht kann auch Desktopplatten verwenden - unterm strich spart man damit aber nix...
Zum Thema RAID:
HW-RAID ist praktisch obsolet - den Klotz muss man sich nicht mehr freiwillig ans Bein hängen. RAID-Controller lügen wie gedruckt, machen immer dann Probleme wenn man gerade keine brauchen kann (wenn Platten sterben...) und klatschen proprietäre Formate auf die Platte damit man keine Chance auf schnelles recovery hat wenn der Controller eingeht. Meistens sterben die Dinger durch ne alte BBU, aber ohne kann man die auch nicht betreiben, da sonst entweder der Cache inaktiv ist (und das Array performt wie ne einzelne alte ATA-Platte...), oder man massive Datenverluste bzw korrupte Dateisysteme in kauf nehmen muss.
HW-RAID war ein großes Ding in den 90ern und frühen 2000ern - die Zeiten sind zum Glück vorbei, auch wenns die Hersteller noch weiter Propagieren bzw es noch immer Betriebssyteme (Redmond...) gibt die keine brauchbaren Layer/Dateisysteme als Ersatz bieten.
DigitalOcean setzt für seine Nodes (SSD-only) ausschließlich dm-raid ein - das war bei internen Tests wohl um einige Faktoren schneller als HW-Raid Lösungen... (IIRC wurde das in diesem Vortrag erwähnt: https://youtu.be/zyB185IOrz8). Der Layer ist mittlerweile ziemlich ausgereift und schnell - mit Linux führt also eigentlich kein Weg an dm-raid vorbei, mit einer Ausnahme: ZFS.
LVM ist praktisch, aber hoffnungslos langsam. Eine VolumeGroup durch die man schon ein paar Platten rotiert hat ist für die Performance eine absolute Katastrophe. Da die Snapshotfunktion von LVM auch ziemlich unbrauchbar ist hat man mit LVM ausser dem "pooling" der Platten keine wirklichen Vorteile. Zudem wird das gesamtkonstrukt irrsinnig komplex: dm-raid -> LVM -> FS. Kein Layer weiß etwas vom anderen - das bremst jegliche Performance aus und kann ziemlich häßliche Gremlins rufen... LVM war eine Notlösung und ist IMHO spätestens seit es Dateisysteme wie ZFS gibt obsolet.
Für jedes neue System, speziell Storagesysteme, setze ich ausschließlich ZFS ein - auch wenn ZoL etwas hinter OpenZFS auf FreeBSD oder Illumos hinkt und die Integration ins System praktisch nicht vorhanden ist. Dank L2ARC und SLOG kann man mit kleinen, schnellen SSDs den gesamten Pool erheblich performanter machen, speziell wenn man hohe IOPS-Leistung benötigt (DBs, VMs).
- sbruder
- Beiträge: 333
- Registriert: 24.06.2016 13:54:36
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Franken
Re: Raid System
Einspruch! LVM kann zur Laufzeit verändert werden, was auf Servern mit hoher Erreichbarkeit schon ein Vorteil ist. Für Crypto ist LVM auch toll, da man *eine* Partition Crypto hat (mit *einer* Passphrase) und auf der dann ein LVM mit zig Partitionen. Denn wenn man /var, /home, /tmp, /usr, und / auf einer extra Partition hat sind das 5 Passphrasen (und ich kenne niemanden, der bevor sein Laptop endlich startet erst mal 5 Passphrasen eingeben will). Ich habe mit LVM keinen merkbaren Performance-Unterschied festgestellt.r4pt0r hat geschrieben: Zudem wird das gesamtkonstrukt irrsinnig komplex: dm-raid -> LVM -> FS. Kein Layer weiß etwas vom anderen - das bremst jegliche Performance aus und kann ziemlich häßliche Gremlins rufen... LVM war eine Notlösung und ist IMHO spätestens seit es Dateisysteme wie ZFS gibt obsolet.
Re: Raid System
Ich hatte nie behauptet dass LVM nicht online modifiziert werden kann - das war der Hauptgrund weshalb ich LVM eingesetzt habe.
Ja, man kann dm-crypt/LUKS oberhalb oder unterhalb von LVM nutzen; aber auch hier wieder das Problem: keine Schicht weiß etwas von der anderen, alles muss abstrahiert werden-> Performance und Datenintegrität wird negativ beeinflusst (produziert ein layer Fehler, arbeitet der nächste fröhlich damit weiter).
Hier liefen bis letztes Jahr zeitweise 3 hosts mit LVM auf bis zu 12 Platten. Ein host mit aktuell 6 platten läuft noch - die VG wurde ursprünglich mit 4 platten erzeugt, von denen keine mehr vorhanden ist. Die Performance der VG ist mittlerweile absolut unterirdisch - snapshots sind dadurch noch unbrauchbarer als sie es sowieso mit LVM bereits sind, sodass fullbackups der beiden verbliebenen VMs auf dem host knapp 4h benötigen (~450GB). Mit 60-70MB/sec bin ich an dem host noch froh (wir reden von SAS-Platten/HBA!).
Das uralte QNAP 451TS2 NAS mit dem unglaublich grottigen integrierten SATA-controller des Atom D525 schafft mehr als das doppelte (ZFS mit 2x mirror VDEV).
LVM war schön und gut als es noch nix anderes gab - ich weine ihm aber keine einzige Träne nach und für Neuinstallationen oder Migrationen sehe ich keinen Grund noch auf LVM zu setzen.
Ja, man kann dm-crypt/LUKS oberhalb oder unterhalb von LVM nutzen; aber auch hier wieder das Problem: keine Schicht weiß etwas von der anderen, alles muss abstrahiert werden-> Performance und Datenintegrität wird negativ beeinflusst (produziert ein layer Fehler, arbeitet der nächste fröhlich damit weiter).
Hier liefen bis letztes Jahr zeitweise 3 hosts mit LVM auf bis zu 12 Platten. Ein host mit aktuell 6 platten läuft noch - die VG wurde ursprünglich mit 4 platten erzeugt, von denen keine mehr vorhanden ist. Die Performance der VG ist mittlerweile absolut unterirdisch - snapshots sind dadurch noch unbrauchbarer als sie es sowieso mit LVM bereits sind, sodass fullbackups der beiden verbliebenen VMs auf dem host knapp 4h benötigen (~450GB). Mit 60-70MB/sec bin ich an dem host noch froh (wir reden von SAS-Platten/HBA!).
Das uralte QNAP 451TS2 NAS mit dem unglaublich grottigen integrierten SATA-controller des Atom D525 schafft mehr als das doppelte (ZFS mit 2x mirror VDEV).
LVM war schön und gut als es noch nix anderes gab - ich weine ihm aber keine einzige Träne nach und für Neuinstallationen oder Migrationen sehe ich keinen Grund noch auf LVM zu setzen.