Ist dieses Raid noch zu retten?

Du kommst mit der Installation nicht voran oder willst noch was nachfragen? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
krodon
Beiträge: 6
Registriert: 17.09.2009 08:45:54

Ist dieses Raid noch zu retten?

Beitrag von krodon » 20.04.2014 11:06:15

Hallo,

ich hatte ein Raid6. Vorletztes Wochenende ist es auf degradet gegangen und kurze Zeit danach offline. Mit einem mdadm --assemble --force konnte ich es schnell wiederbeleben. Aus Angst habe ich mir eine 3GB Hdd bestellt für ein Backup. Bevor sie da war ist das Raid 6 wieder ausgefallen (Fehler auf sdf).
Durch diesen Fehler wurde das assemble immer wieder abgebrochen. O.K. ein Raid6 kommt mit einem Verlust von 2HDD's aus, also habe ich die sdf aus dem Verbund genommen; das assemble wieder angestoßen. Hoppla! nun ist aus dem Raid6 ein Raid5 geworden.

Das sieht so aus:

sv01:~ # mdadm --assemble --force /dev/md0 /dev/sde1 /dev/sdg1 /dev/sda1 /dev/sdd1 /dev/sdb1 /dev/sdc1 /dev/sdh1
mdadm: forcing event count in /dev/sdc1(2) from 3997388 upto 3997391
mdadm: clearing FAULTY flag for device 5 in /dev/md0 for /dev/sdc1
mdadm: Marking array /dev/md0 as 'clean'
mdadm: /dev/md0 has been started with 6 drives (out of 7) and 1 rebuilding.

Wäre auch nicht so schlecht, wenn es nicht abgebrochen werden würde weil sdc auf einmal faulty wird. Es war jedoch möglich ältere Daten in dieser Zeit zu sichern. Daten die die Letzte Zeit geschrieben wurden.

Habt Ihr eine Ahnung wie ich es wiederbeleben kann? Anscheinend muss ich die sdf wieder nutzen und das faulty ignorieren lassen.


Viele Grüße


Krodon

Cae
Beiträge: 6349
Registriert: 17.07.2011 23:36:39
Wohnort: 2130706433

Re: Ist dieses Raid noch zu retten?

Beitrag von Cae » 20.04.2014 15:32:26

Vorneweg: --force sollte nicht leichtfertig verwendet werden, sonst waere es schon standardmaessig eingeschaltet. Ausserdem ist dringend zu empfehlen, die offensichtlich gerade am Ende ihrer Lebensdauer angekommenen Platten nicht durch einen Rebuild noch zusaetzlich zu belasten. Mach' dir Images und probiere den Rebuild daran (bzw. an der Kopie der Kopie oder LVM-Snapshots).

Ob das nun RAID5 oder RAID6 ist, duerfte eher unbedeutend sein, weil n+1+(fehlendes) Spare dasselbe ist wie n+2. Die Anzahl n der Platten, die Nutzdaten tragen, ist identisch. Allerdings ist mir gerade nicht ganz klar, was da Sache ist; poste bitte mal den Output der /proc/mdstat sowie von

Code: Alles auswählen

# mdadm --examine /dev/sd?1
(bzw. von allen beteiligten Partitionen). Letzteres duerfte viel Text sein, daher bitte nach NoPaste [1].

Gruss Cae

[1] pastebin.php
If universal surveillance were the answer, lots of us would have moved to the former East Germany. If surveillance cameras were the answer, camera-happy London, with something like 500,000 of them at a cost of $700 million, would be the safest city on the planet.

—Bruce Schneier

krodon
Beiträge: 6
Registriert: 17.09.2009 08:45:54

Re: Ist dieses Raid noch zu retten?

Beitrag von krodon » 20.04.2014 19:10:12

Hallo Cae,

ich habe den inhalt unter pastebin.php?mode=view&s=37786 gepostet.

Personalities : [raid6] [raid5] [raid4]
md0 : inactive sdg1[6] sdh1[7] sde1[4] sdd1[8](S) sdb1[1] sda1[0]
4395435216 blocks super 1.0

unused devices: <none>


VG

Krodon

Cae
Beiträge: 6349
Registriert: 17.07.2011 23:36:39
Wohnort: 2130706433

Re: Ist dieses Raid noch zu retten?

Beitrag von Cae » 21.04.2014 16:46:08

Du solltest, sofern noch nicht geschehen, alle Platten roh (mit dd oder so) wegsichern. Danach wuerde ich per

Code: Alles auswählen

# mdadm /dev/md0 --add /dev/sdc1
das noch am ehesten passende Device wieder in's RAID aufnehmen. sdf1 geht immerhin davon aus, dass es 8 Devices gibt, nicht 7 (wie es bei allen anderen steht). Ausserdem ist der Event-Counter dort wesentlich aelter als beim Rest des Verbunds. (Der Counter wird inkrementiert, sobald sich irgendetwas an der Platte aendert und ist daher ein Mass dafuer, wieweit sich einzelne Platten voneinander entfernt haben.)

Sofern das geklappt hat, wuerde ich den Inhalt des RAIDs mal probehalber read-only mounten und im Erfolgsfall spaeter explizit fscken. Spaeter sollte man sdf1 als Spare hinzufuegen und per

Code: Alles auswählen

# mdadm --grow /dev/md0 --level=raid6
das ganze Array wieder als RAID6 deklarieren.

Gruss Cae
If universal surveillance were the answer, lots of us would have moved to the former East Germany. If surveillance cameras were the answer, camera-happy London, with something like 500,000 of them at a cost of $700 million, would be the safest city on the planet.

—Bruce Schneier

krodon
Beiträge: 6
Registriert: 17.09.2009 08:45:54

Re: Ist dieses Raid noch zu retten?

Beitrag von krodon » 21.04.2014 17:45:30

Hallo Cae
Cae hat geschrieben:Du solltest, sofern noch nicht geschehen, alle Platten roh (mit dd oder so) wegsichern.
Ich bin (leider) nicht so der Freak unter Linux. Das Sichern mit dd ist mir bekannt, leider habe ich als nur eine 3TB HDD verfügbar, auf die die Daten vorübergehend sollen. DD macht ja eine 1:1 Kopie, das klappt leider bei 7x 750GB nicht. Kann ich dei HDD über eine Pipe komprimiert in eine Datei schreiben? (Ich siehere sie gerade mit dd if=/dev/sda | gzip > /mnt/backup/HDD/image-compress_sda.img.gz ist das O.k?)
Insgesamt sind es < 2GB. Bei dem Assemble hatte ich in der Vergangenheit das Problem, dass es wegen dem Faulty auf sdc abgebrochen wurde. Weiterhin habe ich noch das Problem, dass ich die HDD's nicht identifizieren kann.

Hast Du eine Idee wie ich weiter komme?

VG

Krodon

P.S. Ich kann nur während des Assemble das Raid mounten, danach erhalte ich den Fehler FS unknown

Ich habe eben mal nachgeschaut, das Image von sdc ist kleiner als das von sda und sdb; sind die Daten nun verloren?
dd: reading â/dev/sdcâ: Input/output error

Antworten