RAID5 - Falsche RAID-Disk removed, wie wieder einbinden?

Du kommst mit der Installation nicht voran oder willst noch was nachfragen? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
Mike99
Beiträge: 2
Registriert: 24.10.2005 16:43:47

RAID5 - Falsche RAID-Disk removed, wie wieder einbinden?

Beitrag von Mike99 » 24.10.2005 17:08:05

Hallo Leute,

mein Raid läuft schon seit einiger Zeit auf nur 5 von 6 Partitionen (Part 0- Part 5. Nun hatte ich die Part 5 wieder eingebunden (Sync erfolgte), keine Probleme bis dahin. Bei einer weiteren Aktion sollte eine neue Partition eine alte (Part 1) ersetzen, also diese removed und die neue added. Während des jetzigen Sync meldete sich aber die Part 5 Partition als faulty ab. Das Raid ist ja nun nicht mehr lauffähig (nur 4 von 6). Jetzt hättte ich ja noch eine Chance, das Raid mit der alten Konfiguration ans Laufen zu bekommen. Allerdings bekomme ich die nun nicht mit mdadm /dev/md2 -a /dev/hda5 als Raid-Disk ins Array, sondern nur als Spare-Disk (siehe Part 6)? Wie könnte ich die als Raid-Disk einbinden? Die Daten sollten ja noch vorhanden sein, oder?

Code: Alles auswählen

 Number   Major   Minor   RaidDevice State
       0       3        3        0      active sync   /dev/hda3
       1       0        0        1      faulty removed
       2      33        1        2      active sync   /dev/hde1
       3      33       65        3      active sync   /dev/hdf1
       4      34        1        4      active sync   /dev/hdg1
       5      34       65        5      faulty   /dev/hdh1

       6       3        5        6      spare   /dev/hda5   ***

***eigentlich RaidDev1
Ist das richtig, dass das File /etc/mdadm/mdadm.conf zwar die Konfiguration des Raid angibt, dies aber nicht für den Betrieb genutzt wird?

Code: Alles auswählen

DEVICE partitions
ARRAY /dev/md2 level=raid5 num-devices=6 UUID=760e137e:60cae49e:6ec4fcf9:3b9b6cb7
   devices=/dev/hda3,/dev/hda5,/dev/hde1,/dev/hdf1,/dev/hdg1,/dev/hdh1
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=0350a7d8:c0b25304:702ba1a0:3c246643
   devices=/dev/hda2,/dev/hdc2
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=85d8e452:0d24fa32:4a15e77d:b17da38e
   devices=/dev/hda1,/dev/hdc1
Könnt ihr weiterhelfen?

CC2000
Beiträge: 31
Registriert: 25.10.2004 15:48:57

Beitrag von CC2000 » 25.10.2005 09:35:31

Hallo, das klingt übel! Ich denke auch, dass der aktuelle Zustand nicht in die Conf zurückgeschrieben wird. Kannst du mal
cat /proc/mdstat
machen?
Evtl. musst du den aktuellen Zustand des Arrays in die Conf eintragen!
HTH,
CC

Mike99
Beiträge: 2
Registriert: 24.10.2005 16:43:47

Beitrag von Mike99 » 25.10.2005 22:08:08

Hi CC2000,

beim Neustart des Raids (--assemble --run --force) hat er jedesmal versucht, das Raid zu syncen, alle Raid-Devices waren active. Ge-synced wurde auf das Device /dev/hda5 (Mist, darin vermutete ich ja die Rettung meiner Daten). Allerdings brach der Sync bei ca 5% ab und das /dev/hdh1 meldete sich wieder als faulty (auch Mist ;o( ).

Allerdings konnte ich nach einem erneuten Start des Raids, nun im degred-mode (nur die Platten 0,2,3,4,5) das Raid lange genug am Laufen halten, dass ich nach und nach die Daten darauf wegsichern konnte (immer wieder Neustart des Raids, nachdem sich hdh1 wieder als faulty meldete). Bis auf wenige, zum Glück unwichtige Dateien, sind meine Daten nun gerettet.

Was allerdings nun als Frage bleibt: Warum meldet sich /dev/hdh1 immer faulty??? Ein zweites Raid mit /dev/hdh2 läuft klaglos. Muss man nicht verstehen, oder ? (Werde mal bei Gelegenheit smartmon installieren bzw. einen Platten-Check durchführen, evtl gibt's da defekte Sektoren oder sowas...

Danke und Grüße

Micha

CC2000
Beiträge: 31
Registriert: 25.10.2004 15:48:57

Beitrag von CC2000 » 26.10.2005 10:03:13

Hallo Mike,
ein Raid5 hatte ich bisher noch nicht im Produktivbetrieb. Ich kenne mich also nicht mit allen Facetten aus. Wenn du aber berichtest, dass dein Array auch im Degrade-Modus Fehler aufweist, könnte der Fehler theoretisch auch auf einer der aktiven Datenplatten sein. Ob deine Spare Blockfehler hat, müsstest du aus dem Syslog lesen können.

Ansonsten halt wieder cat /proc/mdstat. Wenn du Fehler auf md0 hast, dass sollte der ja vom md-Modul auf die betroffene(n) Platte(n) umgemappt werden. Jedenfalls MUSS dann eine Platte als teilweise defekt markiert werden. Allerdings weiß ich nicht, ob das in der Conf steht - wie schon oben gesagt!

Lass es mich wissen, falls du was neues rausbekommst.
Gruß
Stefan

Antworten