Software RAID startet nicht wenn von 2. Platte gestartet wir

Du kommst mit der Installation nicht voran oder willst noch was nachfragen? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
Benutzeravatar
knauthe
Beiträge: 198
Registriert: 03.03.2004 16:00:17
Wohnort: Berlin
Kontaktdaten:

Software RAID startet nicht wenn von 2. Platte gestartet wir

Beitrag von knauthe » 19.06.2005 13:02:24

Hallo zusammen, hallo Nemo :)

mein RAID läuft soweit

Code: Alles auswählen

 cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 hdb6[0] hda6[1]
      979840 blocks [2/2] [UU]

md0 : active raid1 hdb1[0] hda1[1]
      120384 blocks [2/2] [UU]

md2 : active raid1 hdb5[0] hda5[1]
      36764608 blocks [2/2] [UU]

md1 : active raid1 hdb2[0]
      1855424 blocks [2/1] [U_]

unused devices: <none>
bis auf -- wie man schon sieht -- md1, die Root-Partition. Das Problem ist, daß immer wenn ich -- mittels grub -- von md1 oder auch hdb2 (statt hda2) starte

Code: Alles auswählen

root		(hd0,0)
kernel		/vmlinuz-2.6.8-2-386 root=/dev/md1 ro 
initrd		/initrd.img-2.6.8-2-386-raid
savedefault
boot
werden md0, md2 und md3 nicht gestartet und der Bootvorgang kommt nur bis

Code: Alles auswählen

starting system log daemon: syslogd
und bleibt da stehen. /dev/md0 und /dev/md2 gibt's nicht. Nach einem boot mit root hda2 sind sie wieder da/gestartet.

Hmm, also: Warum starten die Soft RAIDs wenn ich von hda2 als root starte, nicht aber von hdb2 oder dem schon existenten md1? Alle Dateien auf hda2 und hdb2 sollten identisch sein (Verzeichnisse wurden mit dump und restore kopiert).

TIA für jeden Tip*ggk 8O

geriom
Beiträge: 279
Registriert: 16.10.2004 08:13:37

Beitrag von geriom » 20.06.2005 13:15:03

Wie sieht es mit dem Grub aus? Ist der auf beiden Partitionen installiert?
Wie sieht die device.map aus?
Beispiel:
(hd0) /dev/sda
(hd1) /dev/sdb

anschließend ein grub-install und der grub sollte auf beiden Platten installiert sein.

Vielleicht klappt es dann.

Benutzeravatar
knauthe
Beiträge: 198
Registriert: 03.03.2004 16:00:17
Wohnort: Berlin
Kontaktdaten:

Beitrag von knauthe » 20.06.2005 17:51:00

Juchhuuu, das war's. Thx für den Tip. Ein letztes Problem bleibt noch: ich führe ein hotadd durch mit dem hda1 (root Partition) und dieses und nur dieses ist nach einem reboot wieder weg -- also

Code: Alles auswählen

:~#  mdadm -add /dev/md1 /dev/hda2
mdadm: hot added /dev/hda2
Nach dem Reboot

Code: Alles auswählen

:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 hdb5[0] hda5[1]
      36764608 blocks [2/2] [UU]

md0 : active raid1 hdb1[0] hda1[1]
      120384 blocks [2/2] [UU]

md3 : active raid1 hdb6[0] hda6[1]
      979840 blocks [2/2] [UU]

md1 : active raid1 hdb2[0]
      1855424 blocks [2/1] [U_]

unused devices: <none>
:~# cat /etc/mdadm/mdadm.conf
DEVICE /dev/hd*[0-9]
ARRAY /dev/md3 level=raid1 num-devices=2 UUID=98c4a1a4:0e08c0ef:b4851f1e:f8840422
   devices=/dev/hdb6,/dev/hda6
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=6c8fbc87:9170705f:4c65d0ef:10971369
   devices=/dev/hdb1,/dev/hda1
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=d858d1fd:c4a4d5f1:e641d089:edcf75f0
   devices=/dev/hdb5,/dev/hda5
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=d00d4348:2198db9d:c977f086:c66a9ac6
   devices=/dev/hdb2,/dev/hda2
MAILADDR root
Man sieht, hdb2 ist wieder allein, obwohl vorher hinzugefügt udn in der mdadm.conf auch eingetragen.

Ist doch komisch, oder? *ggk <-- der sich nochmals über einen Tip freuen würde :P

geriom
Beiträge: 279
Registriert: 16.10.2004 08:13:37

Beitrag von geriom » 21.06.2005 08:33:01

So ein ähnliches Problem hatte ich mit /dev/md0 (Boot-Partition) auch. Diese war nach dem Reboot auch jedes mal wieder weg.
Erklären kann ich das auch nicht, gerade weil ich ein anderen (SARGE)Server habe bei dem es klappt
und ein SUSE Rescue System das RAID einwandfrei fand.

Da das Problem beim produktiv Server lag, habe ich mir kurzum ein RAID Controller gekauft. (3ware).
Man erspart sich doch so manche Nerven damit.

TIPP: Probier mal eine SUSE 9.2 Boot-CD mit dem Rescue System hochzufahren. Wenn die RAIDs dann alle erkannt werden liegt wohl ein generells Problem bei Debian vor.

ftp://ftp.suse.com/pub/suse/i386/9.2/bo ... 041129.iso (64MB)

Wenn möglich bitte Testen.

Benutzeravatar
knauthe
Beiträge: 198
Registriert: 03.03.2004 16:00:17
Wohnort: Berlin
Kontaktdaten:

Beitrag von knauthe » 22.06.2005 12:31:34

TIPP: Probier mal eine SUSE 9.2 Boot-CD mit dem Rescue System hochzufahren. Wenn die RAIDs dann alle erkannt werden liegt wohl ein generells Problem bei Debian vor.

ftp://ftp.suse.com/pub/suse/i386/9.2/bo ... 041129.iso (64MB)

Wenn möglich bitte Testen.
Welche Option der CD meinst Du? Wenn ich das Rescue System starte, erkennt dieses gar keine Laufwerk, ein mount bringt nur das virtuelle /dev im Ram zutage.

Wenn ich die Option von HD booten wähle, dann bin ich in meinem "normalen" Grub und alles wie gehabt /dev/md1 hat eine seiner beiden Partitionen vergessen. Die anderen Möglichkeiten, welche die Suse CD zum booten anbietet, scheinen mir auch nicht gemeint zu sein, oder?

*ggk

geriom
Beiträge: 279
Registriert: 16.10.2004 08:13:37

Beitrag von geriom » 22.06.2005 13:17:40

Die Option RESCUE SYSTEM.

Bei mir werden dann (SUE9.2) sowohl RAID als auch LVM erkannt.

Benutzeravatar
knauthe
Beiträge: 198
Registriert: 03.03.2004 16:00:17
Wohnort: Berlin
Kontaktdaten:

Beitrag von knauthe » 22.06.2005 14:05:50

Ja, genau das Rescue System hatte ich auch schon gestartet. Aber auch im zweiten Anlauf: wird weder erkannt noch läßt sich /dev/md* mounten. (LVM werden auch nicht gefunden, sagt eine boot Meldung.)

Aber etwas anderes interessantes hab ich gefunden: als allerletzte Meldung vor dem reboot heißt es stopping md2 und md3 und md0 ABER: md1 can't stop still in use. md1 ist just das beim Neustart unerkannt bleibende ... :?:

*ggk 8O

geriom
Beiträge: 279
Registriert: 16.10.2004 08:13:37

Beitrag von geriom » 22.06.2005 15:01:29

Dann versuche mal das md0 inaktiv zu machen. Wie das geht kann ich dir leider nicht sagen.
Evtl. hilft man mdadm.

Antworten