In der /var/log/syslog meines heimischen DEBIAN-Servers (bookworm) sehe ich seit
einigen Wochen diese Meldungen:
Code: Alles auswählen
2023-08-26T13:34:15.211001+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T13:34:15.211024+02:00 srv1 systemd[1]: mdadm-last-resort@md0.timer: Deactivated successfully.
2023-08-26T13:34:15.211030+02:00 srv1 systemd[1]: Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T13:34:15.211359+02:00 srv1 systemd[1]: Starting mdadm-shutdown.service - Prepare mdadm shutdown initramfs...
2023-08-26T13:34:15.211544+02:00 srv1 systemd[1]: Finished mdadm-shutdown.service - Prepare mdadm shutdown initramfs.
Das Array md0 ist ein RAID1 mit zwei SATA SSD. Und allem Anschein nach ist mit diesem Array alles in Ordnung.Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0.
Schauen wir hier:
Code: Alles auswählen
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Mar 23 19:08:09 2023
Raid Level : raid1
Array Size : 4000653312 (3.73 TiB 4.10 TB)
Used Dev Size : 4000653312 (3.73 TiB 4.10 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Aug 26 19:21:33 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : srv1:0 (local to host srv1)
UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
Events : 5030
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Code: Alles auswählen
mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
Name : srv1:0 (local to host srv1)
Creation Time : Thu Mar 23 19:08:09 2023
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 8001306624 sectors (3.73 TiB 4.10 TB)
Array Size : 4000653312 KiB (3.73 TiB 4.10 TB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : 74d760f7:fbd1f6e0:d5f32642:e1169b78
Internal Bitmap : 8 sectors from superblock
Update Time : Sat Aug 26 19:21:33 2023
Bad Block Log : 512 entries available at offset 24 sectors
Checksum : dd49ab65 - correct
Events : 5030
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
Name : srv1:0 (local to host srv1)
Creation Time : Thu Mar 23 19:08:09 2023
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 8001306624 sectors (3.73 TiB 4.10 TB)
Array Size : 4000653312 KiB (3.73 TiB 4.10 TB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=0 sectors
State : clean
Device UUID : bba543f9:54da186f:8047aedb:bb4ac4e4
Internal Bitmap : 8 sectors from superblock
Update Time : Sat Aug 26 19:21:33 2023
Bad Block Log : 512 entries available at offset 24 sectors
Checksum : 72ff098c - correct
Events : 5030
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Wie man sehen kann, ist dies der Stand von heute, 26.08.2023, 19:21:33h.
Nach einem Neustart um 21:27:48h tauchen in /var/log/syslog diese Meldungen auf:
Code: Alles auswählen
2023-08-26T21:27:48.260356+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T21:27:48.260548+02:00 srv1 systemd[1]: Starting mdadm-shutdown.service - Prepare mdadm shutdown initramfs...
2023-08-26T21:27:48.260586+02:00 srv1 systemd[1]: Finished mdadm-shutdown.service - Prepare mdadm shutdown initramfs.
2023-08-26T21:27:54.815573+02:00 srv1 systemd[1]: Created slice system-mdadm\x2dlast\x2dresort.slice - Slice /system/mdadm-last-resort.
2023-08-26T21:27:54.815742+02:00 srv1 systemd[1]: mdadm-last-resort@md0.service - Activate md array md0 even though degraded was skipped because of an unmet condition check (ConditionPathExists=!/sys/devices/virtual/block/md0/md/sync_action).
Code: Alles auswählen
root@srv1:~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Mar 23 19:08:09 2023
Raid Level : raid1
Array Size : 4000653312 (3.73 TiB 4.10 TB)
Used Dev Size : 4000653312 (3.73 TiB 4.10 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Aug 26 21:33:46 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : srv1:0 (local to host srv1)
UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
Events : 5032
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
verstehe ich auch nicht so ganz. Das Array bestand vom Zeitpunkt seiner Erstellung an stets aus zwei HDDsStopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
/dev/sda1 und /dev/sdb1. Laut Meldungstext wartet das system auf das aktiv werden von weiteren Laufwerken -
dies natürlich stets vergeblich.
Beim Filtern mit Grep aud "md0" gibt es diese Meldungen:
Code: Alles auswählen
2023-08-26T21:27:48.260356+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T21:27:48.267470+02:00 srv1 kernel: [ 5.441957] md/raid1:md0: active with 2 out of 2 mirrors
2023-08-26T21:27:48.267474+02:00 srv1 kernel: [ 5.454637] md0: detected capacity change from 0 to 8001306624
2023-08-26T21:27:48.267482+02:00 srv1 kernel: [ 28.707181] EXT4-fs (md0): mounted filesystem with ordered data mode. Quota mode: none.
2023-08-26T21:27:54.815742+02:00 srv1 systemd[1]: mdadm-last-resort@md0.service - Activate md array md0 even though degraded was skipped because of an unmet condition check (ConditionPathExists=!/sys/devices/virtual/block/md0/md/sync_action).
Beim Systemstart wird demnach jedesmal aufs Neue die Laufwerkskapazität auf den neuen (= richtigen) Wert hinaufgesetzt. Warum auch immer?md0: detected capacity change from 0 to 8001306624
Die Meldungen von 21:27:xx könnten verleiten daran zu glauben, dass die dort beschriebene Aktion nachhaltig ist. Das ist sie jedoch nicht.
Siehe hier:
Code: Alles auswählen
2023-08-26T22:13:53.976358+02:00 srv1 kernel: [ 5.970968] md/raid1:md0: active with 2 out of 2 mirrors
2023-08-26T22:13:53.976363+02:00 srv1 kernel: [ 5.981287] md0: detected capacity change from 0 to 8001306624
2023-08-26T22:13:53.976400+02:00 srv1 kernel: [ 6.348060] EXT4-fs (md0): mounted filesystem with ordered data mode. Quota mode: none.
2023-08-26T22:13:53.978664+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T22:13:53.979781+02:00 srv1 systemd[1]: mdadm-last-resort@md0.timer: Deactivated successfully.
2023-08-26T22:13:53.979789+02:00 srv1 systemd[1]: Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
in welcher Form ich hier aktiv werden sollte. Das würde einen DEBIAN-User auf diesem Planeten sehr freuen.
Vielen Dank an alle, die bis hierher mitgelesen haben.
Viele Grüße
Uwe