auf einem Dell Server betreibe ich seit mehreren Jahren mehrere VMs.
Die Virtualisierung erfolgt durch ESXi. Auf dem VMs läuft Debian 9.
Jetzt ist eine VM abgeraucht. In der Gui vom ESXi konnte ich auf der Server Console
der betreffenden VM folgendes lesen:
/dev/sda1 contains a file system with errors, check forced.
/dev/sda1:
Inodes that were part of a corrupted orphan linked list found.
/dev/sda1: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY
(i.e., withouth -a or -p options)
fsck exited with status code 4
The root filesystem on /dev/sda2 requires a manual fsck
BusyBox v1.22.1 (Ubuntu 1:1.22.0-15ubuntu1) built-in shell (ash)
enter 'help' for a list of built-in commands:
(initramfs)
OK im initramfs konnte ich dann einen Filecheck ausführen
Dann kam die Meldung ähnlich wi:fsck /dev/sda1
FILE system modified
Danach bootete das System wieder ordungsgemäß./..: *****FILE SYSTEM WAS MODIFIED *****
/..1: 265804/30334976 files (0,2% non-contiguous), 3947627/121315840 blocks
(initramfs)
Das gabs es allerdings schon mal. Ich brauche hier Hilfe um auf Fehlersuche zu gehen.
Log-tehnisch habe ich unter "/var/log/fsck/checkfs" oder "/var/log/fsck/checkroot" nichts
gefunden, da die Files veraltet sind. "/run/initramfs/fsck.log" ist von heute, enthält aber
lediglich:
Log of fsck -C -a -T -t ext4 /dev/sda1
Thu May 14 06:46:31 2020
/dev/sda1: clean, 863943/26083328 files, 67819199/104333312 blocks
Thu May 14 06:46:31 2020
----------------
fsck.log (END)
Grundsätzlich frage ich mich, ob es an Hard- oder Software liegt. Der Server läuft seit
2015.Es sind HDDs verbaut.
Habe ich die Möglichkeit fsck mit debug oder log - Optionen etwas sprechender zu machen
um sodann sda1 zu unmounten und das Device nach mal mit fsck zu checken.
Es geht mir also um Ursachenforschung und Beheben des Probs.
Vielen Dank für eure Hilfe
VG
Svenja