ich nutze aus Freude seit Jahren Debian - bin sehr zufrieden. Das vorweg.
Ich habe einen Dateiserver der damals ein kleines, heute ein sehr gewachsenens Paket Namens "VmWare Server 1.0.10" beherbergt
Das ganze ist so aufgesetzt das :
3 SATA2 - HDDs je 2 Partitionen haben:
Die 1. (kleine) stellt 30 GBs für ein mdadm-RAID1 als BOOT und ROOT.
Die 2. (große) stellt den Rest (ca. 1TB) für ein mdadm-RAID5 als FREIGABE.
Die HDDs sind in einem HDDCase Einschub verbaut, es wäre als möglich noch mehrere Festplatten einzusetzen, oder eine hot zu tauschen. **Alle HHDs hängen an separaten SATA Kabel, jedoch leider an einem Controller**
Im System selber sind noch weitere Festplatten zu Backup-Zwecken verbaut, sowie 2 externe zu selbigem Zweck angeschlossen.
Das Grundsystem ist ein Debian Lenny seit ca. einem Monat - davor Etch. Ich bin eher ein Update-Muffel (ausser Security).
Die VMWARE stellt ein 24/7 Windows XP mit MSSQL Server 2005 und einem Kassenabrechnungssystem - also hochkritische Daten - die ich gerne und oft als Snapshot sichere (je nach Last habe ich meine Skripte laufen)
Der Rest vom PC ist hier eigentlich unwichtig - aber der Vollständigkeit halber ist es ein P4 mit 3,4Ghz (HP ProLiant) mit 4GB ECC RAM.
Mein Problem besteht darin, dass die ganze Kiste in der letzten Zeit furchtbar langsam geworden ist - hdparm gibt eine Leserate von ~40 aus für das RAID5, 20 für RAID1, als Vergleich - 70 für eine stinknormale SATA HDD ohne mdadm. MDADM gibt functional aus, ist also kein Problem vorhanden, welches ich fixen könnte.
Die Ausgabe von mdstat sieht so aus :
Code: Alles auswählen
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sdb2[0] sdd2[2] sdc2[1]
879108736 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md0 : active raid1 sdb1[0] sdd1[2] sdc1[1]
43945664 blocks [3/3] [UUU]
unused devices: <none>
- Die HDDs an mehrere Controller verteilen (Last drücken-ggf. muss mdadm warten?)
- Einen "echten" HWRaid Controller einsetzen (3Ware zBsp.)
Der Grund warum ich mdadm nutze ist bestechend simpel - es gab vor zahlreichen Jahren ein verlängertes Wochenende (ich meine Pfingsten) - wo mich mein damaliger Windows Server mit einem HWRAID verlassen hatte, der Controller war durchgeraucht, die Festplatten übel zugerichtet. Da es lange geplant war -habe ich den Server nach langem hin und her (und einem fehlenden HW Controller von HP) auf Debian gebracht und mdadm eingesetzt - das hat mich zwar schon hier und da mal überrascht, war aber immer und ohne HW Spielereien wieder aufzubauen. Das fand ich klasse. Die CPU Last ist eine andere Sache.
Als Dienste im Zugriff per "iotop" sehe ich hier reichhaltig pdflush, kjournald und natürlich vmware - hier ein shot :
Code: Alles auswählen
6020 root 13.48 M/s 0 B/s 0.00 % 66.35 % rsync -aeH --delete --exclude=/proc --exclude=/sys --exclude=backu* / /backup-500gb-ext
6535 root 2.64 M/s 0 B/s 0.00 % 36.15 % clamscan --quiet -ir --scan-mail=yes --tempdir=/tmp --log=/var/log/clam-scanner.log --s
6327 root 984.57 K/s 3.85 K/s 0.00 % 31.24 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6326 root 246.14 K/s 0 B/s 0.00 % 20.14 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6328 root 1011.49 K/s 0 B/s 0.00 % 18.95 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6324 root 430.75 K/s 3.85 K/s 0.00 % 17.83 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
7540 root 0 B/s 61.54 K/s 0.00 % 15.43 % [kjournald]
6325 root 776.89 K/s 0 B/s 0.00 % 9.92 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6802 root 0 B/s 3.85 K/s 0.00 % 7.75 % [pdflush]
6329 root 738.43 K/s 0 B/s 0.00 % 6.28 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6798 root 3.85 K/s 584.59 K/s 0.00 % 4.95 % [pdflush]
6319 root 0 B/s 473.05 K/s 0.00 % 0.00 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6330 root 0 B/s 15.38 K/s 0.00 % 0.00 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6331 root 0 B/s 3.39 M/s 0.00 % 0.00 % vmware-vmx -C /freigabe/vm-server/WindowsSQL/WindowsVM.vmx -@ ""
6022 root 0 B/s 12.98 M/s 0.00 % 0.00 % rsync -aeH --delete --exclude=/proc --exclude=/sys --exclude=backu* / /backup-500gb-ext
Code: Alles auswählen
Total DISK READ: 20.21 M/s | Total DISK WRITE: 17.49 M/s
Das Ärgerliche ist, das dass System nun seit 2 Jahren in dieser Konfig läuft und erst seit ca. 6 Monaten beginnt langsamer zu werden. Smartmontools ist übrigends installiert und findet auch bei extended test keine auffälligkeiten
Habt ihr einen guten Rat der vielleicht nicht nur der Rat nach einem HW Controller ist...?!
LG Stefan
EDIT
Ich habe gerade mal smartctl nach allen Errors auf den Platten abgefragt und dieses hier über die 3 Partitionen gesammelt :
1
Code: Alles auswählen
Error 10 occurred at disk power-on lifetime: 5787 hours (241 days + 3 hours)
40 51 00 db 02 3d 05 Error: UNC at LBA = 0x053d02db = 87884507
Error 9 occurred at disk power-on lifetime: 5787 hours (241 days + 3 hours)
40 51 00 db 02 3d 05 Error: UNC at LBA = 0x053d02db = 87884507
Error 8 occurred at disk power-on lifetime: 5787 hours (241 days + 3 hours)
40 51 00 db 02 3d 05 Error: UNC at LBA = 0x053d02db = 87884507
Error 7 occurred at disk power-on lifetime: 5787 hours (241 days + 3 hours)
40 51 00 db 02 3d 05 Error: UNC at LBA = 0x053d02db = 87884507
Error 6 occurred at disk power-on lifetime: 5787 hours (241 days + 3 hours)
40 51 00 db 02 3d 05 Error: UNC at LBA = 0x053d02db = 87884507
Code: Alles auswählen
No Errors Logged
Code: Alles auswählen
1 Raw_Read_Error_Rate 0x000f 116 099 006 Pre-fail Always - 107705842
7 Seek_Error_Rate 0x000f 084 060 030 Pre-fail Always - 253807216
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
SMART Error Log Version: 1
No Errors Logged