SoftRaid mit Debian Installer

Du kommst mit der Installation nicht voran oder willst noch was nachfragen? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
DarkEvil
Beiträge: 58
Registriert: 26.01.2004 10:56:55
Wohnort: Hamburg

SoftRaid mit Debian Installer

Beitrag von DarkEvil » 12.11.2004 13:27:05

Hallo,

als ich habe mir den Installer vom 16.10. NETISO (Sarge) runtergeladen. Nun versuche ich krampfhaft auf meinem EPIA MII ein SoftRaid aufzuziehen, mit 2 Samsung SpinPoint 160 GB, direkt bei der Installation.

Code: Alles auswählen

/dev/hda1 < Primary 160 GB als RAID Vol. (+ Bootflag)
/dev/hdc1 < Primary 160 GB als RAID Vol. (+ Bootflag)

/dev/md0 = Raid 1 mit 160 GB
1 /boot = 100 MB (+ Bootflag)
2 /   = 1 GB
3 /usr    = 5 GB
4 /var    = 3 GB
5 /home = 10 GB
6 /files   = 120 GB
unp.   = 20 GB
Alles als ReiserFS

Sobald ich dann die changes schreiben möchte, kommt "can't write ReiserFS filessystem on Partion1 Raid1". Ich habe auch schon probiert mit anderen Bootflag, also einmal nur auf dem /dev/md0 oder nur /dev/hda&c. Geht alles nicht !!!!

Irgentjemand ne Idee...ich finde auch keine richtiges HowTo welches diese Prozedur beim Install beschreibt.

Gruss Evil

Benutzeravatar
Luke.S
Beiträge: 147
Registriert: 06.09.2002 23:55:33
Wohnort: Austria

Beitrag von Luke.S » 12.11.2004 22:10:09

Also, du musst zuerst das Raid synchronisieren (und das dauert bei so einer grossen Platte...!) Nebenbei eine virtuelle Kosole aufreissen und

Code: Alles auswählen

cat /proc/mdstat
eingeben.

Dann siehst du den Fortschritt.
Erst wenn das erledigt ist kannst du das den ReiserFS Table schreiben.

Zu beachten ist: Partitionen werden nacheinander synchronisiert, nie gleichzeitig;
Soferne du nichts anderes eingibst wird die Platte mit der höheren Priorität (hda) als Master genommen und hdc damit abgegichen.

Interesaant ist das nur wenn schon Daten vorhanden sind

lg
Luke

DarkEvil
Beiträge: 58
Registriert: 26.01.2004 10:56:55
Wohnort: Hamburg

Beitrag von DarkEvil » 16.11.2004 06:54:33

Hi,

danke erstmal! Du hattest soweit recht, es läuft dann erst der Sync Prozess.

Aber irgentwie klappt es danach nicht mit dem Partitionieren....ich konnte zwar eine grosse (160 GB) Part. machen. Nur ich will ja mehere machen. Vielleicht hast Du ja noch einen Tip.

Gruss Evil

CC2000
Beiträge: 31
Registriert: 25.10.2004 15:48:57

Beitrag von CC2000 » 16.11.2004 09:08:42

Hallo,
mit failed-disk kannst du das syncen hinauszögern, d.h. zuerst mit nur einer Platte installieren und dann, wenn alles läuft, die zweiter dazunehmen mit raidhotadd /dev/md0 /dev/hdc1 ...
HTH

DarkEvil
Beiträge: 58
Registriert: 26.01.2004 10:56:55
Wohnort: Hamburg

Beitrag von DarkEvil » 16.11.2004 16:00:12

Das kenne ich auch....mein Problem ist ja nur das ich das schon beim Installer mache (Raid bauen). Demnach sind die Platten ja nicht über /dev/hdx ansprechbar....höchstens mit /dev/ide/diskxxxx oder /proc/ide/xxx aber das macht mdadm nicht mit.

Noch einer einen TIP ?
Das muss doch zu machen sein....

P.S.: Wie gesagt eine grosse 160 GB macht er, nur ich möchte ja mehere kleine Partionen.

Gruss Evil

CC2000
Beiträge: 31
Registriert: 25.10.2004 15:48:57

Beitrag von CC2000 » 17.11.2004 13:42:57

Hmm, leider kann ich nicht ganz nachvollziehen, was bei der Installation genau als Option angeboten wird! Bei mir läuft jedenfalls ein vergleichbares System. Allerdings habe ich da mit Knoppix+debootstrap gearbeitet. Auf jeden Fall musst du irgendwann die identischen Partitionstabellen auf den beiden Platten erzeugen bzw. erzeugen lassen. Aber gehen sollte es auf jeden Fall!

Benutzeravatar
Bert
Beiträge: 3751
Registriert: 16.07.2002 14:06:52
Wohnort: Dresden
Kontaktdaten:

Beitrag von Bert » 17.11.2004 18:22:23

Ich kann mich dunkel erinnern mal gelesen zu haben, das man Raid Devices nicht mehr partitionieren kann. Ich sehe da 2 Möglichkeiten:

- Partitioniere die darunterliegenden Platten so wie gewünscht und bau dann aus den Paaren jeweils die SWRaids auf

- oder, schöner: mach alles als eine große SW Raid /dev/md0 und zerlege das dann per LVM in logische Volumes.

Beim 2. Weg hast Du später eindeutig mehr flexibilität. Der Sarge Installer unterstützt LVM bei der Installation, Mußt halt per expert2.6 starten (jedenfalls hab ich es eben so gemacht). Das syncronisieren mußt Du nicht abwarten, das passiert transparent im Hintergrund.

Bert
Programmer: A biological machine designed to convert caffeine into code.
xmpp:bert@debianforum.de

DarkEvil
Beiträge: 58
Registriert: 26.01.2004 10:56:55
Wohnort: Hamburg

Beitrag von DarkEvil » 17.11.2004 20:16:42

Bert hat geschrieben:Ich kann mich dunkel erinnern mal gelesen zu haben, das man Raid Devices nicht mehr partitionieren kann. Ich sehe da 2 Möglichkeiten:

- Partitioniere die darunterliegenden Platten so wie gewünscht und bau dann aus den Paaren jeweils die SWRaids auf

- oder, schöner: mach alles als eine große SW Raid /dev/md0 und zerlege das dann per LVM in logische Volumes.

Beim 2. Weg hast Du später eindeutig mehr flexibilität. Der Sarge Installer unterstützt LVM bei der Installation, Mußt halt per expert2.6 starten (jedenfalls hab ich es eben so gemacht). Das syncronisieren mußt Du nicht abwarten, das passiert transparent im Hintergrund.

Bert
Das hört sich sehr gut an, das Prob ist nur das ich dann die /dev/md0 Platte nicht als LVM bauen kann. Ich muss erst die Table auf den RaidDevice löschen, dann kann ich es auch unter Filessytem auswählen. Dann habe ich aber wieder das Problem das wenn ich LVM bauen will meint er immer .....keine LVM-VG definiert.

Benutzeravatar
Bert
Beiträge: 3751
Registriert: 16.07.2002 14:06:52
Wohnort: Dresden
Kontaktdaten:

Beitrag von Bert » 17.11.2004 22:14:09

Ich gestehe, mir zwar kurz die Optionen im Installer angeschaut zu haben, da dort der EVMS Support aber so gar nicht wollte dann das / und den swap extra (aber jeweils als Raid1) aufgebaut zu haben und den Rest dann aus dem laufendem Basissystem gemacht hab.
Ich hab jetzt also auf den beiden SATA 160 HDs jeweils:
- 1 GB für / (sda1 &sdb1)
- 5GB Swap (sda5 &sdb5)
- Rest (sda6 6 & sdb6)

Daraus dann Raid 1:
- md0 (sda1 & sdb1) mit ext3 für das /
- md1 (sda5 & sdb5) als swap
- md2 (sda6 &sdb6) -> hierrauf eine Volumegroup und die dann in ein Volume für /var und eins für /home.

Leider bin ich an EVMS versagt. Nach ein paar stunden hab ich es aufgegeben. Der Hauptvorteil, das Online resize) ist für die fragliche Anwendung nicht interessant (da ja auch keine Hotswap Platten) und der andere Vorteil (die 'einfache' Administartion per ncurses GUI) konnte mich nach ein paar Stunden fruchloses Versuchens auch nicht mehr überzeugen :-) LVM2 war dann recht fix aufgesetzt.


Bert
Programmer: A biological machine designed to convert caffeine into code.
xmpp:bert@debianforum.de

DarkEvil
Beiträge: 58
Registriert: 26.01.2004 10:56:55
Wohnort: Hamburg

Beitrag von DarkEvil » 17.11.2004 23:36:08

Also ich habe es nun so gelöst....

Erstmal die Raids angelegt mit/im Installer /dev/md0 -> /boot & /dev/md1 -> ohne FS

Dann eine Shell geöffnet:

Code: Alles auswählen

# pvcreate -ff /dev/md/1
# vgcreate vg00 /dev/md/1
Dann die LV gebastelt....so wie ich sie brauche, natürlich über den Installer. Also ich muss sagen bisher sauber.

THX für die Hilfe...

Antworten