Automatisches Backup

Einrichten des lokalen Netzes, Verbindung zu anderen Computern und Diensten.
Antworten
remof
Beiträge: 7
Registriert: 13.07.2004 12:16:20

Automatisches Backup

Beitrag von remof » 12.03.2005 22:50:31

Hallo,

ich richte z.Z. ein Fileserver für eine kleine Firma ein, das Ganze mache ich mit Debian Sarge oder Woody (noch am überlegen).

Ich habe dann alles in einer HDD die /data heisst.
Nun besitzte ich Webspace und will, dass es jeden Morgen um 3 Uhr automatisch den gesammmten Inhalt der /data-HDD auf einen FTP-Host kopiert.

Ist das sehr schwierig, oder wie kann ich so was machen...?
Und dann soll es noch die gesammte HDD auf eine zweite HDD klonen,
dies auch automatisch (mit Zeitsteuerung alle 24h). Das sollte irgendwie mit einem cronjob gehen, oder? Das schwierige ist halt, dass es ja irgendwie einen FTP-Client dazu braucht....

In der Nacht werden keine Daten manipuliert oder hinzugefügt, also sollte das kein Problem darstellen.

Vielen Dank schonmal für Eure Hilfe :D
& Gruss

Remo

schwedenmann
Beiträge: 5623
Registriert: 30.12.2004 15:31:07
Wohnort: Wegberg

HDD sichern

Beitrag von schwedenmann » 12.03.2005 23:02:56

Hallo


Fürs sichern via ftp ist das hier vielleicht was du suchst


g4u
http://rfhs8012.fh-regensburg.de/~feyrer/g4u/


Die Zeitsteuerung machst du am Besten mit einem cron-job.

Das sichern auf eine 2.HDD aknnst du mit star, tar oder auch dd machen. Auch nen cron-job definieren und/oder ev. ein Script dafür schreiben.
Man könnte auch ein Software-Raid einrichten, um die Daten auf die 2.HDD zu sichern.

Mfg
schwedenmann

remof
Beiträge: 7
Registriert: 13.07.2004 12:16:20

Beitrag von remof » 13.03.2005 08:27:42

hi,

ich habe nur mal davon gehört wie man einen Cronjob macht, aber wie würde so ein cronjob in diesem Fall aussehen?

Ja, einen Softwareraid würde ich als sinvoll erachten, aber wie muss ich das machen? Mit LVM? Und was wäre das dann für ein Raid?

Ich habe ja dann 2x 120GB HDD mit je etwa 4 Partitionen drauf, eine Partition davon will ich wie gesagt auf einen FTP-Host backupen, und auf der zweiten HDD soll der ganze Inhalt inkl. alle Partitionen usw. der ersten HDD gespiegelt werden.

Vielen Dank schonmal & Gruss

Remo

Benutzeravatar
mistersixt
Beiträge: 6601
Registriert: 24.09.2003 14:33:25
Lizenz eigener Beiträge: GNU Free Documentation License

Beitrag von mistersixt » 14.03.2005 12:42:35

Wie sieht das denn mit der Bandbreite aus? Wenn Du da einige GB übertragen willst zum FTP-Server, dann solltest Du schon eine prima Upload-Bandbreite haben! Wenn es nur zu Backup-Zwecken ist, dann würde ich alles mit rar einpacken und dann automatisch per ftp auf den Backup-Host schieben, am besten per kleinem Shell-Script.

Gruss, mistersixt.
--
System: Debian Bookworm, 6.11.x.-x-amd64, ext4, AMD Ryzen 7 3700X, 8 x 3.8 Ghz., Radeon RX 5700 XT, 32 GB Ram, XFCE

sansib
Beiträge: 48
Registriert: 20.08.2004 13:05:45

Beitrag von sansib » 14.03.2005 13:12:40

Ich benutze rdiff-backup. Damit können über eine ssh Verbindung Daten gesichert und auch wieder restored werden.
Grüsse sansib

remof
Beiträge: 7
Registriert: 13.07.2004 12:16:20

Beitrag von remof » 15.03.2005 21:29:36

Hi,

nun, die Leitung ist net so gut, glaub etwa 300 Upload. Aber das kann von mir aus die ganze Nacht dauern, und es sind nur ca 1GB.

Ich habe einfach das eine Gb pro Tag und möchte das gerne auf einen FTP-Host backupen. Wie sieht das Shell-skript dazu aus?

(Ich nutzte übrigens jetzt die c't-Debian-Server Version)

Bin anfänger, kann mir da jemand vielleicht genauer helfen?

Gruss
& vielen Dank

Remo

Benutzeravatar
mistersixt
Beiträge: 6601
Registriert: 24.09.2003 14:33:25
Lizenz eigener Beiträge: GNU Free Documentation License

Beitrag von mistersixt » 16.03.2005 09:14:00

Wenn Du ssh-Zugriff haben solltest, dann würde ich es mit rdist über ssh machen: da werden nur die Dateien, die sich mittlerweile geändert haben, übertragen, es wird also eine Art Abgleich gemacht.

o Auf beiden Rechnern mit "apt-get install rdist" das rdist-Paket installieren.
o Auf dem Rechner, von dem Du das Backup machen willst, eine rdist-Config-Datei anlegen, die beispielsweise so aussehen könnte:

Code: Alles auswählen

BACKUPHOST = ( mein.backuphost.com )
BACKUPFILES = ( /mein/pfad/zum/backup )

${BACKUPFILES} -> ${BACKUPHOST}
        install -oremove ;
o Nun zum Beispiel so das Backup starten:

Code: Alles auswählen

/usr/bin/rdist -F -P /usr/bin/ssh -f meine-rdistconfig-datei
Gruss, mistersixt.
--
System: Debian Bookworm, 6.11.x.-x-amd64, ext4, AMD Ryzen 7 3700X, 8 x 3.8 Ghz., Radeon RX 5700 XT, 32 GB Ram, XFCE

nobbi
Beiträge: 134
Registriert: 18.12.2004 20:15:57

Beitrag von nobbi » 16.03.2005 09:48:41

haste schon mal über rsync nachgedacht, iss recht fix, geht ua. über ssh und transferiert auch nur das incremental (nach wunsch mit historyfunktion).

minero
Beiträge: 26
Registriert: 23.11.2004 09:26:33

Beitrag von minero » 16.03.2005 10:00:25

[quote="nobbi"]haste schon mal über rsync nachgedacht, iss recht fix, geht ua. über ssh und transferiert auch nur das incremental (nach wunsch mit historyfunktion).[/quote]

den vorschlag mit rsync kann ich nur begrüßen. ich benutze es auch.
schau mal bei heinlein-support vorbei, die haben eine anleitung für rsync mit ssh letztes jahr im linux-magazin vorgestellt:

http://www.heinlein-support.de/web/wissen/rsync-backup/

es geht aber auch einfacher.

gruss,
minero

Antworten