Internetseite backuppen

Du suchst ein Programm für einen bestimmten Zweck?
Antworten
Organized
Beiträge: 18
Registriert: 23.08.2009 20:35:23

Internetseite backuppen

Beitrag von Organized » 08.12.2010 15:56:24

Hallo

Ich betreibe drei Internetseiten. Eine ist aber mittlerweile so groß geworden (vom Speicherplatz her), dass ich kein Backup mehr auf dem Server speichern kann. Jetzt möchte ich meinen kleinen Server einmal die Woche über Nacht laufen lassen, damit er dort dann die gesamte Website über FTP herunterlädt.

Gibt es da ein Programm für? Oder muss ich mir sowas vielleicht selber schreiben (Python bietet sich da doch gut an, FTP ist damit super einfach)? Eine Fertiglösung wäre mir aber deutlich lieber.

Meinen Server (hier zuhause, der runterladen soll) kann ich aber nur per Konsole bedienen, deshalb möchte ich das Programm nur starten - das Programm lädt alles runter (mehrere GB bei DSL 3000) - fährt dann den PC runter. Gibt es sowas?

Gruß,
Andy

DeletedUserReAsG

Re: Internetseite backuppen

Beitrag von DeletedUserReAsG » 08.12.2010 16:11:36

wget würde sich eignen. Eingebunden in ein kleines Shellscript sollten sich alle Wünsche einfach erfüllen lassen.

cu,
niemand

uname
Beiträge: 12480
Registriert: 03.06.2008 09:33:02

Re: Internetseite backuppen

Beitrag von uname » 09.12.2010 08:18:05

Schau dir mal "ncftpget" aus Debianncftp bzw. Debiancurlftpfs an. Ob "wget" ein echtes Backup machen kann, vielleicht gibt es eine Option, normalerweise werden nur die verlinkten Seiten gebackupt, das ist nicht ausreichend.

Sarem_Avuton
Beiträge: 546
Registriert: 16.12.2004 09:58:27
Wohnort: Leipzig

Re: Internetseite backuppen

Beitrag von Sarem_Avuton » 09.12.2010 09:06:14

Hallo,

ich würde das mit rsync machen ggf, auf dem WebServer die SQL DB per cron vorher dumpen.

Organized
Beiträge: 18
Registriert: 23.08.2009 20:35:23

Re: Internetseite backuppen

Beitrag von Organized » 09.12.2010 14:54:12

Habe mir jetzt ein kleines Script geschrieben:

Code: Alles auswählen

datum=`date +%y-%m-%d`
dirname="backup-$datum"

# -r: rekursiv
# -l0: alle Ebenen
wget -r -l0 -np --ftp-user=username --ftp-password=passwort --directory-prefix=$dirname ftp://url.tld/ordner

tar -cvf $dirname.tar $dirname
gzip -f $dirname.tar

rm -r $dirname
Erst wird alles heruntergeladen, dann wird es ge-tar-t, dann ge-gzippt und letztendlich wird der Ordner dann wieder gelöscht, da das Backup dann in der .tar.gz ist.

Aber eine Frage: wenn ich das Script über SSH ausführe und es läuft und ich dann das Fenster von der SSH schließe, wird das Script dann weiter ausgeführt?

DeletedUserReAsG

Re: Internetseite backuppen

Beitrag von DeletedUserReAsG » 09.12.2010 19:44:23

In der Regel nicht. 'screen' kann da helfen.

cu,
niemand

Antworten