Datensicherung

Warum Debian und/oder eine seiner Spielarten? Was muss ich vorher wissen? Wo geht es nach der Installation weiter?
Antworten
Armageddon
Beiträge: 26
Registriert: 21.11.2004 11:42:13

Datensicherung

Beitrag von Armageddon » 28.03.2005 14:11:16

Hallo Zusammen

Ich will von meinem Webserver ein backup der einzelnen Userdateien machen, also die einzelnen html usw Scripts.
Da ich nun aber nicht immer ein komplettes Backup herunterladen will wollte ich fragen wie ich das am leichtesten realisieen kann, da die einzelnen Files und Ordner die unterschiedlichsten Berechtigungen und Ownerships besitzen und auserdem ein root Login auf dem Server nicht gestattet ist.

Nun suche ich nach einer einfachen Möglichkeit diese Dateien auf meinen Homerechner, auch ein Linux System, zu kopieren.

Ich weiß das dies mit rsync möglich sein müsste, jedoch ging dies bei mir bis jetzt immer wegen des logins schief :(

Kann mir da evtl jmd helfen?

Wäre über jede Hilfe sehr dankbar.

MfG

Armageddon

Benutzeravatar
mauser
Beiträge: 1854
Registriert: 27.01.2005 22:34:48

Beitrag von mauser » 28.03.2005 14:18:17

hi,

vermutlich wird dir ssh zur verfügung stehen. dann kannst du entweder die einzelnen ordner mit scp kopieren, oder vorher ein tar machen. bei inkrementellen backups hilft dir google sicher weiter.
mfg
Mauser

das z.B.: http://gentoo-wiki.com/HOWTO_Backup

Benutzeravatar
blackm
Moderator und Co-Admin
Beiträge: 5921
Registriert: 02.06.2002 15:03:17
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von blackm » 28.03.2005 14:21:08

mauser, das mit ssh wird bei ihm nicht so ohne Probleme gehen, weil er sich ja nicht so root einloggen kann und als normaler User nicht genuegend Rechte hat um die Daten zu lesen.

Armageddon, du kannst per cron (als user root) ein tar erstellen und das dann spaeter als normaler User per scp abholen.

by, Martin

PS: habe das Thema mal von den Web- und Mailservern weggeschoben
Schöne Grüße

Martin

Neu im Forum? --> https://wiki.debianforum.de/debianforum ... tensregeln
Log- und Konfigurationsdatein? --> pastebin.php
Forum unterstützen? --> https://wiki.debianforum.de/debianforum.de/Spenden

Armageddon
Beiträge: 26
Registriert: 21.11.2004 11:42:13

Beitrag von Armageddon » 28.03.2005 14:22:25

scp funktioniert leider nicht, da die einzelen Datein und Ordner verschieden usern gehören und nicht dem SSH User.
Trotzdem vielen Dank mauser!

Ich habe schon überlegt dem SSH User die Rechte des roots zu geben, allerdings ist mir dies zu unsicher.

Gibt es dnen keien andere möglichkeit?

@ martin: ein komplettes tar Archiv verursacht mir zuviel Traffic deswegen die Frage mit rsync oder ähnlichem um die Rechte zu erhalten und so wenig wie möglich Traffic zu verursachen.

Benutzeravatar
mauser
Beiträge: 1854
Registriert: 27.01.2005 22:34:48

Beitrag von mauser » 28.03.2005 14:24:49

blackm hat da vollkommen recht, ein cronjob wäre eine gute idee.

Armageddon
Beiträge: 26
Registriert: 21.11.2004 11:42:13

Beitrag von Armageddon » 28.03.2005 14:28:13

das tar schafft mir aber das Traffic Problem und dieses will ich ja möglichst umgehen :(
Tar benutze ich schon, schafft mir wie gesagt das Traffic Problem.

Benutzeravatar
mauser
Beiträge: 1854
Registriert: 27.01.2005 22:34:48

Beitrag von mauser » 28.03.2005 14:31:12

du kannst es ja inkrementell machen. z.b. mit find nach der mtime suchen.

Benutzeravatar
blackm
Moderator und Co-Admin
Beiträge: 5921
Registriert: 02.06.2002 15:03:17
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von blackm » 28.03.2005 14:33:18

Oder einfach an den tar mir rsync ran gehen. So machen wir das hier im Forum auch. Also nicht mit scp sondern rsync.

by, Martin
Schöne Grüße

Martin

Neu im Forum? --> https://wiki.debianforum.de/debianforum ... tensregeln
Log- und Konfigurationsdatein? --> pastebin.php
Forum unterstützen? --> https://wiki.debianforum.de/debianforum.de/Spenden

Armageddon
Beiträge: 26
Registriert: 21.11.2004 11:42:13

Beitrag von Armageddon » 28.03.2005 14:34:56

@ blackm wie würde das dann funktionieren? kann ich eine tar zerlegen und nur teile aus der tar herausziehen oder wie ist das genau gemeint?

Benutzeravatar
blackm
Moderator und Co-Admin
Beiträge: 5921
Registriert: 02.06.2002 15:03:17
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von blackm » 28.03.2005 14:47:32

Das tar erstellst du halt durch cron,

Code: Alles auswählen

tar xf /var/backup/webroot.tar /var/www
auf gzip oder bzip2 mal besser verzichten, bin mir nicht sicher ob das mit rsync geht.
Und auf dem Rechner auf dem das Backup dann abgelegt werden soll:

Code: Alles auswählen

FILE=webroot1-`date +%Y-%m-%d_%H-%M`.tar.gz
cd /var/backups/web1

rsync -qazv -e ssh <user>@<host>:/var/backup/webroot.tar ./
RSYNC_EXIT=$?

if [ $RSYNC_EXIT == 0 ]
then
# hier kannst du das backup mit gzip kompremieren
cat dump.sql | nice -19 gzip > $FILE
# und irgendwie fuer die Langzeitarchivierung weiterverarbeiten
 fi
Beim ersten man werden ein paar mehr Daten uebertragen (halt das komplette tar, danach aber nur noch die Aenderungen....

by, Martin
Schöne Grüße

Martin

Neu im Forum? --> https://wiki.debianforum.de/debianforum ... tensregeln
Log- und Konfigurationsdatein? --> pastebin.php
Forum unterstützen? --> https://wiki.debianforum.de/debianforum.de/Spenden

Armageddon
Beiträge: 26
Registriert: 21.11.2004 11:42:13

Beitrag von Armageddon » 28.03.2005 15:31:24

vielen Dank blackm!

Werde das die age mal ausprobieren!

Antworten