Backup per Cronjob als Script funzt net

Einrichten des lokalen Netzes, Verbindung zu anderen Computern und Diensten.
Antworten
paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Backup per Cronjob als Script funzt net

Beitrag von paebels » 16.05.2007 14:59:47

Hallo versuch emal eben mein Prob zu schildern. Ich möchte vom cvs ein Backup machen und zwar täglich um z.B. 3 Uhr Nachts. Das ganze da kein Plan von LInux so wirklich einfach als tar! Das ganze soll auf ein Nas geschoben werden. So nun mein Prob! Mein Scipt funzt wenn ich es von Hand abschicke! Es packt und es verschiebt bzw. packt es gelcih auf´s NAS. Nun via crontab -e eingetragen beginnt der job auch bricht aber grundsätzlich nach ca. 21MB ab!!!!
Nun noch was es lief aber so fast 3 Monate durch! Ich weiss nicht mehr weiter ! Habe es in crontab von root getestet in dem crontab vom user alles das Gleiche! Bitte um Hilfe ich brauch es dringend!

hier mal das Script:

Code: Alles auswählen

#!/bin/sh

echo ---------------------------------------------------------

echo -.....................CVS Backup........................-

cd /mnt/cvs_backup/



tar -cvzf /mnt/cvs_backup/cvs_backup_`date +%y%m%d`.tar.gz /usr/local/cvsroot

cd


echo ---------------------------------------------------------

echo -                  Vorgang abgeschlossen                -

echo ---------------------------------------------------------
Mein mount Befehl sieht so aus !

Code: Alles auswählen

mount -t smbfs -o username=,password=admin  //192.168.11.4/cvs_backup /mnt/
wobei username und passwort sinnfrei sind!!! Da es ja eine Freigabe ist für Jedermann^ :(
Bitte wer weiss was !?klar Debian System!

Benutzeravatar
Cloonix
Beiträge: 589
Registriert: 20.11.2004 10:42:24
Wohnort: München
Kontaktdaten:

Beitrag von Cloonix » 19.05.2007 00:10:52

Dass es nach 21MB ab bricht finde ich merkwürdig. Kannst du den Log Dateien nichts entnehmen?
proud to be 100% M$ free (except X300T)
http://claus.freakempire.de
http://debian.freakempire.de

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 21.05.2007 11:01:33

Cloonix hat geschrieben:Dass es nach 21MB ab bricht finde ich merkwürdig. Kannst du den Log Dateien nichts entnehmen?
Nee da steht gar nix drinnen! Ich versteh gar nix mehr! Echt komisch !Hast Du vielleicht ne idee wie ich di Daten noch aufs NAS bekomm gepackt? Oder welches Log ausser Syslogs soll ich mal schaun? Ich bin nicht so der Linux Freak! Paar kleine Befehle denn ist schluss! Für jede Hilfe wäre ich dankbar! Achja mit mv auch schon getestet! und was passiert er moved die bekannte MB zahl! Von Hand wiedre 1,3GB versteh es nicht!

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 21.05.2007 12:39:53

Ich bin auf dem Gebiet absolut kein Profi, aber wenn das script als user in der Konsole funktioniert, aber als cronjob nicht, kann es sein das die Standard Konsole eine andere Umgebung (Path etc. ) bekommt als der cronjob ?

Vielleicht mit

. ~/.bashrc
oder
. /etc/profile

oder so ähnlich versuchen das im Script abzufangen ?

wahrscheinlich wird es doch jemand geben, der darüber genau Bescheid weiss.

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 21.05.2007 13:06:53

dieres hat geschrieben:Ich bin auf dem Gebiet absolut kein Profi, aber wenn das script als user in der Konsole funktioniert, aber als cronjob nicht, kann es sein das die Standard Konsole eine andere Umgebung (Path etc. ) bekommt als der cronjob ?

Vielleicht mit

. ~/.bashrc
oder
. /etc/profile

oder so ähnlich versuchen das im Script abzufangen ?

wahrscheinlich wird es doch jemand geben, der darüber genau Bescheid weiss.
Du meinst den Path zum Script? Nein denke nicht er führt das script ja aus nur der ganze Job bricht dann ab! Habe den Cron auch schon unter dem User und Root getestet! Bei beidem der gleiche Fehler! Das komische ist es lief ja schonmal fast 3 Monate ! Ich habe nichts geändert! Mir würde es schon reichen wenn ich den tar im crontab eintrage und er das ausführen würde aber auch da bricht er ab bei den schon bekannten MB. hab ja langsam das NAS in verdacht
Zuletzt geändert von paebels am 21.05.2007 13:10:36, insgesamt 1-mal geändert.

Benutzeravatar
Cloonix
Beiträge: 589
Registriert: 20.11.2004 10:42:24
Wohnort: München
Kontaktdaten:

Beitrag von Cloonix » 21.05.2007 13:09:20

Der tar Prozess startet ja und macht 21MB und hört dann auf. Sprich bis zum Kommando tar scheint alles zu gehen. Aber wieso hört er auf?

Schreib mal in dein Skript nach dem tar Befehl ein

Code: Alles auswählen

echo $? > /tmp/cvsbackup
Damit siehst du dann mit welchem Return Code der tar-Befehl beendet wird. Sollte der 0 sein, dann vermute ich, dass er auf bestimmte Daten nicht zugreifen kann und deswegen nur 21MB im .tgz stecken.

Hast du dir mal den Inhalt vom .tgz angeschaut? Fällt dir da was auf, oder ist das .tgz defekt?
proud to be 100% M$ free (except X300T)
http://claus.freakempire.de
http://debian.freakempire.de

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 21.05.2007 13:29:37

Cloonix hat geschrieben:Der tar Prozess startet ja und macht 21MB und hört dann auf. Sprich bis zum Kommando tar scheint alles zu gehen. Aber wieso hört er auf?

Schreib mal in dein Skript nach dem tar Befehl ein

Code: Alles auswählen

echo $? > /tmp/cvsbackup
Damit siehst du dann mit welchem Return Code der tar-Befehl beendet wird. Sollte der 0 sein, dann vermute ich, dass er auf bestimmte Daten nicht zugreifen kann und deswegen nur 21MB im .tgz stecken.

Hast du dir mal den Inhalt vom .tgz angeschaut? Fällt dir da was auf, oder ist das .tgz defekt?
Du meinst das zu kleine ? Nee da hab ich nie reingeschaut immer gelöscht! Das von Hand ist ok! Also was mich echt kirre macht ist die größe weil die jede Nacht exakt gleich groß ist! Gibts einen mount der sowas beschränkt? Oder mounte ich anders besser? Habe da ja den Verdacht beim mount des NAS oder NAS selber! Aber kp warum! Was bei dem echo rauskommt kann ich erst morgen sagen!So Nachtrag die Dateien vom Wochen einde genau 3 mal genau 21.854 KB groß sind komplett identisch. Keine Fehler dieser Dateien! Halt nur ein bissl wenig von 1,3GB !

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 21.05.2007 14:05:35

Das mit dem mount kannst Du ja einfach mal testen, in dem Du das tar erstmal auf dem lokalen Filesystem produzierst, und dann aufs Nas schiebst.
Dann kannst Du zumindest den Fehler eingrenzen.
das mit dem Path in der Umgebung war nur als Beispiel zu verstehen.
Du kannst ja auch das mal einfach ausprobieren und gleich als 2.Zeile,
hinter #!/bin/bash ein
. /etc/bash.bashrc
einfügen. Kann ja nix kaputtmachen.

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 21.05.2007 16:02:51

dieres hat geschrieben:Das mit dem mount kannst Du ja einfach mal testen, in dem Du das tar erstmal auf dem lokalen Filesystem produzierst, und dann aufs Nas schiebst.
Dann kannst Du zumindest den Fehler eingrenzen.
das mit dem Path in der Umgebung war nur als Beispiel zu verstehen.
Du kannst ja auch das mal einfach ausprobieren und gleich als 2.Zeile,
hinter #!/bin/bash ein
. /etc/bash.bashrc
einfügen. Kann ja nix kaputtmachen.
Das mit dem tar bzw mount hab ich schon getestet durch erst tar in die tmp und dann mit dem Befel mv aufs NAS ! Geht von Hand auch prima nur wenns der cron tun soll bricht er ab bei 21MB!
Sry das mit dem Pfad bin ich wohl zu doof! was bewirkt das wenn ich mir die datei anschau versteh ich net wirklich vie davon

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 21.05.2007 19:58:37

Das mit dem tar bzw mount hab ich schon getestet durch erst tar in die tmp und dann mit dem Befel mv aufs NAS ! Geht von Hand auch prima nur wenns der cron tun soll bricht er ab bei 21MB!
mach doch mal nen cp von tmp aufs NAS per cronjob. Ist das Tar in /tmp dann auch nur 21MB groß, oder hat das dort noch die richtige Größe.

. /etc/bash.bashrc importiert soweit ich das verstnaden habe alle Variablen etc. aus der /etc/bash.bashrc

probier doch einfach mal aus, ob dann ein Unterschied per cronjob da ist. Natürlich erst mal schauen was in /tmp ankommt , ohne es mit mv gleich wieder zu vernichten.

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 22.05.2007 10:01:04

dieres hat geschrieben:
Das mit dem tar bzw mount hab ich schon getestet durch erst tar in die tmp und dann mit dem Befel mv aufs NAS ! Geht von Hand auch prima nur wenns der cron tun soll bricht er ab bei 21MB!
mach doch mal nen cp von tmp aufs NAS per cronjob. Ist das Tar in /tmp dann auch nur 21MB groß, oder hat das dort noch die richtige Größe.

. /etc/bash.bashrc importiert soweit ich das verstnaden habe alle Variablen etc. aus der /etc/bash.bashrc

probier doch einfach mal aus, ob dann ein Unterschied per cronjob da ist. Natürlich erst mal schauen was in /tmp ankommt , ohne es mit mv gleich wieder zu vernichten.
Also der tar ins tmp geht komplett 1,3 GB aber wenn es mit mv oder cp verschoben werden soll sinds wieder nur 21MB
So nun glaub ich ja es liegt am mount Befehl(aber wieso läufts dann von Hand) oder am NAS nicht mehr am cron selbst!

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 22.05.2007 12:59:29

Die Frage ist ja jetzt, warum kann ein cronjob nicht auf das NAS schreiben. Aber ein User in der Konsole!
was sagt der Befehl whoami in der Konsole, wo es funktioniert ?
Füge in das von cron gestartete Script doch mal folgende Zeile ein :

whoami > /tmp/who_am_I

und vergleich mal ob denn auch wirklich der gleiche User die Befehle ausführt.
wie sieht denn Dein Eintrag in der crontab aus ?
Ich glaube das smbfs ein Problem mit Dateien > 2GB hat. Du solltest also versuchen cifs zu benutzen.
mount -t cifs -o user=werauchimmer,password=geheim //IP.NR.des.NAS/sharename /mountpoint
also so wie bei smbfs auch.

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 22.05.2007 13:11:54

dieres hat geschrieben:Die Frage ist ja jetzt, warum kann ein cronjob nicht auf das NAS schreiben. Aber ein User in der Konsole!
was sagt der Befehl whoami in der Konsole, wo es funktioniert ?
Füge in das von cron gestartete Script doch mal folgende Zeile ein :

whoami > /tmp/who_am_I

und vergleich mal ob denn auch wirklich der gleiche User die Befehle ausführt.
wie sieht denn Dein Eintrag in der crontab aus ?
Ich glaube das smbfs ein Problem mit Dateien > 2GB hat. Du solltest also versuchen cifs zu benutzen.
mount -t cifs -o user=werauchimmer,password=geheim //IP.NR.des.NAS/sharename /mountpoint
also so wie bei smbfs auch.
Danke erstmal für die Hilfe! Also User ist richtig ! cifs geht nicht da das dumme NAS nur smbfs unterstützt! Naja blöde mischmasch ! NAS= Linux System um Windwos zu backupen halt samba und nun soll linux auch drauf backupen!
Ich könnte es ja noch als fat mounten oder mit dem befehl sm... nur weiss ich den nimma komplett! Ist schon alles kmisch oder ich bin der größte Dau ;-) So noch mit direktem User und Passwort versucht und siehe da 21MB !Also im NAS den Zugriff mein ich mit dem Mount ! Das schlimme es ging ja 2 Monate !!!!!!!!!!!!!!!!!!!!!!!!!!! :evil: :roll:

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 22.05.2007 15:29:45

smbfs und cifs sind eigentlich 2 Clientseitige Softwares die auf SMB (windowsfreigaben) zugreifen. Ich hab das so verstanden, und bisher bei mir auch nicht anders erlebt, das wo mount -t smbfs geht auch mount -t cifs funktioniert.
Serverseitig hab ich nur ein WD NAS (Netcenter) und SuSE Samba laufen.

Aber zu Deinem Problem fällt mir so auch nix mehr ein, kann mir gut vorstellen, wie Du Dir die Haare raufst.

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 23.05.2007 11:07:04

dieres hat geschrieben:smbfs und cifs sind eigentlich 2 Clientseitige Softwares die auf SMB (windowsfreigaben) zugreifen. Ich hab das so verstanden, und bisher bei mir auch nicht anders erlebt, das wo mount -t smbfs geht auch mount -t cifs funktioniert.
Serverseitig hab ich nur ein WD NAS (Netcenter) und SuSE Samba laufen.

Aber zu Deinem Problem fällt mir so auch nix mehr ein, kann mir gut vorstellen, wie Du Dir die Haare raufst.
Haha Haare hab keine mehr wegen dem Mist :wink: Nee cifs bekomm ich immer das das dateiformt nicht kompatible ist. Naja Thx dafür muss mal sehen ob es zu einer andern Freigabe funzt also normaler Windoof Rechner! Wenn dir noch was einfällt egal was POsten !!!!!!!

dieres
Beiträge: 78
Registriert: 10.04.2007 20:00:43

Beitrag von dieres » 23.05.2007 13:27:06

natürlich, Du aber auch posten, wenn Du den Fehler gefunden hast.
Was für ein NAS hast Du denn ?

paebels
Beiträge: 9
Registriert: 16.05.2007 14:51:16

Beitrag von paebels » 23.05.2007 15:16:47

dieres hat geschrieben:natürlich, Du aber auch posten, wenn Du den Fehler gefunden hast.
Was für ein NAS hast Du denn ?
Hallo des hab ich Maxtor Shared Storage II kp obs gut ist ! Aber groß wars zu dem Zeitpunkt mit 350 GB

Antworten