Dass ~ übers Netz gemountet werden sollte, ist für mich aus dem bisherigen Threadverlauf nicht ersichtlich. Das wäre zudem so ziemlich das Gegenteil eines Backups. Was habe ich übersehen?Bei smb oder nfs-mount von HOME passiert es in der Sekunde des Speicherns.
[gelöst] mit NFS große Dateien kopieren sehr langsam
Re: [gelöst] mit NFS große Dateien kopieren sehr langsam
Re: [gelöst] mit NFS große Dateien kopieren sehr langsam
Ich kapier das im Moment auch nicht. Mein Pi hat eine zweite Platte angeschlossenen, aber die ist nicht gemountet. Mein Backupscript mountet die Platte, macht ein partielles Backup der Arbeitsplatte und rsync't die SSD unselektiert, also vollständig. Dann wird die platte wieder getrennt. Das passiert morgens zwischen 5 und 6 Uhr, wenn alle noch pennen
-
- Beiträge: 3022
- Registriert: 03.11.2009 13:45:23
- Lizenz eigener Beiträge: Artistic Lizenz
-
Kontaktdaten:
Re: [gelöst] mit NFS große Dateien kopieren sehr langsam
Also TomL, so wie ich dein Setup verstanden habe, Mounten die Rechner im Netz ihre Homes per nfs. Oder hab ich das falsch verstanden?
Wenn ich als User auf meinem Laptop mit per nfs gemounteten Home einen Film mit 2 GB downloade, in mein Download-Verzeichnis in Home, so geht das in dem Moment über das Netz auf den Server, der das Home zur Verfügung stellt.
Wenn das ein Raspi ist, dann hat der den Flaschenhals, dass Ethernet und USB für die Platte am selben USB-Port hängen. Also hab ich da offenbar massive Verzögerungen.
Wenn ich jetzt meine Daten lokal speichere und mit einem Backupskript zu bestimmten Zeiten das Backup übers Netz zum Backupserver schiebe, ist halt in dem Moment der Flaschenhals des Raspi ein Problem.
Egal wie, ein Raspi der größere Datenmengen übers Netz empfangen und auf eine angesteckte USB-Platte schieben soll, dürfte ein Kapazitätsproblem haben. So hab ich das verstanden.
Aber ich klinke mich aus dem Thread wieder aus. Meine Kommunikation verläuft offenbar ein wenig anders, als eure (TomL und niemand). Und die führt oft zu Missverständnissen.
lg scientific
Wenn ich als User auf meinem Laptop mit per nfs gemounteten Home einen Film mit 2 GB downloade, in mein Download-Verzeichnis in Home, so geht das in dem Moment über das Netz auf den Server, der das Home zur Verfügung stellt.
Wenn das ein Raspi ist, dann hat der den Flaschenhals, dass Ethernet und USB für die Platte am selben USB-Port hängen. Also hab ich da offenbar massive Verzögerungen.
Wenn ich jetzt meine Daten lokal speichere und mit einem Backupskript zu bestimmten Zeiten das Backup übers Netz zum Backupserver schiebe, ist halt in dem Moment der Flaschenhals des Raspi ein Problem.
Egal wie, ein Raspi der größere Datenmengen übers Netz empfangen und auf eine angesteckte USB-Platte schieben soll, dürfte ein Kapazitätsproblem haben. So hab ich das verstanden.
Aber ich klinke mich aus dem Thread wieder aus. Meine Kommunikation verläuft offenbar ein wenig anders, als eure (TomL und niemand). Und die führt oft zu Missverständnissen.
lg scientific
dann putze ich hier mal nur...
Eine Auswahl meiner Skripte und systemd-units.
https://github.com/xundeenergie
auch als Debian-Repo für Testing einbindbar:
deb http://debian.xundeenergie.at/xundeenergie testing main
Eine Auswahl meiner Skripte und systemd-units.
https://github.com/xundeenergie
auch als Debian-Repo für Testing einbindbar:
deb http://debian.xundeenergie.at/xundeenergie testing main
Re: [gelöst] mit NFS große Dateien kopieren sehr langsam
Wenn die bestimmten Zeiten so gelegt werden, dass man zu diesen nicht weiter auf den Pi zugreifen muss und das Ganze zudem so gestaltet wird, dass der Prozess nicht alles andere blockiert, ist das einzige Problem, dass es halt etwas länger dauert, wenn größere Veränderungen gesichert werden müssen. Wenn man sein ~ auf den Pi legt und via NFS mountet, dauert’s u.U. häufiger mal länger, und das beim normalen Arbeiten. Das würden erheblich mehr Leute als Problem wahrnehmen, und deswegen wird’s wohl eher keiner so machen.Wenn ich jetzt meine Daten lokal speichere und mit einem Backupskript zu bestimmten Zeiten das Backup übers Netz zum Backupserver schiebe, ist halt in dem Moment der Flaschenhals des Raspi ein Problem.
Re: [gelöst] mit NFS große Dateien kopieren sehr langsam
Nicht NFS, sondern Samba. Und nein, auch keine servergespeicherten homedirs, sondern lokale homedirs.scientific hat geschrieben:Also TomL, so wie ich dein Setup verstanden habe, Mounten die Rechner im Netz ihre Homes per nfs.
Bei uns gibts nur die Ansage, dass alle user ihre persönlichen Daten in den Ordner "Daten" ihres lokalen client- homedirs speichern. Dieser lokale Ordner ist jeweils ein usereigener mountpoint in sein entsprechendes homedir-verzeichnis "Daten" des Servers, welcher wiederum nur ein 'bind' für einen zentralen Ordner ist, in dem jeder User unter seinem Namen sein eigenes Verzeichnis hat. Dieses zentrale Serververzeichnis heißt /media/SSD/Home und in einer rutsche sind täglich alle geänderten Dateien auf die HD gespiegelt. Wie gesagt, das ist nie viel.
In libreoffice auf den clients zum Beispiel ist dieser lokale Ordner ~/Daten als standard-arbeitsverzeichnis hinterlegt. Firefox und Thunderbird werden via Scripts gestartet und bei Programmende werden prefs.js und places.sqlite zum Server kopiert. Der Rest an lokalen Einstellungen ist standard und interessiert mich nicht. Wenn jemand einen Film gucken will, guckt er den einfach mit dem smplayer via samba vom Server ohne vorher zu kopieren.
Ich sichere nur was notwendig ist und wirklich nur das, dessen Wiederherstellung bei Verlust unmöglich ist oder nur mit unvertretbarem Aufwand. Alles andere schert mich nicht. Manchmal schaue ich noch mal nach, aber wirklich auf keinem client finde ich wichtige oder schützenswerte Daten in lokalen Ordnern. Die Verwendung des Ordners "Daten" im eigenen homedir ist bei uns zur absoluten Selbstverständlichkeit geworden.
Und weil ich auf all unseren Clients meinen standard-custom-desktop installiert habe, ohne Gui-Dialogs für diverse settings, mit denen die Anwender das System strubbelig machen können, kann ich diese Sicherung auch abhaken. Lokale settings interessieren mich also auch nicht weiter.
Wie gesagt, alles ein Sache von Anpassungsreaktionen, und zwar an die Anforderungen , organisatorisch an die Prozesse und letztendlich an die technisch limitierten Möglichkeiten. Man kann das alles wunderbar und tatsächlich konfliktfrei zusammen bringen.... und am Ende minimiert das meinen Arbeitsaufwand.