Hallo,
ich würde gern ein Verzeichnis mit Unterverzeichnis regelmäßig brennen. Die Kapazität übersteigt die von einem Medium, deswegen sollte das gesuchte Programm die Daten automatisch auf mehrere Medien verteilen. Am liebsten wäre mir auch eine Integration in K3B.
Für sonstige Daten verwende ich dar mit dem Frontend kdar, welches gute Dienste leistet. In diesem Verzeichnis hier liegen jedoch meine ganzen Bilder, und ich würde es gut finden, wenn diese auch auf dem Medium ohne Zusatzprogramm direkt erreichbar bleiben. Bei dar müßte ich sie immer erst entpacken.
Hat jemand Tipps oder Empfehlungen für mich?
Danke und Gruß,
Mirko
Große Anzahl Daten mit einmal wegbrennen
-
- Beiträge: 120
- Registriert: 10.08.2003 19:30:53
- Lizenz eigener Beiträge: GNU Free Documentation License
Re: Große Anzahl Daten mit einmal wegbrennen
KDE, genauer der Konquerer, behandelt Zip-Archive wie Verzeichnisse. Wenn Du also Zip-Archive erstellst, kannst Du "ohne Zusatzprogramm" darauf zugreifen.tylerD hat geschrieben:Hallo,
Für sonstige Daten verwende ich dar mit dem Frontend kdar, welches gute Dienste leistet. In diesem Verzeichnis hier liegen jedoch meine ganzen Bilder, und ich würde es gut finden, wenn diese auch auf dem Medium ohne Zusatzprogramm direkt erreichbar bleiben. Bei dar müßte ich sie immer erst entpacken.
Mirko
Mittels zipsplit kannst Du eine Zipdatei in mehrere mit Maximalgröße aufteilen, die Option -s sorgt dafür, dass Dateien im Archiv ungeteilt bleiben.
Gruß
Hamatoma
Dieses Script ist bei mir in Gebrauch.
http://nopaste.debianforum.de/2343
Ich habe mal eine kleine Hilfe dazu geschrieben, damit auch Andere es verwenden können.
Ach ganz vergessen.
Es muß Perl installiert sein, damit es funktioniert
http://nopaste.debianforum.de/2343
Ich habe mal eine kleine Hilfe dazu geschrieben, damit auch Andere es verwenden können.

Code: Alles auswählen
Nutzung 2343 [-hpmsvr] [-g zise[Gb,Mb,Kb]] [-f test%cnt%] \
[-n /name2/test] -a name1 [-a /name2] [-a namen/namedir/] \
[-o mkisofs ...] [-t /tmp/test%cnt%.%rdm%.txt]
-g --groesse
CD-Imagegröße
ohne Endung Bite. Mögliche Endungen Gb, Mb, Kb
Voreingestellt:
681574400
-h --help
Diese Hilfe
-p --packen
Soviel wie möglich in ein Image quetschen
(dabei geht einiges an der Sortierung verloren)
-m --mischen
Erzeugt größtmögliche Undordung :-)
Die Idee dahinter ist es nicht alle Dateien
eines Verzeichnisses auf Image zu Packen
und damit den vollsändien Verlust bei dessen
Zerstörung zu riskieren
-a --hinzu
Datei/Ordner der gebackupt werden soll hinzufügen
-n --ignorieren
Datei/Ordner der ignoriert werden soll hinzufügen
(Vorsicht! wird als regulärer Ausdruck nach Perlsyntax verarbeitet)
-s --stdin
Übergabe der Datei/Ordnerliste über STDIN
Format:
a name\n # hinzufügen
i name\n # ignorieren
-f --file
Namen der Ausgabedateien.
%cnt% ist ein Zähler, der bei jeder
neuen Datei um eins erhört wird.
Wenn "-r" nicht gesetzt ist wird ein ".txt" angehängt
und es wird nur eine Dateiliste ausgeben.
ist "-r" gesetzt, so wird ein ".iso" ergänzt
und es wird ein ISO-Image ausgegeben.
Voreingestellt:
backup%cnt%
-v --verbose
Ausführliche Ausgabe
-r --run-mkisofs
"mkisofs" ausführen.
-o -mkisofs-options
der "mkisofs"-Befehl und die an ihn übergebenen Optionen
Voreingestellt:
mkisofs -pad -D -R -l -v -V "backup%cnt%" -o %out%.iso -graft-points -path-list %tmp%
-t -temp
temporäre Datei für die von "mkisofs"
gebrauchten Dateilisten.
Voreingestellt:
/tmp/temp%cnt%-%rdm%.txt
Es muß Perl installiert sein, damit es funktioniert