am RAM denke ich liegt es nicht, dass würde ja ein verarbeiten von Dateien einer gewissen Größe generell verhindern, wer hat schon soviel RAM wie Datenmüll den es zu packen geht
mit den Plattenplatz wäre ein Punkt aber lässt sich ausschließen, ich entpacke auf einer Partion wo noch 120GB frei sind sollte reichen.
kann man das Archiv vielleicht Stückchenweise übergeben oder vielleicht ein anderes Tool zum entpacken nehmen, außer gunzip gzip tar die habe ich in allen Varianten schon durch.
bringt leider auch nichts, wobei -exec eigentlich stückchenweise weiter reicht, was bei dem Befehl nicht funktioniert, da es ja nur die eine Datei gibt und so dann auch nur eine Datei übergeben wird.
Ich könnte mir vorstellen, wenn es an die Größe scheitert, könnte man das Archiv in einzelnen Stücken übergeben, könnte da was gehen.
Wenn dazu jemand eine Idee hat oder auch einen anderen Packer empfehlen kann, wäre es vielleicht schon eine große Hilfe.
Was auch weiterhilft, wenn jemand eine Idee hat, wie ich einzeln Dateien aus dem Archiv heraus bekomme, hilft auch schon etwas weiter, sowas in der Art wie hier, nur das die Datei dann auch extrahiert wird
Code: Alles auswählen
find Download/ -iname "*.tar.gz" -exec tar t -f '{}' \; | grep datei