Wipe für "leere" Sektoren
Wipe für "leere" Sektoren
Hallo,
ich suche ein Programm welches die Sektoren die als gelöscht vermerkt sind nochmals sicher löscht (random überschreibt).
Unter Windows kann das Programm eraser diese Aufgabe übernehmen. Leider habe ich unter wipe keinen Befehl gefunden, welcher diese Aufgabe bewältigt.
Gruß Arrpork
ich suche ein Programm welches die Sektoren die als gelöscht vermerkt sind nochmals sicher löscht (random überschreibt).
Unter Windows kann das Programm eraser diese Aufgabe übernehmen. Leider habe ich unter wipe keinen Befehl gefunden, welcher diese Aufgabe bewältigt.
Gruß Arrpork
findest du nicht, dass 35mal überschreiben für den normalen gebrauch ein wenig übertrieben ist? Nach 1maligem überschreiben gestaltet es sich schon als schwierig wieder daten herzustellen. 3 durchläufe dürften für den heimgebrauch mehr als ausreichend sein. So sensible daten hat man auch wieder nicht drauf.
Evtl. is das paket secure-delete was für dich. Is in den offiziellen Debian-Repositories.
Evtl. is das paket secure-delete was für dich. Is in den offiziellen Debian-Repositories.
Die tolle Aussage von Peter Gutmann geistert immer wieder durchs Netz.
Die ct' hat mal einige Tools ausprobiert, und dabei nachgewiesen, das ein einmaliges
dd if=/dev/zero of=/dev/hda bs=65535
reicht, damit keine Daten der Platte wiederhergestellt werden können.
Das 35-malige Überschreiben ist reine Augenwischerei.
Die ct' hat mal einige Tools ausprobiert, und dabei nachgewiesen, das ein einmaliges
dd if=/dev/zero of=/dev/hda bs=65535
reicht, damit keine Daten der Platte wiederhergestellt werden können.
Das 35-malige Überschreiben ist reine Augenwischerei.
Ich nehm an, du meinst den artikel hier: http://www.heise.de/ix/artikel/2003/05/072/
Bin da so ziemlich der gleichen Meinung wie TBT. Allerdings kann ich mir ein auslesen der Remanenz sehr gut vorstellen. Deshalb würde ich sagen, dass man statt Nullen lieber mit Zufallszahlen überschreiben sollte.
dd if=/dev/urandom of=/dev/hda
Gibt keinen größeren Aufwand und is imho ein wenig sicherer. Das Auslösen irgendwelcher Nebenspuren die noch restmagnetisiert von früheren Daten sind, ist bei der heutigen Speicherdichte meiner Meinung nach nur noch SEHR!!!! schwer möglich.
edit: seh ich mal als bestätigung: http://de.wikipedia.org/wiki/Gutmann-Methode
Bin da so ziemlich der gleichen Meinung wie TBT. Allerdings kann ich mir ein auslesen der Remanenz sehr gut vorstellen. Deshalb würde ich sagen, dass man statt Nullen lieber mit Zufallszahlen überschreiben sollte.
dd if=/dev/urandom of=/dev/hda
Gibt keinen größeren Aufwand und is imho ein wenig sicherer. Das Auslösen irgendwelcher Nebenspuren die noch restmagnetisiert von früheren Daten sind, ist bei der heutigen Speicherdichte meiner Meinung nach nur noch SEHR!!!! schwer möglich.
edit: seh ich mal als bestätigung: http://de.wikipedia.org/wiki/Gutmann-Methode
Ich halte auch nicht viel von diesem aufwändigen löschen.Paty-17 hat geschrieben:Das Auslösen irgendwelcher Nebenspuren die noch restmagnetisiert von früheren Daten sind, ist bei der heutigen Speicherdichte meiner Meinung nach nur noch SEHR!!!! schwer möglich.
Das ist nur notwendig wenn jemand die Festplatte (beziehe mich nur darauf) öffnet und mit anderen Methoden versucht sie zu lesen. Außerdem erhöht es die Schreibvorgänge auf dem Medium und verkürzt damit die Lebensdauer.
Um Restmagnetisierungen o.a. zu nutzen muss man schon die Firmware der HDD manipulieren um Kopfverstärkung, Modulation, Fehlerkorrektur und Servosteuerung zu beeinflussen.
Gruß cirrussc
im notfall oder zeitüberschuss halt
Aber ich schliesse mich meinen Vorrednern und dem Wikipedia-Artikel im Bereich wo es um gemountete Journaling-Dateisysteme an
Code: Alles auswählen
for i in `seq 0 35`; do echo "Durchgang $i..."; dd if=/dev/urandom of=file bs=65536; rm -f file; echo " Done"; done;
- CrashMan
- Beiträge: 340
- Registriert: 07.04.2007 14:04:27
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: MD
Das ist soweit ja auch richtig - wird eine Datei überschrieben, speichert Journal das "neue" erstmal woanders, damit im Falle eines Absturzes die alte File nicht beschädigt ist (afaik). Ergo bringen shred usw nichts.Wikipedia hat geschrieben:Des Weiteren benutzen moderne Dateisysteme das so genannte Journaling, wodurch ein Benutzer nicht wissen kann, wo seine Daten geschrieben werden, so dass ein garantiertes Überschreiben der Datenblöcke einer Datei (ohne weitere Kernelerweiterungen) unmöglich ist.
Wenn ich aber den kompletten leeren Bereich (mehrmals?) mit einer zufälligen Datei überschreibe - wo soll Journal denn etwas freilassen? Dann ist es imho recht sicher, dass alles "gelöscht" wird.
(Ich weiß jetzt nicht, wie das mit den 5% ist, die per default für root reserviert sind)
mfg
debian stable + arch