Webseiten downloaden

Du suchst ein Programm für einen bestimmten Zweck?
Antworten
TorstenWiebke
Beiträge: 110
Registriert: 01.02.2007 21:13:44
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Gleichen
Kontaktdaten:

Webseiten downloaden

Beitrag von TorstenWiebke » 11.05.2007 14:18:28

Hallo,
gibt es ein tool was man evtl. in den Browser integrieren kann mit dem man webseiten bis zu einer bestimmten Linktiefe runterladen und speichern kann?
Danke
Torsten

Clio

Beitrag von Clio » 11.05.2007 14:54:23

Der Konqueror kann das mit "Webseiten archivieren".
Ob das für Dich ausreichend ist, mußt Du mal probieren.

Benutzeravatar
Hendri
Beiträge: 586
Registriert: 23.08.2003 12:17:43
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von Hendri » 11.05.2007 14:55:50

Hallo,
ich würde das mit wget machen. Gibt es auch mit GTK GUI...
Mit der Browser Extension DownloadWith könntest du wget in firefox integrieren...
Ciao, Hendri

schwedenmann
Beiträge: 5649
Registriert: 30.12.2004 15:31:07
Wohnort: Wegberg

webseiten Downloaden

Beitrag von schwedenmann » 11.05.2007 15:52:37

Hallo

das geht per

wget
curl
w3mir
httrack, bzw. webhttrack


mfg
schwedenmann

comes
Beiträge: 2702
Registriert: 11.03.2005 07:33:30
Wohnort: /dev/null
Kontaktdaten:

Beitrag von comes » 11.05.2007 16:05:43

httracker bzw webtracker is das beste, was mir bis jetzt über den weg gelaufen ist
grüße, comes

Faschismus ist keine Meinung, sondern ein Verbrechen!
http://sourcewars.de

Benutzeravatar
novalix
Beiträge: 1909
Registriert: 05.10.2005 12:32:57
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: elberfeld

Beitrag von novalix » 11.05.2007 17:28:42

Hi,

nutzt Du Iceweasel/Firefox, nimmst Du ScrapBook.

ciao, niels
Das Wem, Wieviel, Wann, Wozu und Wie zu bestimmen ist aber nicht jedermannns Sache und ist nicht leicht.
Darum ist das Richtige selten, lobenswert und schön.

Antworten