Webseiten speichern.

Du suchst ein Programm für einen bestimmten Zweck?
Antworten
Benutzeravatar
swlx87
Beiträge: 187
Registriert: 29.07.2007 20:32:41
Lizenz eigener Beiträge: MIT Lizenz

Webseiten speichern.

Beitrag von swlx87 » 09.08.2007 15:48:35

Ich suche schon seit längerem nach einer Möglichkeit, Webseiten zu speichern.

Beispiel:

Ich finde eine interessante Seite z.B. http://www.beispiel.de.

Gib es eine Möglichkeit diese Seite so zu speichern das ich Offline auch auf Links zugreifen kann?

Quasi hätte ich dann gerne die ganze Webseite (komplett) vieleicht als html Dateien.

Vieleicht kennt jemand so etwas.

Danke für evlt. Hilfe :)

mfg,

swlx87
J. S.

Benutzeravatar
markus_b
Beiträge: 355
Registriert: 26.01.2006 04:57:18
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von markus_b » 09.08.2007 15:55:24

wget kann das und noch viel mehr :wink:

Infos dazu gibt es unter info wget oder unter http://www.gnu.org/software/wget/manual/wget.html

Benutzeravatar
swlx87
Beiträge: 187
Registriert: 29.07.2007 20:32:41
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von swlx87 » 09.08.2007 16:02:58

Wget can follow links in html and xhtml pages and create local versions of remote web sites...
Hätt ich das früher gewusst :oops:

Danke für die schnelle Antwort!

mfg

swlx87
J. S.

Benutzeravatar
hupfdule
Beiträge: 1864
Registriert: 09.12.2002 15:04:37
Wohnort: Berlin
Kontaktdaten:

Beitrag von hupfdule » 09.08.2007 16:04:44

Du kannst auch einen entsprechenden Proxy wie wwwoffle einsetzen. Dieser speichert aber nur Links, die du auch schon besucht hast.

nil
Beiträge: 989
Registriert: 08.06.2005 13:28:36

Beitrag von nil » 09.08.2007 16:07:46

"httrack" ist auch ein sehr schönes Tool.

Antworten