Mit wget eine Webseite downloaden

Warum Debian und/oder eine seiner Spielarten? Was muss ich vorher wissen? Wo geht es nach der Installation weiter?
Antworten
Noahpapa
Beiträge: 92
Registriert: 15.12.2005 11:22:46

Mit wget eine Webseite downloaden

Beitrag von Noahpapa » 10.02.2006 11:23:02

kann man mit wget auch eine Webseite mit verlinkungen downloaden?

würde gerne diese Seite downloaden.

http://www.64-bit.de/dokumentationen/ho ... HOWTO.html

mullers

Beitrag von mullers » 10.02.2006 11:33:03

Code: Alles auswählen

wget -c -l 10 -r  -k<seite>
So lade ich's immer runter wobei -l mit dem Wert die Linktiefe bedeutet, -k die Links konvertiert, so dass sie offline zu lesen sind.

Schau auch mal unter

Code: Alles auswählen

wget --help
gruss
henry

init 0
Beiträge: 673
Registriert: 21.10.2003 19:40:28

Beitrag von init 0 » 10.02.2006 11:33:33

Ja es geht. Steht in der Manpage. Vor allem die Optionen -I und --mirror .
Aber mal was anderes.

Code: Alles auswählen

v0.80-2, 1. Juli 1998
und

Code: Alles auswählen

Console-Probleme nach dem Upgrade auf 1.3.x oder später
Also ich bin mir recht sicher dasß es neuere HOWTOs zu dem Thema gibt.

Benutzeravatar
Kaper
Beiträge: 1077
Registriert: 07.03.2005 19:22:07
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von Kaper » 10.02.2006 11:39:27

Das geht mit

Code: Alles auswählen

wget -r url
Da das unter Umständen eine relativ große Datenmenge produzieren kann, kann man mit

Code: Alles auswählen

wget -r -l url
verhindern, dass wget den Download verlinkter Seiten ab einer bestimmten Tiefe unterbricht. Standard ist 5. Man kann aber auch etwas anderes eintragen z.B.

Code: Alles auswählen

 wget -r -l1 url
,
Siehe: http://www.pro-linux.de/berichte/wget-doku.html#ToC7
Gruß, Dirk

Antworten