Hallo,
ich möchte die folgende Webseite: http://www.uni-muenster.de/ZIV.MathiasG ... index.html mittels dem Konsolenprogramm
"wget" herunterladen.
Wenn ich jedoch folgendes eingebe: wget -c -k -r http://www.uni-muenster.de/ZIV.MathiasG ... index.html
wird nicht nur diese Seite heruntergeladen sondern auch noch die anderen Seiten, die diese Uni bietet.
Was mache ich falsch?
Mfg
Strunz_1975
[gelöst]Website downloaden mittels wget!
- Strunz_1975
- Beiträge: 2512
- Registriert: 13.04.2007 14:29:32
- Lizenz eigener Beiträge: MIT Lizenz
-
Kontaktdaten:
[gelöst]Website downloaden mittels wget!
Zuletzt geändert von Strunz_1975 am 08.09.2010 20:01:16, insgesamt 2-mal geändert.
Debian Bookworm
Re: Website downloaden um sie offline zu lesen mittels wget!
Gegebenenfalls könntest du die Rekursionstiefe begrenzen. Auch kann man wget recht genau sagen, welchen Links es folgen soll. Mehr dazu in der (überraschend ausführlichen) Manpage in Kapitel 3 (Rekursion) und 4 (Folgen von Links).
cu,
niemand
cu,
niemand
Re: Website downloaden um sie offline zu lesen mittels wget!
Das riecht nach einem Job für
wwwoffle.
![Debian](/pics/debianpackage.png)
- Strunz_1975
- Beiträge: 2512
- Registriert: 13.04.2007 14:29:32
- Lizenz eigener Beiträge: MIT Lizenz
-
Kontaktdaten:
Re: Website downloaden um sie offline zu lesen mittels wget!
Mein Englisch ist aber very bad!niemand hat geschrieben:Gegebenenfalls könntest du die Rekursionstiefe begrenzen. Auch kann man wget recht genau sagen, welchen Links es folgen soll. Mehr dazu in der (überraschend ausführlichen) Manpage in Kapitel 3 (Rekursion) und 4 (Folgen von Links).
cu,
niemand
Kannst du mir nicht konkreter helfen?
Debian Bookworm
Re: Website downloaden um sie offline zu lesen mittels wget!
Code: Alles auswählen
wget -r -l 1 -k http://www.uni-muenster.de/ZIV.MathiasGrote/linux/index.html
cu,
niemand
- Strunz_1975
- Beiträge: 2512
- Registriert: 13.04.2007 14:29:32
- Lizenz eigener Beiträge: MIT Lizenz
-
Kontaktdaten: