mit wget eine seite mit bildern laden...

Vom einfachen Programm zum fertigen Debian-Paket, Fragen rund um Programmiersprachen, Scripting und Lizenzierung.
Antworten
Benutzeravatar
nonsenz
Beiträge: 232
Registriert: 26.10.2002 20:16:49
Wohnort: berlin

mit wget eine seite mit bildern laden...

Beitrag von nonsenz » 25.04.2005 20:52:44

nabend zusammen...

...ich möchte etwas relativ einfaches mit wget erreichen:
eine webseite mit den entsprechenden bildern in der seite herunterladen.
leider schaffe ich das nicht so wie ichs mir vorstelle:

Code: Alles auswählen

wget -r -k -nd -l1 -A jpg,gif http://localhost
bringt mir nur die bilder

Code: Alles auswählen

wget -k -nd http://localhost
bgringt mir keine bilder

gibt es eine möglichkeit die accept-regel (-A) erst ab level 1 gelten zu lassen und nicht auf level 0?
oder wie kann ich das sonst (in ein er zeile) lösen?

danke und ciao
nons

Benutzeravatar
MartinL25
Beiträge: 437
Registriert: 17.04.2005 15:29:09

Beitrag von MartinL25 » 25.04.2005 21:49:36

vielleicht mißverstehe ich Dich ja, aber probiers doch mal mit:

Code: Alles auswählen

wget -m http://www.webseite.de


Oder auch

Code: Alles auswählen

wget -m http://www.domain.de/zu_ladende_webseite/index.html -I /zu_ladende_webseite
Gruß Martin

Benutzeravatar
nonsenz
Beiträge: 232
Registriert: 26.10.2002 20:16:49
Wohnort: berlin

Beitrag von nonsenz » 27.04.2005 12:06:20

hmmm... ich glaube du hast mich falsch verstanden.
ich möchte nur eine bestimmte seite mit bildern, aber ohne unterseiten laden. also nur genau ein html file.
mir ist nicht bekannt wo die bilder liegen (sie sind halt level 1).
es ist quasi sowas wie webseite speichern in manchen browsern -> die (img-)links werden angepasst und ein verzeichnis mit bildern erzeugt.

oder habe ich dich da etwas falsch verstanden (den zweiten hinweis von dir habe ich auch so nicht wirklich verstanden, denke allerdings, dass das auch nicht die lösung ist) ?

noch irgendwelche tipps??

ciao
nons

Benutzeravatar
nonsenz
Beiträge: 232
Registriert: 26.10.2002 20:16:49
Wohnort: berlin

habs...

Beitrag von nonsenz » 27.04.2005 12:34:02

also der schalter war -p !
es sieht daher etwa so aus:

Code: Alles auswählen

wget -p -k -nd http://www.blubb.de
da wird dann allerdings kein unterordner angelegt (für mich besser).

danke nochmal und ciao...

nons

Benutzeravatar
MartinL25
Beiträge: 437
Registriert: 17.04.2005 15:29:09

Beitrag von MartinL25 » 27.04.2005 19:11:54

Ach so, ist ja gut, daß Du's selber herausgefunden hast.

Der "-I"-Schalter ist dafür da, daß man auch nicht gleich die ganze Domain spiegelt. Wenn man also

http://beispieldomain.de/ein_verzeichni ... haben.html

hat und auf der Seite ein Link wie "gehostet von xyz auf beispieldomain.de" oder "home"
ist, dannn holt man sich mit wget sonst alles.

Gruß Martin

Antworten