Verzeichnisse und Dateien einer Homepage anzeigen?
- BeS
- Moderator
- Beiträge: 3236
- Registriert: 17.04.2002 18:30:21
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Stuttgart
-
Kontaktdaten:
Verzeichnisse und Dateien einer Homepage anzeigen?
Hallo,
ich schreibe es mal in smalltalk, weil ich es nicht richtig einordnen kann.
Wie kann ich am einfachsten durch eine Homepage browsen und mir die einzelnen Verzeichnisse und Dateien anzeigen lassen, also ohne das der Browser (oder ein anderes Programm) immer gleich die .html Dateien anzeigt?
Da muss es doch eine Möglichkeit geben...
Danke!
ich schreibe es mal in smalltalk, weil ich es nicht richtig einordnen kann.
Wie kann ich am einfachsten durch eine Homepage browsen und mir die einzelnen Verzeichnisse und Dateien anzeigen lassen, also ohne das der Browser (oder ein anderes Programm) immer gleich die .html Dateien anzeigt?
Da muss es doch eine Möglichkeit geben...
Danke!
Deine Unterstützung für Freie Software kostet dich nur wenige Minuten: www.fsfe.org/support
Ich spreche von Freier Software!
Ich spreche von Freier Software!
soviel ich weiss, erlauben das die meisten server gar nicht, dass man eine Verzeichnis ansicht, von der seite bekommt, zumindest kommt da meisten sowas
npi
bin mir allerdings nicht 100pro sicher, also falls es jemand besser weiss...Directory Listing Denied
This Virtual Directory does not allow contents to be listed.
npi
- Sebastian.S
- Beiträge: 437
- Registriert: 13.04.2003 13:17:41
Re: Verzeichnisse und Dateien einer Homepage anzeigen?
Also, wenn ich das richtig verstanden habe, hast du einen HTTP-Server auf dem etwa folgende Struktur zu finden ist:BeS hat geschrieben:Hallo,
ich schreibe es mal in smalltalk, weil ich es nicht richtig einordnen kann.
Wie kann ich am einfachsten durch eine Homepage browsen und mir die einzelnen Verzeichnisse und Dateien anzeigen lassen, also ohne das der Browser (oder ein anderes Programm) immer gleich die .html Dateien anzeigt?
Da muss es doch eine Möglichkeit geben...
Danke!
Code: Alles auswählen
/
|_ index.html
|_ bild.png
|_ ein-verzeichnis
|_ eine-datei-im-unter-verzeichnis
|_ index.html
Das Problem an der Sache ist, dass der darunterliegende HTTP-Server bei einem Aufruf von http://derserver/ein-verzeichnis automatisch die index.html als Response rüberschickt. Ist keine index-Datei vorhanden, muss der Administrator des Webservers das "Directory-Listing" erlauben.
Wenn der Server eine "kulante" Einstellung in diesen Punkten hat, könntest du mit wget eventüll weiter kommen. Einfach mal wget http://server/ probieren; wenn's nicht klappt -> Man-Page.
Wenn dir auch die Man-Page nicht weiterhilft, hast du AFAIK ein Problem, das nciht ohne weiteres zu lösen ist.
- BeS
- Moderator
- Beiträge: 3236
- Registriert: 17.04.2002 18:30:21
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Stuttgart
-
Kontaktdaten:
Re: Verzeichnisse und Dateien einer Homepage anzeigen?
Hallo,
So habe ich es auch letztlich gemacht. Dabei kam mir aber der Gedanke, dass es eigentlich unnötig ist die Seite erst herunterzuladen und man es sich doch auch direkt ansehen können müsste. Wget kommt ja schliesslich an alle Verzeichnisse/Dateien heran, dann müsste man sich das doch auch anzeigen lassen können ohne es gleich auf die Festplatte zu kopieren.Sebastian.S hat geschrieben: Wenn der Server eine "kulante" Einstellung in diesen Punkten hat, könntest du mit wget eventüll weiter kommen. Einfach mal wget http://server/ probieren; wenn's nicht klappt -> Man-Page.
Deine Unterstützung für Freie Software kostet dich nur wenige Minuten: www.fsfe.org/support
Ich spreche von Freier Software!
Ich spreche von Freier Software!
- Sebastian.S
- Beiträge: 437
- Registriert: 13.04.2003 13:17:41
Re: Verzeichnisse und Dateien einer Homepage anzeigen?
Ohne jetzt in der man-page nachgesehen zu haben, aber gibt es nicht eine Art "--list-only" oder "--force-no-download"-Schalter?BeS hat geschrieben:So habe ich es auch letztlich gemacht. Dabei kam mir aber der Gedanke, dass es eigentlich unnötig ist die Seite erst herunterzuladen und man es sich doch auch direkt ansehen können müsste. Wget kommt ja schliesslich an alle Verzeichnisse/Dateien heran, dann müsste man sich das doch auch anzeigen lassen können ohne es gleich auf die Festplatte zu kopieren.
EDIT: Außer --delete-after scheint es keine andere Lösung mit wget zu geben. --delete-after ist aber relativ sinnfrei, weil der Download aller Dateien auf Festplatte wahrscheinlich eher an Internet-Traffic/Bandbreite als an der HDD-Kapazität scheitern wird.
- godsmacker
- Beiträge: 902
- Registriert: 16.03.2003 21:50:26
- Lizenz eigener Beiträge: Artistic Lizenz
- Wohnort: Chemnitz
-
Kontaktdaten:
- blackm
- Moderator und Co-Admin
- Beiträge: 5921
- Registriert: 02.06.2002 15:03:17
- Lizenz eigener Beiträge: MIT Lizenz
Ich hab das mal zu den Webservern verschoben.
Schöne Grüße
Martin
Neu im Forum? --> https://wiki.debianforum.de/debianforum ... tensregeln
Log- und Konfigurationsdatein? --> pastebin.php
Forum unterstützen? --> https://wiki.debianforum.de/debianforum.de/Spenden
Martin
Neu im Forum? --> https://wiki.debianforum.de/debianforum ... tensregeln
Log- und Konfigurationsdatein? --> pastebin.php
Forum unterstützen? --> https://wiki.debianforum.de/debianforum.de/Spenden
- BeS
- Moderator
- Beiträge: 3236
- Registriert: 17.04.2002 18:30:21
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Stuttgart
-
Kontaktdaten:
Hallo,
Das muß doch auch irgendwie mit GNU/Linux möglich sein, oder haben wir da eine Lücke entdeckt? Dann wäre es ja mal eine sinnvolle Programmieraufgabe
Ich habe ja selber keinen Zugriff auf dem webserver, sonst könnte ich es mir auch über ftp ansehen.godsmacker hat geschrieben:Probier mal "options +indexes" in die .htaccess zu schreiben, wenn der Webserver das unterstützt..
stimmt, jetzt wo du es sagst fällt mir auch sowas ein. Ich habe mal bei jemanden auf windows einen downloadmanager gesehen der auch so einen "file-browser" hatte wo man sich dann direkt durch die Verzeichnisse von homepages bewegen konnte.Blooddrinker hat geschrieben:Also ich meine mich noch aus Windows Zeiten erinnern zu können, dass CuteFTP bei HTTP Servern auch trotz index.html den Inhalt von Verzeichnissen anzeigen konnte.
Das muß doch auch irgendwie mit GNU/Linux möglich sein, oder haben wir da eine Lücke entdeckt? Dann wäre es ja mal eine sinnvolle Programmieraufgabe
Deine Unterstützung für Freie Software kostet dich nur wenige Minuten: www.fsfe.org/support
Ich spreche von Freier Software!
Ich spreche von Freier Software!
- BeS
- Moderator
- Beiträge: 3236
- Registriert: 17.04.2002 18:30:21
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Stuttgart
-
Kontaktdaten:
Hallo,
Mir geht es ja nicht um meinen webserver sondern um einen beliebigen! Ich will mir z.B. die Verzeichnisstruktur und Dateien von df.de oder einer anderen Seite ansehen.
nicht uninteressant aber nicht die Lösung für mein Problem.pil hat geschrieben: Wenn PHP zur Verfügung steht, geht das mit phpshell. Mußt nur Google bemühen. Das gleiche gibt's auch in Perl, weiss bloß nicht mehr, wie das geheissen hat.
Mir geht es ja nicht um meinen webserver sondern um einen beliebigen! Ich will mir z.B. die Verzeichnisstruktur und Dateien von df.de oder einer anderen Seite ansehen.
Deine Unterstützung für Freie Software kostet dich nur wenige Minuten: www.fsfe.org/support
Ich spreche von Freier Software!
Ich spreche von Freier Software!
Hallo,
es gibt Server wie 8ung.at oder GMX, die von sich aus das Lesen von Verzeichnissen unterbinden, auch haben viele Webmaster jede Menge Tricks, um ihre Unordnung auf dem Server zu verschleiern. An sich ist natürlich die Dateistruktur das beste Inhaltsverzeichnis, aber es gibt nur wenige Webseiten, die das auch gezielt einsetzen.
Gruß micros
es gibt Server wie 8ung.at oder GMX, die von sich aus das Lesen von Verzeichnissen unterbinden, auch haben viele Webmaster jede Menge Tricks, um ihre Unordnung auf dem Server zu verschleiern. An sich ist natürlich die Dateistruktur das beste Inhaltsverzeichnis, aber es gibt nur wenige Webseiten, die das auch gezielt einsetzen.
Gruß micros
Aller Anfang ...
- BeS
- Moderator
- Beiträge: 3236
- Registriert: 17.04.2002 18:30:21
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Stuttgart
-
Kontaktdaten:
Hallo,
wget kann ja auch die Datein mit entprechender Verzeichnisstruktur herunterladen, statt diese zu kopieren müsste man sie ja nur auf dem Bildschirm anzeigen, das müsste doch eigentlich irgendwie möglich sein.
Das mag Browser bezogen so stimmen, aber es muß doch Programme geben die es unabhängig von der Apache Einstellung auslesen (ich kann mich da ganz dunkel an ein windows Programm erinnern).pil hat geschrieben: Das geht nur wenn der Apache so konfiguriert ist, dass er die Verzeichnisstrukur ausliefert, wenn keine index.html vorhanden ist. Beim IIS weiss ich's allerdings nicht.
wget kann ja auch die Datein mit entprechender Verzeichnisstruktur herunterladen, statt diese zu kopieren müsste man sie ja nur auf dem Bildschirm anzeigen, das müsste doch eigentlich irgendwie möglich sein.
Deine Unterstützung für Freie Software kostet dich nur wenige Minuten: www.fsfe.org/support
Ich spreche von Freier Software!
Ich spreche von Freier Software!
Auf die Gefahr hin, hier Quatsch zu erzählen, aber ich glaube, das wget den html Code auswertet und dadurch an die Struktur kommt. Da ich auf einem Server das Directorylististing ausschalten kann, glauch ich nicht, das es dann noch umgangen werden kann. Aber sicher bin ich mir auch nicht
Programmer: A biological machine designed to convert caffeine into code.
xmpp:bert@debianforum.de
xmpp:bert@debianforum.de
- pdreker
- Beiträge: 8298
- Registriert: 29.07.2002 21:53:30
- Lizenz eigener Beiträge: MIT Lizenz
- Wohnort: Nürnberg
OK...
Wenn der HTTPd (Was auch immer das ist: Apache, IIS....) die Verzeichnisstruktur nicht rausrückt, dann kann man sie auch nicht bekommen. Kein Workaround möglich: Das Auslesen von Verzeichnissen kann (im Falle von PHP Systemen z.B.) zu groben Sicherheitslücken führen.
Wenn Du Zugriff über WebDAV, FTP oder sowas hast, dann geht das, aber mit beliebigen Servern geht das nicht. Du könntest natürlich einfach die Webseite komplett crawlen, und damit versuchen die Struktur zu rekonstruieren, aber Du wirst immer nur das sehen, was der Server Dir auch zeigen will.
Ich verwende z.B. bei den meisten PHP Projekten das Rewrite Modul von Apache, um die URLs "schöner" zu machen (z.B. um aus "http://www........de/index.php?q=xyz" "http://www........de/xyz/" zu machen. Die Verzeichnisstruktur, die Du dadurch beim crawlen erhältst hat *überhaupt nichts* mit der wirklichen Struktur auf dem Server zu tun, und das ist im Prinzip auch der Sinn der Sache.
Zusammenfassung: Du kannst nur das sehen, was der Server Dir zeigt. Wenn der Server Dir die Dir (Listings) nicht gibt, dann bekommst Du sie auch mit Tricks nicht (ausser den Server komplett zu cracken und es Dir dann in der Shell anzuschauen). Ausserdem hat die vom Server "angezeigte" Struktur (Stichwort Crawler) einer Site potentiell *nichts* mit der wirklichen Struktur auf dem Server zu tun...
Patrick
Wenn der HTTPd (Was auch immer das ist: Apache, IIS....) die Verzeichnisstruktur nicht rausrückt, dann kann man sie auch nicht bekommen. Kein Workaround möglich: Das Auslesen von Verzeichnissen kann (im Falle von PHP Systemen z.B.) zu groben Sicherheitslücken führen.
Wenn Du Zugriff über WebDAV, FTP oder sowas hast, dann geht das, aber mit beliebigen Servern geht das nicht. Du könntest natürlich einfach die Webseite komplett crawlen, und damit versuchen die Struktur zu rekonstruieren, aber Du wirst immer nur das sehen, was der Server Dir auch zeigen will.
Ich verwende z.B. bei den meisten PHP Projekten das Rewrite Modul von Apache, um die URLs "schöner" zu machen (z.B. um aus "http://www........de/index.php?q=xyz" "http://www........de/xyz/" zu machen. Die Verzeichnisstruktur, die Du dadurch beim crawlen erhältst hat *überhaupt nichts* mit der wirklichen Struktur auf dem Server zu tun, und das ist im Prinzip auch der Sinn der Sache.
Zusammenfassung: Du kannst nur das sehen, was der Server Dir zeigt. Wenn der Server Dir die Dir (Listings) nicht gibt, dann bekommst Du sie auch mit Tricks nicht (ausser den Server komplett zu cracken und es Dir dann in der Shell anzuschauen). Ausserdem hat die vom Server "angezeigte" Struktur (Stichwort Crawler) einer Site potentiell *nichts* mit der wirklichen Struktur auf dem Server zu tun...
Patrick
Definitely not a bot...
Jabber: pdreker@debianforum.de
Jabber: pdreker@debianforum.de