Hallo Leute,
ich sehe auf unserem Server immer wieder crawler die gleich 100 Zugriffe gleichzeitig durchführen. Lässt sich das Global einschränken, also nicht nur pro IP?
Ich will die keinesfalls Ausgrenzen, nur auf z.B. 20 limitieren. Die normalen Kunden sollte das nicht einschränken und die Crawler sind eingeschränkt.
Gruß ré
Seitenzugriffe einschränken
Re: Seitenzugriffe einschränken
Sobald du Crawler von legitimen Usern unterscheiden kannst, ist’s nur noch eine iptables-Regel …
Re: Seitenzugriffe einschränken
Hallo,
darum geht es ja, da die die IP's jederzeit ändern können würde ich gern alle IP's limitieren. welche Regel wäre das?
Gruß ré
darum geht es ja, da die die IP's jederzeit ändern können würde ich gern alle IP's limitieren. welche Regel wäre das?
Gruß ré
Re: Seitenzugriffe einschränken
21 Bilder, Scripte, CSS-Files oder sowas auf der Seite, und kein „normaler Kunde“ kann die Seite noch laden.Ich will die keinesfalls Ausgrenzen, nur auf z.B. 20 limitieren. Die normalen Kunden sollte das nicht einschränken und die Crawler sind eingeschränkt.
Re: Seitenzugriffe einschränken
Hallo,
gut, dann ist es etwas mehrarbeit bei neuen IP's zu aktuallisieren. Welche Regel soll ich iptables hinzufügen?
danke ré
gut, dann ist es etwas mehrarbeit bei neuen IP's zu aktuallisieren. Welche Regel soll ich iptables hinzufügen?
danke ré
Re: Seitenzugriffe einschränken
Nicht eine einzige Regel, sondern ein Script, das die Logs des httpd auswertet und beim entsprechenden Kriterium die betreffende IP temporär ausschließt. Möglicherweise gibt’s da vorgefertigte Sachen, allerdings ist das auch schnell geschrieben. Die zu setzende Regel wäre dann -A INPUT -s [IP] -j DROP
-
- Beiträge: 827
- Registriert: 26.05.2008 12:04:54
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Nörten-Hardenberg
-
Kontaktdaten:
Re: Seitenzugriffe einschränken
Was spricht gegen eine saubere robots.txt?
Diese ist ja extra dafür da um eben Crawlern zu sagen, was diese lesen dürfen und was nicht.
Ggf. einfach die Ordner auf dem Server mit den Bildern etc. sperren.
Martin
Diese ist ja extra dafür da um eben Crawlern zu sagen, was diese lesen dürfen und was nicht.
Ggf. einfach die Ordner auf dem Server mit den Bildern etc. sperren.
Martin
Es gibt keine if Schleife -> http://www.if-schleife.de/
Ansonsten GPL/GNU/Linux/Debian/Free Software 4 Ever
Ansonsten GPL/GNU/Linux/Debian/Free Software 4 Ever
