hi ich habe mal ne Frage ist es Möglich unter einen Debian Server (ja es ist Möglich nur wie) das man sich wie bei einen Macro einfach einen bestimten ablauf Abruft und den aller x stunden wiederholt.
Also Ich habe vor das sich zb lynx auf einen webseite geht dort erstmal sich in den download bereich einlogt danach auf die Schaltfläche klickt (wird in Lynx ja als link angezeigt) und die Datei die er erhällt Abspeichert in einen Ordner womit ich dann einfach drauf zugreifen kann. und das aller X stunden (was ich am einfachsten mit Cronjob erledigen kann)
Für Vorschläge bin ich sehr offen.
Automatische einlogen und Downloaden
Re: Automatische einlogen und Downloaden
Seas.
HTH && Ciao
Das lässt sich zum Besipiel mit Perl und WWW::Mechanize ziemlich leicht realisieren. Und wie du selbst schon gesagt hast, das ganze mittels Cron starten und fertig ...Nokman hat geschrieben:Also Ich habe vor das sich zb lynx auf einen webseite geht dort erstmal sich in den download bereich einlogt danach auf die Schaltfläche klickt (wird in Lynx ja als link angezeigt) und die Datei die er erhällt Abspeichert in einen Ordner womit ich dann einfach drauf zugreifen kann.
HTH && Ciao
Drinking for the fun, singing for the taste ...
[ Alkaline Trio ]
[ Alkaline Trio ]
Lern ein wenig Perl. So schwer is das auch wieder nicht 
Ausserdem kann man das immer wieder brauchen für kleinere und größere Skripte.
Kommst du nicht direkt auf den von dir gewünschten Link? Oder liegts eventuell an einem vorher nötigen Login? Wenn es das ist und du beim Login ein Cookie bekommst, dann könntest du dir mal curl ansehen. Das kann z.B. die Cookie-Datei des Firefox benutzen. Der Rest wäre ein kleines Shell-Skript mit den nötigen Aufrufen als Cron-Job.

Ausserdem kann man das immer wieder brauchen für kleinere und größere Skripte.
Kommst du nicht direkt auf den von dir gewünschten Link? Oder liegts eventuell an einem vorher nötigen Login? Wenn es das ist und du beim Login ein Cookie bekommst, dann könntest du dir mal curl ansehen. Das kann z.B. die Cookie-Datei des Firefox benutzen. Der Rest wäre ein kleines Shell-Skript mit den nötigen Aufrufen als Cron-Job.
Eine gute Hilfe ist für Perl das deutsche Perl-Board unter http://board.perl-community.de/cgi-bin/ ... nboard.cgi. Da wird einem normal recht kompetent geholfen, wenn man mal nicht weiterkommen sollte.