1&1 Transfervolumen abrufen per Script

Vom einfachen Programm zum fertigen Debian-Paket, Fragen rund um Programmiersprachen, Scripting und Lizenzierung.
Antworten
roli
Beiträge: 3174
Registriert: 10.09.2003 17:39:58

1&1 Transfervolumen abrufen per Script

Beitrag von roli » 23.01.2005 16:50:25

Hi,

mein Provider 1&1 bietet seinen Kunden eine Auflistung des bisher genutzten Volumens. Ich wuerde mir diese Webseite gerne per Script taeglich einmal ziehen. Mein erster Gedanke war wget, aber ...
-wie komme ich durch den Login
-jetzt muss ich das "Produkt" waehlen
-nun auf "Konto" klicken
-um zu guter letzt "Aktuelle Kosten" zu wählen

Hat irgendwer irgendeine Idee, oder gar ein Script?
Roland


"Aber wenn du schon so unwissend bist, davon noch nicht gehört zu haben,
so will ich es doch als gut ansehen, daß du lieber einmal töricht fragst,
als weiterhin nichts von etwas zu wissen, das man doch wissen sollte."
aus "Die Edda des Snorri Sturluson", "Gylfis Täuschung"

Benutzeravatar
KabelSalat
Beiträge: 167
Registriert: 15.12.2002 14:46:41
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Beitrag von KabelSalat » 23.01.2005 17:26:49

Hi roli,

man wget sagt :

Code: Alles auswählen

       --http-user=user
       --http-passwd=password
Specify the username user and password password on an HTTP server

Another way to specify username and password is in the URL itself.

Diese Argumente mitgegeben, sollte reichen!

HTH

roli
Beiträge: 3174
Registriert: 10.09.2003 17:39:58

Beitrag von roli » 23.01.2005 18:21:59

Hi,
KabelSalat hat geschrieben:man wget sagt :

Code: Alles auswählen

       --http-user=user
       --http-passwd=password
Specify the username user and password password on an HTTP server

Another way to specify username and password is in the URL itself.

Diese Argumente mitgegeben, sollte reichen!
wenn die das mit HttpAuth gemacht haetten, dann haettest du recht, haben sie aber nicht, da gibt's zwei Editfelder auf der Loginseite -> KAESE
Uebrigens mit den beiden Parametern hatte ich schon experimentiert, um dann zu eben dem Ergebnis zu kommen. Meistens versuche ich ein RTFM zu vermeiden, auch wenn von dir jetzt keins kam.
Damit haette ich aber immer noch das Problem das ich eigentlich einen DeepLink brauchen wuerde, den ich nicht habe (ich habe ja den Pfad den ich anklicken muss beschrieben). Die Angezeigte URL ist bis auf SessionID + andere Variablen eigentlich immer gleich. Alleine daher denke ich halt das wget nicht das richtige ist.
Roland


"Aber wenn du schon so unwissend bist, davon noch nicht gehört zu haben,
so will ich es doch als gut ansehen, daß du lieber einmal töricht fragst,
als weiterhin nichts von etwas zu wissen, das man doch wissen sollte."
aus "Die Edda des Snorri Sturluson", "Gylfis Täuschung"

Olaf Dietsche
Beiträge: 520
Registriert: 12.06.2003 23:18:50
Wohnort: Siegburg

Beitrag von Olaf Dietsche » 23.01.2005 20:43:50

Perl bietet einige Pakete für diesen Zweck:

Code: Alles auswählen

LWP::UserAgent
HTTP::Cookies
HTTP::Request
HTTP::Response
HTML::Form
HTML::LinkExtor
HTML::TableExtract
HTML::TreeBuilder
Damit kannst du Seiten analysieren und die nötigen Informationen extrahieren.

roli
Beiträge: 3174
Registriert: 10.09.2003 17:39:58

Beitrag von roli » 25.01.2005 19:37:31

Hi Olaf,

werde ich checken, sobald ich wieder an der Kiste sitze und Zeit habe.
Roland


"Aber wenn du schon so unwissend bist, davon noch nicht gehört zu haben,
so will ich es doch als gut ansehen, daß du lieber einmal töricht fragst,
als weiterhin nichts von etwas zu wissen, das man doch wissen sollte."
aus "Die Edda des Snorri Sturluson", "Gylfis Täuschung"

Antworten