[gelöst] wget für rapidshare links?
[gelöst] wget für rapidshare links?
Hallo, bis vor 2 Wochen konnte ich mit
wget --http-user=USER --http-passwd=PASSWORT rapidshare.com/files/NUMMER/PROGRAMM.rar
ein Programm runterladen.
Jetzt klappt es per console nicht mehr.
Nun läd er immer nur 30000 Bytes runter mehr nicht.
Arbeite nur auf Konsole, vielleicht kennt ja jemand was anderes für dl von rapidshare.com
mfg
wget --http-user=USER --http-passwd=PASSWORT rapidshare.com/files/NUMMER/PROGRAMM.rar
ein Programm runterladen.
Jetzt klappt es per console nicht mehr.
Nun läd er immer nur 30000 Bytes runter mehr nicht.
Arbeite nur auf Konsole, vielleicht kennt ja jemand was anderes für dl von rapidshare.com
mfg
Zuletzt geändert von babylon05 am 07.11.2009 11:25:38, insgesamt 1-mal geändert.
- trompetenkaefer
- Beiträge: 1767
- Registriert: 24.09.2007 09:40:16
-
Kontaktdaten:
Re: wget für rapidshare links?
Grüße
trompetenkaefer - Mein Blog http://trompetenkaefer.wordpress.com/
trompetenkaefer - Mein Blog http://trompetenkaefer.wordpress.com/
Re: wget für rapidshare links?
Der jDownloader lässt sich auch über die Konsole Managen.
[gelöst]Re: wget für rapidshare links?
Also mir ist nicht bekannt das jdownloader über Konsole auf einen Server läuft der nur per SSH gesteuert wird.
Habe aber was gefunden:
Am Besten ihr macht euch ein Script z.B. unter /home
z.B. rs.sh
so zur Erklärung:
der \ bedeutet das sich der Befehl über mehrer Absätze bezieht
da ihr euch ja mit root euch anmeldet, müsst ihr vorher das Verzeichnis in /root .cookies erstellen
und danach im Verzeichnis /root/cookies die datei rapidshare
z.B. vi /root/.cookies/rapidshare
einfach eine leere Datei
der Code
ist meine txt Datei, die in sich im Verzeichnis home bfindet, in der ich die runtergeladenen Dateien geschrieben habe (immer nur untereinander), wenn es mehrere sind
, ansonsten kann das ab -i weggelassen werden und die URL hingeschrieben werden.
z.B. so
ich hoffe hier das mal für Linux Neulinge mal erklärt zu haben, jeder hat ja mal klein angefangen.
mfg babylon05
P.S. Wer bei seinem Rapidshare Premium Account Traffix sparen will, sollte die downloads, über so eine txt Liste zusammen gefasst werden und von 2-10 Uhr downgeladen werden. Weil da man nur 10% vom tatsächlichen Traffic abgezogen bekommt. Tut das Script einfach mit cron um 2 Uhr starten lassen und rechnet auch vorher aus (was gibt meine DSL Leitung her) das ihr halt bis 9:59 Uhr alle downloads abgeschlossen habt,
bzw die nächsten dann eine Nacht später zieht.
Habe aber was gefunden:
Am Besten ihr macht euch ein Script z.B. unter /home
z.B. rs.sh
Code: Alles auswählen
#! /bin/bash
cd /home
wget \
--save-cookies ~/.cookies/rapidshare \
--post-data "login=USERNAME&password=PASSWORD" \
-O - \
https://ssl.rapidshare.com/cgi-bin/premiumzone.cgi \
> /dev/null
sleep 1
wget \
-c --load-cookies ~/.cookies/rapidshare -i /home/liste.txt
der \ bedeutet das sich der Befehl über mehrer Absätze bezieht
Code: Alles auswählen
--save-cookies ~/.cookies/rapidshare \
und danach im Verzeichnis /root/cookies die datei rapidshare
z.B. vi /root/.cookies/rapidshare
einfach eine leere Datei
der Code
Code: Alles auswählen
-i /home/liste.txt
, ansonsten kann das ab -i weggelassen werden und die URL hingeschrieben werden.
z.B. so
Code: Alles auswählen
wget -c --load-cookies ~/.cookies/rapidshare http://rapidshare.com/files/23452423/test.rar
mfg babylon05
P.S. Wer bei seinem Rapidshare Premium Account Traffix sparen will, sollte die downloads, über so eine txt Liste zusammen gefasst werden und von 2-10 Uhr downgeladen werden. Weil da man nur 10% vom tatsächlichen Traffic abgezogen bekommt. Tut das Script einfach mit cron um 2 Uhr starten lassen und rechnet auch vorher aus (was gibt meine DSL Leitung her) das ihr halt bis 9:59 Uhr alle downloads abgeschlossen habt,
bzw die nächsten dann eine Nacht später zieht.
Re: [gelöst]Re: wget für rapidshare links?
Oder um 09:59 das wget einfach von einem zweiten Cronjob killen lassen. Mit `wget -c' ist das ja kein Problem weil es das nächste Mal an genau der Stelle weiter macht.babylon05 hat geschrieben:Tut das Script einfach mit cron um 2 Uhr starten lassen und rechnet auch vorher aus (was gibt meine DSL Leitung her) das ihr halt bis 9:59 Uhr alle downloads abgeschlossen habt
Use ed once in a while!
- inoyon
- Beiträge: 76
- Registriert: 10.01.2008 06:08:16
- Lizenz eigener Beiträge: GNU General Public License
Re: [gelöst] wget für rapidshare links?
Code: Alles auswählen
--2010-10-03 01:08:43-- https://ssl.rapidshare.com/cgi-bin/premiumzone.cgi
Auflösen des Hostnamen »ssl.rapidshare.com«.... 195.122.131.6
Verbindungsaufbau zu ssl.rapidshare.com|195.122.131.6|:443... verbunden.
HTTP Anforderung gesendet, warte auf Antwort... 404 Not Found
2010-10-03 01:08:43 FEHLER 404: Not Found.
among such style and grace our highest hopes, none standing still the running joke....
- Stefan
- Beiträge: 1438
- Registriert: 08.09.2002 14:31:59
- Lizenz eigener Beiträge: GNU General Public License
Re: [gelöst] wget für rapidshare links?
Hallo
danke für diese gute Anleitung.
Ich hätte aber noch eine frage:
Wie genau sieht das aus ?
Kann einer so nett sein und das hier einmal Posten ?
Gruß,
Stefan
danke für diese gute Anleitung.
Ich hätte aber noch eine frage:
Code: Alles auswählen
Tut das Script einfach mit cron um 2 Uhr starten
Kann einer so nett sein und das hier einmal Posten ?
Gruß,
Stefan
Ein Betriebssystem sie zu knechten, sie alle zu finden, Ins Dunkle zu treiben und ewig zu binden, Im Lande Microsoft wo die Schatten drohen.
Debian 7 3.2.0-4 64 - MSI nVidia GeForce 7600 GS - 8 DDR2 SDRAM 800 MHz Quad-CoreIntel Xeon : 2,67 GHz - Gigabyte GA-EP45-DS3 - 256GB SSD 840 Pro Gnome 3
Debian 7 3.2.0-4 64 - MSI nVidia GeForce 7600 GS - 8 DDR2 SDRAM 800 MHz Quad-CoreIntel Xeon : 2,67 GHz - Gigabyte GA-EP45-DS3 - 256GB SSD 840 Pro Gnome 3
Re: [gelöst] wget für rapidshare links?
If universal surveillance were the answer, lots of us would have moved to the former East Germany. If surveillance cameras were the answer, camera-happy London, with something like 500,000 of them at a cost of $700 million, would be the safest city on the planet.
—Bruce Schneier