ich suche derzeit nach einer möglich wie ich ein paar ftp daten automatsich downloaden kann;
ich hab derzeit schon eine für mich bis dato brauchbare möglichkeit gefunden, allerdings benötige ich nun mehr funktionen an welchen ich nun scheitere.
folgendes; ich hab lasse auf einem vserver alle 12std einen mysql DB backzp via mysqldumper erstellen, die daten werden dann in einem ordner abgelegt und es werden immer die letzten 5backup beibehalten.
die struktur sieht dann in etwa so aus
momentan lasse ich das ganze eher unsauber runterladenusr_web2_1_2007_10_08_11_59.sql.gz
usr_web2_1_2007_10_08_23_59.sql.gz
usr_web2_1_2007_10_09_11_59.sql.gz
usr_web2_1_2007_10_09_23_59.sql.gz
usr_web2_1_2007_10_10_11_59.sql.gz
Code: Alles auswählen
cd /var/www/mysqldumper/work/backup
screen -A -m -d -S FTPSYNC ncftpget -u USER -p PASS ftp://meinedomain.de/html/msd1.23/work/backup/*.gz
exit
ich möchte jetzt aber das am allerbesten immer nur die neueste datei und keine mehr geladen wird und diese dann direkt danach auch local in in die mysql datenbank eingespielt wird.
hintergrund ist der das ich local an der seite (community) viel programmier und dort zu testzwecken immer eine aktuelle version benötige.
täglich manuel ein backup einzuspielen dauert allerdings zu lange da die datenbank im gz format ca 30MB groß ist und ich das einspielen 10-15min dauern kann. (jeh nach derzeitiger belastung meiner debian kiste)
wie ein mysql befehl zum einspielen einer sql bzw gz datei aussieht weis ich, ich komm nur nich damit klar wie ich aufm ftp auslese was die neueste datei ist, diese zu downloaden und dann noch genau diese eine datei (dessen dateiname ja variiert) via script einzuspielen
jemand ne idee, lösung, möglichkeit, tip? irgendwas?
wäre super =)