Ideenfindung zur Problemlösung

JamesT

Erfahrenes Mitglied
Hallo liebe Community,

ich poste das erstmal in diesem Bereich, solte es dennoch falsch eingeordnet sein, dann bitte passend einordnen. :)

Kurze frage zu folgendem Problem.

ich habe ein Gerät, welches automatisch täglich backups seiner eigenen Konfiguration erstellt. Auf diesem Gerät kann man
sich per Webinterface einloggen, und diese Backups von Hand herunterladen. Ich möchte jedoch gern das jeweilige
Backup automatisch jeden Tag von diesem Gerät herunterladen.

Nun habe ich von dem Entwickler die Information das die Backups auf dem Gerät an folgender stelle abgelegt werden:

http://192.168.0.xxx/backups/

Es wird auch automatisch eine Datei erstellt welche man über:

http://192.168.0.xxx/backups/content erreicht, diese Datei sieht wenn man sie im Browser direkt aufruft wie folgt aus:

6f8ac25a9d7f2d3f41619e0463714409 backup-2007-02-21-OMD08ADFE.bin a5d02fe48e1084bc41e1e1d6e67b8a1a backup-2007-02-22-OMD08ADFE.bin

Wenn also ein neues Backup von dem Gerät erstellt wurde, erscheint in dieser Datei, das aktuellste Backup direkt ganz unten. Nun weiss ich das das aktuellste Backup den namen
backup-2007-02-22-OMD08ADFE.bin hat, und könnte es mir unter folgendem Link herunterladen:

http://192.168.0.xxx/backups/backup-2007-02-22-OMD08ADFE.bin

Jetzt meine Frage, womit kann ich (evtl. script) jeden Tag auf diese Seite schauen was ist das letzte Backup, und dann mit dieser information, automatisch das binfile herunterladen.

Vielleicht hat ja jemand eine Idee.

Also die schönste Lösung wäre auf diesem Wege, ein anderer Weg den man noch angehen könnte, es gibt noch SSH zugang, zu diesem Gerät, auf dem ein Linux läuft.
Ich weiss nicht ob vielleicht über ein SSH Skript? das ganze machbar wäre?

Ich danke euch für die Zeit die ihr evtl. verbringt, euch euren Kopf dafür zu zerbrechen.

Grüße

JamesT
 
Zuletzt bearbeitet:
Ok, über nen Cronjob ein Skript ausführen, das ist klar.

Das macht diese Box ja auch schon selber, und legt das ganze in einem Verzeichnis ab, an das man von "außen" dran kommt. Jetzt ist die Frage, wie komme ich automatisiert an diese Dateien heran.

Das würde ich gern mit einem Skript oder ähnlichem machen, beispielsweise von einem windows pc, wo das skript täglich durch den taskplaner ausgeführt hat.

Grüße

JamesT
 
Tja .. das kannst du auch mit Cronjobs realisieren .. kannst ein script schreiben, dass täglich eine bestimmte Datei downloaded .. das lässt du dann als Cronjob laufen.
Wie das mit Windows läuft .. puhh keine Ahnung .. Cronjobs kann das dumme Windows ja nicht - aber unter Linux gehts so.
 
Cronjobs kann Windows nicht. Aber dafür Tasks ;)
Über den Taskplaner kannst du einen Task einrichten, der Täglich das von suye genannt Skript ausführt.

@suye
Wieso ist Windows dumm? Ein Computer ist immer nur so schlau, wie der der davor sitzt ;) :p
 
Und genau da sind wir an der Stelle wo ich nicht weiterkomme. :)

Was für ein Script, welche Programmiersprache eignet sich am besten, etc. etc. :)

Ich steh da im moment ein bisschen im Wald.

Hat jemand schonmal etwas ähnliches gemacht?

Es muss ja irgendwas sein, was die seite aufrufen und auswerten kann, und anhand dessen dann den download link zusammen baut.

Wichtig ist, das es ohne Interaktion laufen muss.

Wie gesagt, ich weiss im moment nicht wie und womit ich so ein skript realisieren müsste. deswegen habe ich die frage hier gestellt. Danke für die bisherigen Ansätze von euch.

Grüße

JamesT
 
Hallo JamesT,
sie können dieses Problem mit dem erwähnten Taskmanager und ein paar Batchbefehle realisieren, vorausgesetzt man kennt sich mit Batch sehr gut aus.
Haben sie mittlerweile eine Lösung gefunden?
Wird diese Logdatei Namens content ohne Zeilenümbruche gefüllt?
 
Zuletzt bearbeitet:
Hallo ikays,

nein bisher keine lösung gefunden, ich kann hier ja mal so eine Datei posten.

Grüße

JamesT
 
Also die Datei enthält immer Textzeilen im Format:

<md5sum> <name backupdatei.bin>

Hier mal eine Beispieldatei:

Code:
719a603c3fb16a52dc2fdef10a890923 backup-2007-04-18-OMD08ADFF.bin
719asdfasfb1f6a52dc2fdef10a890923 backup-2007-04-17-OMD08ADFF.bin
719a603c3fb16a52dc23452345avxvy backup-2007-04-16-OMD08ADFF.bin
 
Wie wär es mit einem täglichen Aufruf von

wget -nc deineURL

no clobber vermeidet das erneute herunterladen von vorhandenen dateien
Ich würd mal damit etwas herumspielen.

Du kannst auch die Pfadangabe zu relativen umwandeln lassen etc.
wget --help
hilft da ungemein Ideen zu bekommen
 

Neue Beiträge

Zurück