Hilfe bei Backup mit großen Dateien

Post Reply
Message
Author
Torsten

Hilfe bei Backup mit großen Dateien

#1 Post by Torsten »

Ich habe umfangreiche Daten auf meinem Fileserver. Diese wollte ich gern kostengünstig sichern, d.h. ein Streamer kommt leider nicht in Frage. Also habe ich mir eine große Platte gekauft und experimentiere nun mit Tar- und Zip-Files. Die Datenspeicherung soll über Cronjob laufen, doch bei einer maximalen Dateigröße von 2GB ist Ende bei meiner SuSE 7.3, egal welches Filesystem ich auf der Backupplatte einstelle. Ich habe hier im Forum schon ein wenig gestöbert und da gibt es auch eine Möglichkeit, die Ausgabe des Zip-Befehls über eine Pipe direkt in den Split-Befehl zu schießen. Das klappt über

zip -r - . | split -b 650m - /backup.

richtig prima. Schöne Dateien mit 650 MB, die der Reihe nach mit der Endung aa, ab, ac ... abgelegt werden. Was nützt aber die beste Sicherung, wenn man die Daten nicht zurückspielen kann ... klar, der KDE bietet mir mit dem karchiver die Möglichkeit, die Dateien wieder zusammenzufügen, aber wenn diese wieder größer als 2 GB wird, läßt sich das Teil wieder nicht mehr entzippen. Wer kann mir also helfen, und verrät mir die Umkehrung des Splittings mit gleichzeitigem Unzip auf der Konsole?

Torsten

Torsten

Re: Hilfe bei Backup mit großen Dateien

#2 Post by Torsten »

Vergeßt den Spaß - ich sichere mit tar in ein Multi-Volume und benenne im Anschluß die Dateien per Script fortlaufend um, um im Anschluß automatisch das nächste tar zu erstellen. Leider kann er Multi's nicht gleich zippen (oder ich habe was übersehen), da aber eh alles mit Script laufen soll, kann er die einzelnen tar's im Anschluß immernoch zippen.

Dank an alle, die sich den Kopf zerbrochen haben.

Torsten

Post Reply