Ich habe umfangreiche Daten auf meinem Fileserver. Diese wollte ich gern kostengünstig sichern, d.h. ein Streamer kommt leider nicht in Frage. Also habe ich mir eine große Platte gekauft und experimentiere nun mit Tar- und Zip-Files. Die Datenspeicherung soll über Cronjob laufen, doch bei einer maximalen Dateigröße von 2GB ist Ende bei meiner SuSE 7.3, egal welches Filesystem ich auf der Backupplatte einstelle. Ich habe hier im Forum schon ein wenig gestöbert und da gibt es auch eine Möglichkeit, die Ausgabe des Zip-Befehls über eine Pipe direkt in den Split-Befehl zu schießen. Das klappt über
zip -r - . | split -b 650m - /backup.
richtig prima. Schöne Dateien mit 650 MB, die der Reihe nach mit der Endung aa, ab, ac ... abgelegt werden. Was nützt aber die beste Sicherung, wenn man die Daten nicht zurückspielen kann ... klar, der KDE bietet mir mit dem karchiver die Möglichkeit, die Dateien wieder zusammenzufügen, aber wenn diese wieder größer als 2 GB wird, läßt sich das Teil wieder nicht mehr entzippen. Wer kann mir also helfen, und verrät mir die Umkehrung des Splittings mit gleichzeitigem Unzip auf der Konsole?
Torsten
Hilfe bei Backup mit großen Dateien
Re: Hilfe bei Backup mit großen Dateien
Vergeßt den Spaß - ich sichere mit tar in ein Multi-Volume und benenne im Anschluß die Dateien per Script fortlaufend um, um im Anschluß automatisch das nächste tar zu erstellen. Leider kann er Multi's nicht gleich zippen (oder ich habe was übersehen), da aber eh alles mit Script laufen soll, kann er die einzelnen tar's im Anschluß immernoch zippen.
Dank an alle, die sich den Kopf zerbrochen haben.
Torsten
Dank an alle, die sich den Kopf zerbrochen haben.
Torsten