Backup

Post Reply
Message
Author
peterm
Posts: 287
Joined: 16. Sep 2000 15:35

Backup

#1 Post by peterm »

Hi,

da ich meine Festplatte etwas aufräumen will, habe ich vor, ein Backup mit anschließendem Löschen der Daten von Festplatte zu machen.
Über die Monate haben sich auf meiner Festplatte ca. <i>5.39 GB</i> an Daten angesammelt.

Es sind zumeist Videos, Bilder, Audios und sonstige Multimediainhalte sowie kleinere Archive,
also Daten, die bereits komprimiert sind; deshalb sehe ich davon ab, sie mit einem minimalen Gewinn extra in .bz2`s zu encodieren.

Ich habe bereits alle Daten schön geordnet in einen Ordner (auf meiner Win-Partition) abgelegt. Der Ordner hat, wie gesagt, 5.39 GB.

Als einziges Mittel steht mir das Brennen auf CD`s zur Verfügung, ein Bandlaufwerk oder ähnliches habe ich leider nicht.
Auf 650 - MB Rohlinge gebrannt wären es 9 CD`s. Ich muss die Daten allerdings vorher über Netzwerk (100 MBit) auf einen 2. PC kopieren, da sich der Brenner dort befindet.

Folgende einfache Methode habe ich mir überlegt:

Ich packe die Daten in ein großes Tar-File, zerlege dieses mittels <i>GNU split</i> in lauter 650 - MB Stücke, und brenne diese auf die CD`s. Wenn ich eine bestimmte Datei extrahieren will, lege ich die richtige CD ein, öffne das Tar-File z.B. mit ark und hole mir die einzelne Datei. Der einzige Nachteil wäre, dass Daten, die über die Grenze zum nächsten split gehen, zerschnitten werden, ich müsste also zwei Archive logisch verbinden (mit <i>cat</i>), um eine solche Datei zu extrahieren.

Meine Frage:
Gibt es eine elegantere Lösung als die von mir vorgeschlagene, vielleicht "intelligentes Backupen", mit dem ich Vorteile gegenüber meiner "billigen" Methode habe?

Es ist wichtig, dass ich Daten schnell extrahieren kann, also ohne eine umständliche Prozedur vorher starten zu müssen.

Gibt es eine bessere Version des Backup`s als meine, die für mich interessant sein könnte?

Vielen Dank für jede Hilfe,

cu

tuxic trace

Re: Backup

#2 Post by tuxic trace »

Bist Du sicher, das Du ein "gesplittetes" tar file extrahieren kannst ? Insbesondere, wenn es sich um eines in der Mitte handelt ?

peterm
Posts: 287
Joined: 16. Sep 2000 15:35

Re: Backup

#3 Post by peterm »

Hi tuxic trace,

hast Recht, es geht nicht... gerade ausprobiert.

Weiß jemand eine geeignete Backup-Methode?

cu

Bob Gomorrha

Re: Backup

#4 Post by Bob Gomorrha »

Kennt jemand <a href="http://www.freshmeat.net" target="_blank"><!--autohttp-->http://www.freshmeat.net</a><!--autohttp--> ?

OK - Spass beiseite. Wenn ich Dich richtig verstanden habe, sollte das Deine Lösung sein:

<a href="http://scdbackup.webframe.org/main_eng.html" target="_blank"><!--auto-->http://scdbackup.webframe.org/main_eng. ... <!--auto-->

peterm
Posts: 287
Joined: 16. Sep 2000 15:35

Re: Backup

#5 Post by peterm »

Hi,

@ Bob Gomorrha:

Ja, stell dir vor, ich kenne freshmeat.net <img src="http://www.pl-forum.de/UltraBoard/Images/TooHappy.gif" border="0" align="middle"> , aber ich wollte ja die <i>Methode</i> wissen.
Es hätte z.B. auch sein können, dass man ein gewieftes Shell-Script machen kann, das berechnet,
mit welcher Kombination von den Dateien es die 650 - MB pro CD am besten ausnutzt.

scdbackup trifft es offenbar sehr gut, nur habe ich das Problem, dass auf dem 2. PC nur Win drauf ist und er nicht ans
Inet angeschlossen ist... Aber ich kann Debian dort installieren, indem ich mir einen router (oder proxy?) baue (DSL).
Vielen Dank, Bob!

cu

Post Reply