Hinweis: Das Forum wird geschlossen! Neue Registrierungen sind nicht mehr möglich!

 Zurück zu Pro-Linux   Foren-Übersicht   FAQ     Suchen    Mitgliederliste
Backup

 
Neuen Beitrag schreiben   Auf Beitrag antworten    Pro-Linux Foren-Übersicht -> Sonstiges
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
peterm



Anmeldungsdatum: 16.09.2000
Beiträge: 287

BeitragVerfasst am: 11. Jun 2002 16:59   Titel: Backup

Hi,

da ich meine Festplatte etwas aufräumen will, habe ich vor, ein Backup mit anschließendem Löschen der Daten von Festplatte zu machen.
Über die Monate haben sich auf meiner Festplatte ca. 5.39 GB an Daten angesammelt.

Es sind zumeist Videos, Bilder, Audios und sonstige Multimediainhalte sowie kleinere Archive,
also Daten, die bereits komprimiert sind; deshalb sehe ich davon ab, sie mit einem minimalen Gewinn extra in .bz2`s zu encodieren.

Ich habe bereits alle Daten schön geordnet in einen Ordner (auf meiner Win-Partition) abgelegt. Der Ordner hat, wie gesagt, 5.39 GB.

Als einziges Mittel steht mir das Brennen auf CD`s zur Verfügung, ein Bandlaufwerk oder ähnliches habe ich leider nicht.
Auf 650 - MB Rohlinge gebrannt wären es 9 CD`s. Ich muss die Daten allerdings vorher über Netzwerk (100 MBit) auf einen 2. PC kopieren, da sich der Brenner dort befindet.

Folgende einfache Methode habe ich mir überlegt:

Ich packe die Daten in ein großes Tar-File, zerlege dieses mittels GNU split in lauter 650 - MB Stücke, und brenne diese auf die CD`s. Wenn ich eine bestimmte Datei extrahieren will, lege ich die richtige CD ein, öffne das Tar-File z.B. mit ark und hole mir die einzelne Datei. Der einzige Nachteil wäre, dass Daten, die über die Grenze zum nächsten split gehen, zerschnitten werden, ich müsste also zwei Archive logisch verbinden (mit cat), um eine solche Datei zu extrahieren.

Meine Frage:
Gibt es eine elegantere Lösung als die von mir vorgeschlagene, vielleicht "intelligentes Backupen", mit dem ich Vorteile gegenüber meiner "billigen" Methode habe?

Es ist wichtig, dass ich Daten schnell extrahieren kann, also ohne eine umständliche Prozedur vorher starten zu müssen.

Gibt es eine bessere Version des Backup`s als meine, die für mich interessant sein könnte?

Vielen Dank für jede Hilfe,

cu
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden

tuxic trace
Gast





BeitragVerfasst am: 12. Jun 2002 14:18   Titel: Re: Backup

Bist Du sicher, das Du ein "gesplittetes" tar file extrahieren kannst ? Insbesondere, wenn es sich um eines in der Mitte handelt ?
 

peterm



Anmeldungsdatum: 16.09.2000
Beiträge: 287

BeitragVerfasst am: 12. Jun 2002 14:34   Titel: Re: Backup

Hi tuxic trace,

hast Recht, es geht nicht... gerade ausprobiert.

Weiß jemand eine geeignete Backup-Methode?

cu
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden

Bob Gomorrha
Gast





BeitragVerfasst am: 12. Jun 2002 15:04   Titel: Re: Backup

Kennt jemand http://www.freshmeat.net ?

OK - Spass beiseite. Wenn ich Dich richtig verstanden habe, sollte das Deine Lösung sein:

http://scdbackup.webframe.org/main_eng.html
 

peterm



Anmeldungsdatum: 16.09.2000
Beiträge: 287

BeitragVerfasst am: 14. Jun 2002 19:43   Titel: Re: Backup

Hi,

@ Bob Gomorrha:

Ja, stell dir vor, ich kenne freshmeat.net , aber ich wollte ja die Methode wissen.
Es hätte z.B. auch sein können, dass man ein gewieftes Shell-Script machen kann, das berechnet,
mit welcher Kombination von den Dateien es die 650 - MB pro CD am besten ausnutzt.

scdbackup trifft es offenbar sehr gut, nur habe ich das Problem, dass auf dem 2. PC nur Win drauf ist und er nicht ans
Inet angeschlossen ist... Aber ich kann Debian dort installieren, indem ich mir einen router (oder proxy?) baue (DSL).
Vielen Dank, Bob!

cu
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden

Beiträge vom vorherigen Thema anzeigen:   
     Pro-Linux Foren-Übersicht -> Sonstiges Alle Zeiten sind GMT + 1 Stunde
Seite 1 von 1

 
Gehen Sie zu:  

Powered by phpBB © phpBB Group
pro_linux Theme © 2004 by Mandaxy