Login
Newsletter
Werbung

Thema: Zwei neue Backup-Programme für Linux

31 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
1
Von kljh am Mo, 4. Juni 2012 um 10:33 #

Und warum ist das sicher? Kann er das beweisen?

[
| Versenden | Drucken ]
0
Von Unerkannt am Mo, 4. Juni 2012 um 11:29 #

...save the block to a repository of backed up files, under its cryptographic digest - but only if the repo doesn't already have a copy of that particular block (digest)

Bleibt zu hoffen, dass das Auftreten von Kollisionen zweier Hashs nicht von Backshift ausgeschlossen wird.

[
| Versenden | Drucken ]
0
Von glasen am Mo, 4. Juni 2012 um 12:02 #

War das nicht derjenige, welcher damals den Namen "Linux" für den Linus Torvalds Kernelexperiment erfand?

[
| Versenden | Drucken ]
0
Von pvb am Mo, 4. Juni 2012 um 13:46 #

reicht mir privat.

Das lässt sich dann auch überall leicht wieder auspacken.

Die Ordner "Musik", "Fotos", "Filme", "VirtuelleMaschinen" und "htdocs"
speichert man sinnvollerweise ausserhalb von
/home/user
und legt nur einen logischen Link dahin unter home an,
damit tar nur noch die normalen Daten einpacken muss.
Für MySQL Datenbank kann das script vorher ja auch noch ein mysqldump machen.

[
| Versenden | Drucken ]
0
Von spiderbit am Mo, 4. Juni 2012 um 14:59 #

@daily cd ; git diff --exit-code || ( git add -A && git commit -m "daily snapshot" || echo 'backup failed' | sendxmpp -t )

alternativ kann man natürlich auch mailx oder sowas verwenden oder sendmail oder wie das kommando heißt!

vorher habe ich git init .; git add ... ; git commit ...; gemacht und das .git ordner auf ne andere festplatte getan.

immerhin besser wie raid da hier kein einfacher dateisystemfehler zu starken problemen führen kann, aber klar bei feuer oder sowas hilft das alles nix.

Aber ist für Private daten wo keine Firma pleite wäre wenn sie verloren gingen.

Ja ich weiß git ist nicht so gut für große Dateien bei dem nas hier das nur 32bit kann verweigert sich git sogar ganz bei dateien > 4gb, aber das hier kein großes Problem.

Ansonsten müsste man noch mit find solche dateien in enie .gitignore liste rein stecken und diese eventuell gesondert speichern.

was mir daran sehr gefällt ist das ich mich mit git aus kenne und ich nicht eventuell durch einen falschen restore befehl noch mist baue.

Ein weiterer nachteil dieser Lösung ist das wenn die daten mal zu viel werden sollten (ist hier wohl auch lange kein problem) ich ncoh nciht so richtig weiß wie ich einen teil der history besonders den 1. commit vergessen lassen kann.

hatte zuerst was professionelleres im Einsatz aber rsync finde ich keine gute alternative.

gibt auch bestrebungen git oder git änliche Systeme aufzubauen die besser mit großen dateine umgehen können aber da schien mir bisher noch nix brauchbar mal für den fall.

git-bigfiles (das sollte wieder in normlae git zurück gemerged werden)
git annex
bup
...

also da seh ich noch was kommen was besser ist, achja auch ein weniger punkt den mein backup hier nicht abdeckt datei reichte, aber das ist da da es kein root-system ist auch nicht relevant, aber sicher für eine gute backuplösung absolut wichtig.

Mir kommts eben so vor das alles was es sonst so gibt entweder noch sehr jung ist und teils buggy oder zumindest nicht feature-complete z.B. bup oder lahm ist z.B. backuppc.

git funtzt wunderbar und schnell auf dem kleinen nas von meinem daddy und tut was es soll.

Aber freu mich wenn sich hier was tut, die ganzen alten backupgeschichten rsync basiert sind meines erachtends seit git veraltet und ein backupprogramm soll zwar mehr können wie git aber nicht irgendwie zu git große abstrichte machen.

außerdem ist ein schönes interface das man fast aus dem ff kann zum backups handeln natürlich schöner als irgend ein spezial-interface wo ich dann vielleicht beim restore versuch ausversehen was kaputt mach.

[
| Versenden | Drucken ]
  • 0
    Von spiderbit am Mo, 4. Juni 2012 um 15:02 #

    sorry für die fehlerhaften sätze glaub man versteht was gemeint ist, hab noch nicht genug tee getrunken. Das Mail-sende-commando heißt natürlich mailx und nicht sendmail ^^ und auch nicht "das .git" Ordner...

    [
    | Versenden | Drucken ]
    0
    Von noch ne kleine ergänzung am Mo, 4. Juni 2012 um 15:33 #

    für backups von einem rechner auf das nas was ja eher der normalfall sein sollte, verwende ich dann gerne sparkleshare, das auch über git funktioniert.

    Geht hier auch primär um irgendwelche openoffce Dokumente oder sowas nicht um ganze Linuxe oder sowas.

    Es mag schwächen haben aber es hat auch ein paar stärken die mir hier eben wichtig waren.

    1. es geht weitgehend automatisch
    2. es backupt sehr oft, ständig wenn es zugriff zum backup-server hat.
    3. man kann es auch noch benutzen um verzeichnise zu sharen zwischen 2 clients oder mehr.

    an git gefiehl mir immer auch, natürlich primär für sourcecode das es automatisch auch ein backup war, und meistens ein vielfaches oft hat man den source dann mit der ganzen history an 5 verschiedenen stellen besser wie jedes verdopplungs-backup verfahren.

    gut in wirklichkeit könnte man das ganze auch unter cloud einstufen, aber cloud ist wohl neben anderem das neue backup. gibt hier ja z.b. auch owncloud das hat wohl auch ne history, sync-mechanismus und speichert teilweise die daten verschlüsselt, das ist natürlich mehr als NUR ein backup, aber es ist auch ein backup. Auch wenn mir owncloud noch zu buggy vor kommt als das ichs für backup benutzen würde.

    [
    | Versenden | Drucken ]
0
Von Katalog am Mo, 4. Juni 2012 um 15:40 #

Da hier ja viele tar verwenden und auch ich mir mal ein Skript zum Sichern auf DVD programmiert habe: Wie macht ihr das mit dem Wiederfinden der Datei bzw. dem passendem Medium?

Ich lasse mir den Inhalt des Mediums mit tar in eine Datei ausgeben, die dann quasi als Katalog dient und im Restore-Fall nach der Datei gegrept wird. So weiß ich dann, auf welchem Medium die Datei zu finden ist.

Wie macht ihr das?

[
| Versenden | Drucken ]
  • 0
    Von pvb am Mo, 4. Juni 2012 um 16:12 #

    Verzeichnis aufllisten:
    tar -tvf dateiname.tar.gz

    evtl.
    tar -tvf dateiname.tar.gz | grep muster

    und extrahieren mit ark

    [
    | Versenden | Drucken ]
0
Von Ikke am Mo, 4. Juni 2012 um 17:20 #

Ich selbst hab früher mit nem rsync Skript gesichert.
Wollte dann aber lieber was mit GUI.

Also dann lange per BackInTime gesichert
und seit ein paar Monaten mit LuckyBackup.

LuckyBackup find ich geil :-)

[
| Versenden | Drucken ]
  • 0
    Von caco3 am Di, 5. Juni 2012 um 00:15 #

    Ich verwende seit Jahren BackInTime und bin sehr zufrieden. Es sichert bei mir täglich das Home und löscht ältere Backups automatisch.
    Was ich vermisse ist eine integration in Dolphin/Konqueror. Hat da LuckyBackup was?

    [
    | Versenden | Drucken ]
    0
    Von caco3 am Di, 5. Juni 2012 um 00:15 #

    Ich verwende seit Jahren BackInTime und bin sehr zufrieden. Es sichert bei mir täglich das Home und löscht ältere Backups automatisch.
    Was ich vermisse ist eine integration in Dolphin/Konqueror. Hat da LuckyBackup was?

    [
    | Versenden | Drucken ]
    0
    Von caco3 am Di, 5. Juni 2012 um 00:16 #

    Ich verwende seit Jahren BackInTime und bin sehr zufrieden. Es sichert bei mir täglich das Home und löscht ältere Backups automatisch.
    Was ich vermisse ist eine integration in Dolphin/Konqueror. Hat da LuckyBackup was?

    [
    | Versenden | Drucken ]
0
Von tuxglas am Fr, 8. November 2013 um 17:31 #

"warum er ein weiteres Backup-Programm entwickeln musste" kann ich mir eigentlich nicht erklären. Alles was man für ein Onlinebackup (und ein lokales Backup sowieso) benötigt ist rsnapshot und rsync. Wenn man das Ergebnis dann noch verschlüsseln will, geht das auch mit Boardmitteln. Man muss sich mit den Dingen nur auseinander setzen.

Aber hey, jeder ist seines Glückes Schmied ...

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung