Login
Newsletter
Werbung

Thema: Disaster Recovery mit Hilfe der richtigen Backup-Strategie

21 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von Jürgen Sauer am Do, 7. November 2013 um 15:11 #

Ein Dank an dieser stelle.
Jojo

[
| Versenden | Drucken ]
0
Von asdfghjkl am Do, 7. November 2013 um 15:27 #

Too long; didn't read

Nee, im Ernst: Interessanter Artkel, den ich später noch einmal in Ruhe durchlesen werde. Danke!

[
| Versenden | Drucken ]
  • 0
    Von DH am Do, 7. November 2013 um 16:17 #

    Wirklich ein sehr interessanter Artikel.
    Vielen Dank dafür.

    [
    | Versenden | Drucken ]
    1
    Von ups am Do, 7. November 2013 um 16:21 #

    Ganz schön umfangreich, was für die Abendstunden ;-)

    Selbst nehme das geniale Areca-Backup
    http://www.areca-backup.org/

    und für images zsplit/zunsplit
    http://www.device-image.de/

    Für kleinere/mittlere Firmen würde ich Relax & Recover empfehlen, das bildedet sogar die grundlage für ein kommerzielles Tool ;-)
    http://relax-and-recover.org/
    https://www.heinlein-support.de/upload/unsere_vortraege/HS_Stressfreies-Disaster-Recovery-mit%20Relax-und-Recover.pdf
    http://de.slideshare.net/schlomo/linuxtag-2013-relax-and-recover-disaster-recovery-for-uefi-systems

    - have a lot of fun -

    [
    | Versenden | Drucken ]
    • 0
      Von mdosch am Do, 7. November 2013 um 17:13 #

      Areca sieht auf den ersten Blick ganz nett aus.
      Ich selbst hab nen cronjob mit rsync, aber vielleicht wäre das was für den Rechner der Eltern. Es gibt ja auch eine Windows-Version davon.

      @Golem,
      schöner Artikel, auch wenn ich ihn bisher nur überflogen habe.
      Was mir nicht ganz schlüssig war: Bei rsync wird -e als Parameter zum verschlüsseln genannt. Aber über ssh wird doch so oder so verschlüsselt übertragen. Mit -e kann man halt weitere Parameter an die Remote-Shell übergeben, wie z.B. -e 'ssh -p $NICHTSTANDARDPORT'.
      Also entweder habe ich die Formulierung in eurem Artikel falsch verstanden, oder einer von uns die Option -e. :D

      [
      | Versenden | Drucken ]
      • 0
        Von Randy Andy am Do, 7. November 2013 um 17:56 #

        Danke mdosch, gut aufgepasst.

        Der rsync Parameter -e ist in erster Linie zur Angabe alternativer remote shells gedacht und sollte an dieser Stelle besser nicht genannt werden.
        Wie ist der mir da nur reingerutscht... Korrigiere ich in meinem Manuskript, auch wenn es für die Veröffentlichung zu spät ist.

        Aber Du siehst ja wie leicht einem Fehler unterlaufen können, denn schließlich sind wir hier bei Pro-Linux und nicht bei Golem ;-)

        Gruß, Andy.

        [
        | Versenden | Drucken ]
        • 0
          Von mdosch am Do, 7. November 2013 um 19:39 #

          Kein Problem.
          Aber warum nur im Manuskript und nicht in der Veröffentlichung?
          Gastschreiber ohne direkten Zugriff? Ich denke die PL-Betreiber können da aushelfen. ;)

          [
          | Versenden | Drucken ]
          0
          Von mdosch am Do, 7. November 2013 um 19:44 #

          Ach shit, ich habe tatsächlich Golem geschrieben statt PL. Jetzt verstehe ich die Anspielung. :D
          Weiß gar nicht wie das passieren konnte, schließlich bin ich bei Golem nicht mal regestriert und habe daher auch noch nie Kommentare geschrieben. :huh:

          [
          | Versenden | Drucken ]
0
Von 1ras am Do, 7. November 2013 um 18:56 #

Ein sehr guter Grundlagenartikel, vielen Dank an den Autor!

Ein paar wenige Anmerkungen meinerseits dazu, vielleicht sind sie für den einen oder anderen Anwender hilfreich:

Zu Partitionsschema inkl. erweiterter Partitionstabellen sichern:

Je nach Verfügbarkeit kann Anstelle von partprobe auch "sfdisk -R /dev/sda" oder "blockdev --rereadpt /dev/sda" verwendet werden, um die Partitionstabelle eines Gerätes neu einzulesen.

Zu Sichern auf Dateiebene:

Dies hat ebenfalls den Vorteil, dass die Daten gleichzeitig defragmentiert werden, was auch bei sehr vollgeschriebenen ext2/3/4-Partitionen von Vorteil sein kann.

Zu Sichern durch Kopieren:

Ein "cp -a /mnt/sda1/* /mnt/sdb1" schließt versteckte Dateien im Hauptverzeichnis von /mnt/sda1 nicht mit ein, dessen sollte man sich bewusst sein.

[
| Versenden | Drucken ]
  • 0
    Von Randy Andy am Fr, 8. November 2013 um 09:59 #

    Danke für die konstruktive Rückmeldung und das Lob.

    Die zusätzlich von Dir genannten Optionen sind durchaus von Interesse für mich.

    Auch dein Hinweis bzgl. cp und der versteckten Dateien scheint mir angebracht.

    Gruß, Andy.

    [
    | Versenden | Drucken ]
0
Von anonymous am Do, 7. November 2013 um 19:06 #

... er befaßt sich nur mit Backups.

Zu einem DR-Plan gehört aber sehr viel mehr ...
- Im Vorfeld sollte man abklären, wo man bspw. Räumlichkeiten anmieten kann, denn bspw. im Brandfall braucht man soetwas.
- Mit dem Telekommunikationsunternehmen reden, welche Schritte notwendig sind, um bestimmte Rufnummern wohinauchimmer umzuleiten
- Abklären welche finance-critical Abläufe wann durchlaufen werden müssen (Zahlungen an FA, BG, sonstwas)
- Wer im Zweifel Zugang zu den extern ausgelagerten Backup-Medien hat (Schließfach einer Bank bspw.)
- usw. usf.

Ein wirklich guter DR-Plan kann u. U. sogar zur Senkung der Versicherungsprämie führen ... hat bei meinem ehemaligen Arbeitgeber dazu geführt, und später bei einem Kunden ... ;)

justmy2cents

[
| Versenden | Drucken ]
  • 0
    Von Klugscheisser am Do, 7. November 2013 um 21:29 #

    > Zu einem DR-Plan gehört aber sehr viel mehr ...

    Einen Notfallplan, damit jeder MA ohne Nachzudenken und Fehler zu machen das Richtige im Ablauf tut.
    Die Handgriffe müssen sitzen, das geht am Besten mit "üben".

    [
    | Versenden | Drucken ]
    0
    Von Randy Andy am Fr, 8. November 2013 um 10:20 #

    Ich ziele mit diesem Grundlagenartikel ja in erster Linie auf Privatanwender ab, dennoch enthält dieser ja auch einen Link Namens Datensicherung auf:
    https://de.wikipedia.org/wiki/Datensicherung

    Dort finden sich dann auch die von Dir als fehlend monierte weiterführende Hinweise. ;)

    [
    | Versenden | Drucken ]
1
Von Herzlos am Do, 7. November 2013 um 23:01 #

Der Artikel ist wirklich ausgezeichnet und sehr umfangreich.
Allerdings habe ich ebenfalls noch ein paar Anmerkungen:


Auf Seite 4 steht folgendes:


dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt
e2fsck -f -y /dev/sdyn; resize2fs -p -f /dev/sdyn

In solchen Fällen sollte man die einzelnen Befehle aber nicht mit einem Semikolon, sondern einem doppelten &, also && kombinieren.
Denn dadurch wird der darauffolgende Befehl nur dann ausgeführt, wenn der erste auch erfolgreich war.

In der ersten Zeile mag das noch egal sein, weil eine Datei, die nicht existiert, auch nicht gelöscht werden kann und selbst wenn sie nur fehlerhaft erstellt wurde, ist der darauffolgende Befehl egal.
Im zweiten Fall gehe ich aber mal stark davon aus, dass resize2fs stark von einem erfolgreichem
Abschluss des vorherigen Befehls abhängig ist, damit es nicht zu einem Datenverlust führt, deswegen sollte man diese beiden Befehle zwingend mit einem && anstatt einem Semikolon verknüpfen.

egal ob auf der Konsole mit cp oder mit dem Dateimanager der Wahl. Dann sollte man jedoch daran denken, alle Dateien einzuschließen.

Im Artikel wird alles kopiert, daher ist folgender Ratschlag in diesem Fall möglicherweise nicht von belang. Aber bezüglich den verfügbaren Dateimanagern gibt es durchaus große Unterschiede, wobei ich dann nur bei einer Dateimanagerwahl empfehlen kann, dass man dies beherzigt.
Denn manche Dateimanager versuchen, falls mehrere Kopiervorgänge vom Benutzer gestartet wurden, alle Kopiervorgänge gleichzeitig gleichermaßen zu bedienen. Auf Festplatten führt so etwas aber zu erheblichen Geschwindigkeitseinbußen, weil der Lesekopf immer zwischen den Dateien, der einzelnen Kopieranweisungen hin und herspringt.
Viel besser ist es daher, wenn man einen Dateimanager verwendet, der dies berücksichtigt und einzelne Kopierbefehle der Reihe nach abarbeitet, als alle Kopierbefehle gleichermaßen zu bedienen. Dadurch muss der Schreib- und Lesekopf der Festplatte nicht mehr so oft hin und herspringen und der gesamte Kopiervorgang geht schneller vonstatten.


Möchte man lediglich regelmäßig alle seine Nutzerdaten auf eine separate Festplatte sichern und das aus einem installierten Linux heraus, also ohne eine Live-CD zu booten, so braucht man lediglich dafür Sorge zu tragen, dass kein Nutzer angemeldet ist.

Dies kann man dadurch sicherstellen, dass man sich als root einlogged und dann das OS in den Single user Mode per init Befehl schaltet. Dadurch werden alle Nutzer aus dem System geworfen und man hat freie Hand. :)
Natürlich kann, wer will, die Benutzer vorher auch noch darauf hinweisen, aber wer das technisch sicherstellen möchte, dass kein Benutzer dazwischenfunken kann, der macht das am besten so per init in den Single User Mode. Sicher ist sicher.

Bezüglich rsync muss man aufpassen, wenn man Dateien von NTFS und AFAIK auch FAT Partitionen
sichern möchte. Damit dies Fehlerfrei funktioniert muss man rsync noch ein paar Optionen mitangeben. Leider weiß ich die nicht auswendig und momentan bin ich nicht unter Linux, aber ich kann ja später mal nachschauen.

Ebenfalls Schwierigkeiten kann das sichern von Truecryptcontainerdateien machen.
Hier empfehle ich die Truecrpytcontainerdateien zu mounten und dann erst mit rsync die Daten zu sichern, denn sonst kann es sein, dass rsync entweder gar nichts sichert, oder der Sicherungsvorgang bei entsprechend großem TC Container sehr lange dauert.


Ansonsten noch bedanke ich mich noch für den Hinweis auf das Tool Testdisk.
Ich suche momentan nämlich nach einer Lösung, wie man bei einem USB Stick mit dd eine Linux Live-ISO Image auf den Stick kopiert und dann trotzdem eine NTFS Partition hinter der Linux Live Partition so anlegen kann, das diese von Windows hinterher auch erkannt werden kann.
Denn das hat bei mir bisher nicht funktioniert.
Das kopieren des ISO Image mit dd auf den USB-Stick war kein Problem.
Auch das Anlegen einer neuen Partition hinter der Partition der nun eingerichteten Live Linux Partition war kein Problem.
Das Problem ist aber, dass ich die nur unter Linux mounten kann und Windows trotz NTFS als Dateisystem nichts mit ihr anfangen kann. Ich vermute daher das hier die Partitionstabelle für Windows fehlerhaft ist und dieses daher nichts damit anfangen kann.
Ob ich mit dem Tool dieses Problem lösen kann, werde ich noch herausfinden müssen.
Wer dazu Lösungsvorschläge hat, der kann die natürlich auch hier äußern, ich würde mich darüber freuen.

[
| Versenden | Drucken ]
  • 0
    Von Randy Andy am Fr, 8. November 2013 um 09:24 #

    Hi Herzlos,
    vielen Dank für das umfangreiche Feedback.

    Bekanntlich führen ja viele Wege nach Rom, doch die ein oder andere Anregung zur Verbesserung meines Artikels nehme ich gerne noch mit auf.

    In einem Punkt liegst muss ich Dir aber widersprechen:
    dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt

    Hier ist das Semikolon zur Trennung der Befehle durchaus berechtigt, da der Rückgabewert des Schreibvorganges nicht 0 sein wird, da er wegen Platzmangel abgebrochen werden wird, käme es sonst anschließend nicht mehr zur Löschung der gerade erzeugten Datei.


    Bezüglich deiner Frage zum USB-Stick mit nachgeschalteter NTFS Partition.
    AFAIK mag Windows seine zu sich selbst kompatiblen Partitionen wie z.B. NTFS nur erkennen, wenn diese vor den Fremdpartionen liegen. Du müsstest also dafür sorgen, das diese von ihrer Partitionsnummer her gesehen (nicht von der physikalischen Lage) vor der Linux-Partition liegen, damit diese erkannt werden.
    Das mag aber je nach Windows-Version im Verhalten unterschiedlich sein.
    Jedoch wirst Du nach dem Klonen, durch nachträgliche Manipulationen am Partitionsschema, vermutlich dessen Bootfähigkeit einbüßen und das willst Du sicher auch nicht.

    Hier gilt es dann diesen wiederherzustellen bzw. an das neue Partitionschema anzupassen, was jedoch eine bootloaderspezifische Operation ist, die dann im im Zweifel von Dir zu recherchieren und anzuwenden ist.

    Ich hab mir daher meine eigenen Bootsticks mit GRUB gebastelt, samt NTFS Partition inklusive Portable-Apps für die Arbeit, die unter XP und Vista gut funktionieren ;-)

    Gruß, Andy.

    [
    | Versenden | Drucken ]
    • 0
      Von Herzlos am Fr, 8. November 2013 um 16:31 #

      In einem Punkt liegst muss ich Dir aber widersprechen:
      dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt

      Hier ist das Semikolon zur Trennung der Befehle durchaus berechtigt, da der Rückgabewert des Schreibvorganges nicht 0 sein wird, da er wegen Platzmangel abgebrochen werden wird, käme es sonst anschließend nicht mehr zur Löschung der gerade erzeugten Datei.

      Da hast du Recht, das habe ich übersehen.

      AFAIK mag Windows seine zu sich selbst kompatiblen Partitionen wie z.B. NTFS nur erkennen, wenn diese vor den Fremdpartionen liegen. Du müsstest also dafür sorgen, das diese von ihrer Partitionsnummer her gesehen (nicht von der physikalischen Lage) vor der Linux-Partition liegen, damit diese erkannt werden.
      Das mag aber je nach Windows-Version im Verhalten unterschiedlich sein.
      Klingt plausibel. Danke für den Hinweis.
      Ich werde mal schauen, ob ich die Linux Partition mit der Live Version hinter die NTFS Partition bekomme.

      [
      | Versenden | Drucken ]
    0
    Von Sie haben vergessen, Ihren Nam am Di, 12. November 2013 um 16:35 #

    Wozu das -f von resize2fs? Die "safety checks" können sicher nicht schaden.

    Ansonsten noch des (besserwisserische) Hinweis, dass dd meistens durch cp ersetzt werden kann.

    [
    | Versenden | Drucken ]
0
Von 214 am Mo, 11. November 2013 um 22:06 #

Ein Hallo in die Runde

Hat jemand eine Idee, wie man ein btrfs auf verschiedene Standorte verteilen könnte? Ich stell mir das so vor, dass tagsüber nur mit einer im LAN vorhandenen via NFS exportierten Disk gearbeitet wird. (Alles lokal und schnell) Während in der Nacht ein Snapshot als Backup erstellt wird und dieser Snapshot inkrementel über das Internet in ein gespiegeltes btrfs nachgetragen wird?

So etwas wie ein hotcopy in Subversion.

Gruss, Markus

[
| Versenden | Drucken ]
  • 0
    Von Sie haben vergessen, Ihren Nam am Mi, 13. November 2013 um 18:41 #

    Wenn btrfs den Snapshot auf ein anderes Block Device schreiben kann (?), könnte man vielleicht mit Network Block Device etwas basteln.

    [
    | Versenden | Drucken ]
0
Von Paul Sommer am Sa, 5. März 2016 um 16:13 #

Ein alter Artikel, aber immer noch aktuell; ich traue mich deshalb ihn noch zu kommentieren. :)

Artikel mit den diversen Tools zum Kopieren gibt es ja viele, wenn auch selten so erschöpfend wie diesen hier, dafür schon mal ein herzliches Danke schön.

Was ich aber überall (und auch hier) vermisse sind drei Aspekte:
1. Welche Dateien kann/nuss man weglassen (tmp, cache, Gerätedateien, usw)
2. Ist es möglich ein laufendes System (ohne angemeldete Benutzer) automatisiert so zu sichern, dass man damit ein desaster recovery durchführen kann? Welche Dienste sind ggf. vorher zu stoppen (z.B . MySQL)
3. Ich würde vor dem Backup gerne in den single-user Modus wechseln oder, besser noch, eine minimierte Service-Installation booten, dann die Sicherung machen und dann zurück in's normale System, aber AUTOMATISIERT. Geht so etwas?

Vielleicht gibt's ja Links zu dem Thema. Ich habe leider noch nichts gefunden.

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung