Selbst nehme das geniale Areca-Backup http://www.areca-backup.org/
und für images zsplit/zunsplit http://www.device-image.de/
Für kleinere/mittlere Firmen würde ich Relax & Recover empfehlen, das bildedet sogar die grundlage für ein kommerzielles Tool ;-) http://relax-and-recover.org/ https://www.heinlein-support.de/upload/unsere_vortraege/HS_Stressfreies-Disaster-Recovery-mit%20Relax-und-Recover.pdf http://de.slideshare.net/schlomo/linuxtag-2013-relax-and-recover-disaster-recovery-for-uefi-systems
Areca sieht auf den ersten Blick ganz nett aus. Ich selbst hab nen cronjob mit rsync, aber vielleicht wäre das was für den Rechner der Eltern. Es gibt ja auch eine Windows-Version davon.
@Golem, schöner Artikel, auch wenn ich ihn bisher nur überflogen habe. Was mir nicht ganz schlüssig war: Bei rsync wird -e als Parameter zum verschlüsseln genannt. Aber über ssh wird doch so oder so verschlüsselt übertragen. Mit -e kann man halt weitere Parameter an die Remote-Shell übergeben, wie z.B. -e 'ssh -p $NICHTSTANDARDPORT'. Also entweder habe ich die Formulierung in eurem Artikel falsch verstanden, oder einer von uns die Option -e.
Der rsync Parameter -e ist in erster Linie zur Angabe alternativer remote shells gedacht und sollte an dieser Stelle besser nicht genannt werden. Wie ist der mir da nur reingerutscht... Korrigiere ich in meinem Manuskript, auch wenn es für die Veröffentlichung zu spät ist.
Aber Du siehst ja wie leicht einem Fehler unterlaufen können, denn schließlich sind wir hier bei Pro-Linux und nicht bei Golem
Kein Problem. Aber warum nur im Manuskript und nicht in der Veröffentlichung? Gastschreiber ohne direkten Zugriff? Ich denke die PL-Betreiber können da aushelfen.
Ach shit, ich habe tatsächlich Golem geschrieben statt PL. Jetzt verstehe ich die Anspielung. :D Weiß gar nicht wie das passieren konnte, schließlich bin ich bei Golem nicht mal regestriert und habe daher auch noch nie Kommentare geschrieben.
Ein sehr guter Grundlagenartikel, vielen Dank an den Autor!
Ein paar wenige Anmerkungen meinerseits dazu, vielleicht sind sie für den einen oder anderen Anwender hilfreich:
Zu Partitionsschema inkl. erweiterter Partitionstabellen sichern:
Je nach Verfügbarkeit kann Anstelle von partprobe auch "sfdisk -R /dev/sda" oder "blockdev --rereadpt /dev/sda" verwendet werden, um die Partitionstabelle eines Gerätes neu einzulesen.
Zu Sichern auf Dateiebene:
Dies hat ebenfalls den Vorteil, dass die Daten gleichzeitig defragmentiert werden, was auch bei sehr vollgeschriebenen ext2/3/4-Partitionen von Vorteil sein kann.
Zu Sichern durch Kopieren:
Ein "cp -a /mnt/sda1/* /mnt/sdb1" schließt versteckte Dateien im Hauptverzeichnis von /mnt/sda1 nicht mit ein, dessen sollte man sich bewusst sein.
Zu einem DR-Plan gehört aber sehr viel mehr ... - Im Vorfeld sollte man abklären, wo man bspw. Räumlichkeiten anmieten kann, denn bspw. im Brandfall braucht man soetwas. - Mit dem Telekommunikationsunternehmen reden, welche Schritte notwendig sind, um bestimmte Rufnummern wohinauchimmer umzuleiten - Abklären welche finance-critical Abläufe wann durchlaufen werden müssen (Zahlungen an FA, BG, sonstwas) - Wer im Zweifel Zugang zu den extern ausgelagerten Backup-Medien hat (Schließfach einer Bank bspw.) - usw. usf.
Ein wirklich guter DR-Plan kann u. U. sogar zur Senkung der Versicherungsprämie führen ... hat bei meinem ehemaligen Arbeitgeber dazu geführt, und später bei einem Kunden ...
Von Klugscheisser am Do, 7. November 2013 um 21:29 #
> Zu einem DR-Plan gehört aber sehr viel mehr ...
Einen Notfallplan, damit jeder MA ohne Nachzudenken und Fehler zu machen das Richtige im Ablauf tut. Die Handgriffe müssen sitzen, das geht am Besten mit "üben".
Ich ziele mit diesem Grundlagenartikel ja in erster Linie auf Privatanwender ab, dennoch enthält dieser ja auch einen Link Namens Datensicherung auf: https://de.wikipedia.org/wiki/Datensicherung
Dort finden sich dann auch die von Dir als fehlend monierte weiterführende Hinweise.
In solchen Fällen sollte man die einzelnen Befehle aber nicht mit einem Semikolon, sondern einem doppelten &, also && kombinieren. Denn dadurch wird der darauffolgende Befehl nur dann ausgeführt, wenn der erste auch erfolgreich war.
In der ersten Zeile mag das noch egal sein, weil eine Datei, die nicht existiert, auch nicht gelöscht werden kann und selbst wenn sie nur fehlerhaft erstellt wurde, ist der darauffolgende Befehl egal. Im zweiten Fall gehe ich aber mal stark davon aus, dass resize2fs stark von einem erfolgreichem Abschluss des vorherigen Befehls abhängig ist, damit es nicht zu einem Datenverlust führt, deswegen sollte man diese beiden Befehle zwingend mit einem && anstatt einem Semikolon verknüpfen.
egal ob auf der Konsole mit cp oder mit dem Dateimanager der Wahl. Dann sollte man jedoch daran denken, alle Dateien einzuschließen.
Im Artikel wird alles kopiert, daher ist folgender Ratschlag in diesem Fall möglicherweise nicht von belang. Aber bezüglich den verfügbaren Dateimanagern gibt es durchaus große Unterschiede, wobei ich dann nur bei einer Dateimanagerwahl empfehlen kann, dass man dies beherzigt. Denn manche Dateimanager versuchen, falls mehrere Kopiervorgänge vom Benutzer gestartet wurden, alle Kopiervorgänge gleichzeitig gleichermaßen zu bedienen. Auf Festplatten führt so etwas aber zu erheblichen Geschwindigkeitseinbußen, weil der Lesekopf immer zwischen den Dateien, der einzelnen Kopieranweisungen hin und herspringt. Viel besser ist es daher, wenn man einen Dateimanager verwendet, der dies berücksichtigt und einzelne Kopierbefehle der Reihe nach abarbeitet, als alle Kopierbefehle gleichermaßen zu bedienen. Dadurch muss der Schreib- und Lesekopf der Festplatte nicht mehr so oft hin und herspringen und der gesamte Kopiervorgang geht schneller vonstatten.
Möchte man lediglich regelmäßig alle seine Nutzerdaten auf eine separate Festplatte sichern und das aus einem installierten Linux heraus, also ohne eine Live-CD zu booten, so braucht man lediglich dafür Sorge zu tragen, dass kein Nutzer angemeldet ist.
Dies kann man dadurch sicherstellen, dass man sich als root einlogged und dann das OS in den Single user Mode per init Befehl schaltet. Dadurch werden alle Nutzer aus dem System geworfen und man hat freie Hand. :) Natürlich kann, wer will, die Benutzer vorher auch noch darauf hinweisen, aber wer das technisch sicherstellen möchte, dass kein Benutzer dazwischenfunken kann, der macht das am besten so per init in den Single User Mode. Sicher ist sicher.
Bezüglich rsync muss man aufpassen, wenn man Dateien von NTFS und AFAIK auch FAT Partitionen sichern möchte. Damit dies Fehlerfrei funktioniert muss man rsync noch ein paar Optionen mitangeben. Leider weiß ich die nicht auswendig und momentan bin ich nicht unter Linux, aber ich kann ja später mal nachschauen.
Ebenfalls Schwierigkeiten kann das sichern von Truecryptcontainerdateien machen. Hier empfehle ich die Truecrpytcontainerdateien zu mounten und dann erst mit rsync die Daten zu sichern, denn sonst kann es sein, dass rsync entweder gar nichts sichert, oder der Sicherungsvorgang bei entsprechend großem TC Container sehr lange dauert.
Ansonsten noch bedanke ich mich noch für den Hinweis auf das Tool Testdisk. Ich suche momentan nämlich nach einer Lösung, wie man bei einem USB Stick mit dd eine Linux Live-ISO Image auf den Stick kopiert und dann trotzdem eine NTFS Partition hinter der Linux Live Partition so anlegen kann, das diese von Windows hinterher auch erkannt werden kann. Denn das hat bei mir bisher nicht funktioniert. Das kopieren des ISO Image mit dd auf den USB-Stick war kein Problem. Auch das Anlegen einer neuen Partition hinter der Partition der nun eingerichteten Live Linux Partition war kein Problem. Das Problem ist aber, dass ich die nur unter Linux mounten kann und Windows trotz NTFS als Dateisystem nichts mit ihr anfangen kann. Ich vermute daher das hier die Partitionstabelle für Windows fehlerhaft ist und dieses daher nichts damit anfangen kann. Ob ich mit dem Tool dieses Problem lösen kann, werde ich noch herausfinden müssen. Wer dazu Lösungsvorschläge hat, der kann die natürlich auch hier äußern, ich würde mich darüber freuen.
Hi Herzlos, vielen Dank für das umfangreiche Feedback.
Bekanntlich führen ja viele Wege nach Rom, doch die ein oder andere Anregung zur Verbesserung meines Artikels nehme ich gerne noch mit auf.
In einem Punkt liegst muss ich Dir aber widersprechen: dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt
Hier ist das Semikolon zur Trennung der Befehle durchaus berechtigt, da der Rückgabewert des Schreibvorganges nicht 0 sein wird, da er wegen Platzmangel abgebrochen werden wird, käme es sonst anschließend nicht mehr zur Löschung der gerade erzeugten Datei.
Bezüglich deiner Frage zum USB-Stick mit nachgeschalteter NTFS Partition. AFAIK mag Windows seine zu sich selbst kompatiblen Partitionen wie z.B. NTFS nur erkennen, wenn diese vor den Fremdpartionen liegen. Du müsstest also dafür sorgen, das diese von ihrer Partitionsnummer her gesehen (nicht von der physikalischen Lage) vor der Linux-Partition liegen, damit diese erkannt werden. Das mag aber je nach Windows-Version im Verhalten unterschiedlich sein. Jedoch wirst Du nach dem Klonen, durch nachträgliche Manipulationen am Partitionsschema, vermutlich dessen Bootfähigkeit einbüßen und das willst Du sicher auch nicht.
Hier gilt es dann diesen wiederherzustellen bzw. an das neue Partitionschema anzupassen, was jedoch eine bootloaderspezifische Operation ist, die dann im im Zweifel von Dir zu recherchieren und anzuwenden ist.
Ich hab mir daher meine eigenen Bootsticks mit GRUB gebastelt, samt NTFS Partition inklusive Portable-Apps für die Arbeit, die unter XP und Vista gut funktionieren
In einem Punkt liegst muss ich Dir aber widersprechen: dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt
Hier ist das Semikolon zur Trennung der Befehle durchaus berechtigt, da der Rückgabewert des Schreibvorganges nicht 0 sein wird, da er wegen Platzmangel abgebrochen werden wird, käme es sonst anschließend nicht mehr zur Löschung der gerade erzeugten Datei.
Da hast du Recht, das habe ich übersehen.
AFAIK mag Windows seine zu sich selbst kompatiblen Partitionen wie z.B. NTFS nur erkennen, wenn diese vor den Fremdpartionen liegen. Du müsstest also dafür sorgen, das diese von ihrer Partitionsnummer her gesehen (nicht von der physikalischen Lage) vor der Linux-Partition liegen, damit diese erkannt werden. Das mag aber je nach Windows-Version im Verhalten unterschiedlich sein.
Klingt plausibel. Danke für den Hinweis. Ich werde mal schauen, ob ich die Linux Partition mit der Live Version hinter die NTFS Partition bekomme.
Hat jemand eine Idee, wie man ein btrfs auf verschiedene Standorte verteilen könnte? Ich stell mir das so vor, dass tagsüber nur mit einer im LAN vorhandenen via NFS exportierten Disk gearbeitet wird. (Alles lokal und schnell) Während in der Nacht ein Snapshot als Backup erstellt wird und dieser Snapshot inkrementel über das Internet in ein gespiegeltes btrfs nachgetragen wird?
Ein alter Artikel, aber immer noch aktuell; ich traue mich deshalb ihn noch zu kommentieren.
Artikel mit den diversen Tools zum Kopieren gibt es ja viele, wenn auch selten so erschöpfend wie diesen hier, dafür schon mal ein herzliches Danke schön.
Was ich aber überall (und auch hier) vermisse sind drei Aspekte: 1. Welche Dateien kann/nuss man weglassen (tmp, cache, Gerätedateien, usw) 2. Ist es möglich ein laufendes System (ohne angemeldete Benutzer) automatisiert so zu sichern, dass man damit ein desaster recovery durchführen kann? Welche Dienste sind ggf. vorher zu stoppen (z.B . MySQL) 3. Ich würde vor dem Backup gerne in den single-user Modus wechseln oder, besser noch, eine minimierte Service-Installation booten, dann die Sicherung machen und dann zurück in's normale System, aber AUTOMATISIERT. Geht so etwas?
Vielleicht gibt's ja Links zu dem Thema. Ich habe leider noch nichts gefunden.
Ein Dank an dieser stelle.
Jojo
Too long; didn't read
Nee, im Ernst: Interessanter Artkel, den ich später noch einmal in Ruhe durchlesen werde. Danke!
Wirklich ein sehr interessanter Artikel.
Vielen Dank dafür.
Ganz schön umfangreich, was für die Abendstunden
Selbst nehme das geniale Areca-Backup
http://www.areca-backup.org/
und für images zsplit/zunsplit
http://www.device-image.de/
Für kleinere/mittlere Firmen würde ich Relax & Recover empfehlen, das bildedet sogar die grundlage für ein kommerzielles Tool ;-)
http://relax-and-recover.org/
https://www.heinlein-support.de/upload/unsere_vortraege/HS_Stressfreies-Disaster-Recovery-mit%20Relax-und-Recover.pdf
http://de.slideshare.net/schlomo/linuxtag-2013-relax-and-recover-disaster-recovery-for-uefi-systems
- have a lot of fun -
Areca sieht auf den ersten Blick ganz nett aus.
Ich selbst hab nen cronjob mit rsync, aber vielleicht wäre das was für den Rechner der Eltern. Es gibt ja auch eine Windows-Version davon.
@Golem,
schöner Artikel, auch wenn ich ihn bisher nur überflogen habe.
Was mir nicht ganz schlüssig war: Bei rsync wird -e als Parameter zum verschlüsseln genannt. Aber über ssh wird doch so oder so verschlüsselt übertragen. Mit -e kann man halt weitere Parameter an die Remote-Shell übergeben, wie z.B. -e 'ssh -p $NICHTSTANDARDPORT'.
Also entweder habe ich die Formulierung in eurem Artikel falsch verstanden, oder einer von uns die Option -e.
Danke mdosch, gut aufgepasst.
Der rsync Parameter -e ist in erster Linie zur Angabe alternativer remote shells gedacht und sollte an dieser Stelle besser nicht genannt werden.
Wie ist der mir da nur reingerutscht... Korrigiere ich in meinem Manuskript, auch wenn es für die Veröffentlichung zu spät ist.
Aber Du siehst ja wie leicht einem Fehler unterlaufen können, denn schließlich sind wir hier bei Pro-Linux und nicht bei Golem
Gruß, Andy.
Kein Problem.
Aber warum nur im Manuskript und nicht in der Veröffentlichung?
Gastschreiber ohne direkten Zugriff? Ich denke die PL-Betreiber können da aushelfen.
Ich werde noch etwas Feedback sammeln, einarbeiten und dann Hjb nochmal kontaktieren.
Vielleicht ist er ja geneigt das noch Nachzupflegen.
Ach shit, ich habe tatsächlich Golem geschrieben statt PL. Jetzt verstehe ich die Anspielung. :D
Weiß gar nicht wie das passieren konnte, schließlich bin ich bei Golem nicht mal regestriert und habe daher auch noch nie Kommentare geschrieben.
Ein sehr guter Grundlagenartikel, vielen Dank an den Autor!
Ein paar wenige Anmerkungen meinerseits dazu, vielleicht sind sie für den einen oder anderen Anwender hilfreich:
Zu Partitionsschema inkl. erweiterter Partitionstabellen sichern:
Je nach Verfügbarkeit kann Anstelle von partprobe auch "sfdisk -R /dev/sda" oder "blockdev --rereadpt /dev/sda" verwendet werden, um die Partitionstabelle eines Gerätes neu einzulesen.
Zu Sichern auf Dateiebene:
Dies hat ebenfalls den Vorteil, dass die Daten gleichzeitig defragmentiert werden, was auch bei sehr vollgeschriebenen ext2/3/4-Partitionen von Vorteil sein kann.
Zu Sichern durch Kopieren:
Ein "cp -a /mnt/sda1/* /mnt/sdb1" schließt versteckte Dateien im Hauptverzeichnis von /mnt/sda1 nicht mit ein, dessen sollte man sich bewusst sein.
Danke für die konstruktive Rückmeldung und das Lob.
Die zusätzlich von Dir genannten Optionen sind durchaus von Interesse für mich.
Auch dein Hinweis bzgl. cp und der versteckten Dateien scheint mir angebracht.
Gruß, Andy.
... er befaßt sich nur mit Backups.
Zu einem DR-Plan gehört aber sehr viel mehr ...
- Im Vorfeld sollte man abklären, wo man bspw. Räumlichkeiten anmieten kann, denn bspw. im Brandfall braucht man soetwas.
- Mit dem Telekommunikationsunternehmen reden, welche Schritte notwendig sind, um bestimmte Rufnummern wohinauchimmer umzuleiten
- Abklären welche finance-critical Abläufe wann durchlaufen werden müssen (Zahlungen an FA, BG, sonstwas)
- Wer im Zweifel Zugang zu den extern ausgelagerten Backup-Medien hat (Schließfach einer Bank bspw.)
- usw. usf.
Ein wirklich guter DR-Plan kann u. U. sogar zur Senkung der Versicherungsprämie führen ... hat bei meinem ehemaligen Arbeitgeber dazu geführt, und später bei einem Kunden ...
justmy2cents
> Zu einem DR-Plan gehört aber sehr viel mehr ...
Einen Notfallplan, damit jeder MA ohne Nachzudenken und Fehler zu machen das Richtige im Ablauf tut.
Die Handgriffe müssen sitzen, das geht am Besten mit "üben".
Ich ziele mit diesem Grundlagenartikel ja in erster Linie auf Privatanwender ab, dennoch enthält dieser ja auch einen Link Namens Datensicherung auf:
https://de.wikipedia.org/wiki/Datensicherung
Dort finden sich dann auch die von Dir als fehlend monierte weiterführende Hinweise.
Der Artikel ist wirklich ausgezeichnet und sehr umfangreich.
Allerdings habe ich ebenfalls noch ein paar Anmerkungen:
Auf Seite 4 steht folgendes:
In solchen Fällen sollte man die einzelnen Befehle aber nicht mit einem Semikolon, sondern einem doppelten &, also && kombinieren.
Denn dadurch wird der darauffolgende Befehl nur dann ausgeführt, wenn der erste auch erfolgreich war.
In der ersten Zeile mag das noch egal sein, weil eine Datei, die nicht existiert, auch nicht gelöscht werden kann und selbst wenn sie nur fehlerhaft erstellt wurde, ist der darauffolgende Befehl egal.
Im zweiten Fall gehe ich aber mal stark davon aus, dass resize2fs stark von einem erfolgreichem
Abschluss des vorherigen Befehls abhängig ist, damit es nicht zu einem Datenverlust führt, deswegen sollte man diese beiden Befehle zwingend mit einem && anstatt einem Semikolon verknüpfen.
Im Artikel wird alles kopiert, daher ist folgender Ratschlag in diesem Fall möglicherweise nicht von belang. Aber bezüglich den verfügbaren Dateimanagern gibt es durchaus große Unterschiede, wobei ich dann nur bei einer Dateimanagerwahl empfehlen kann, dass man dies beherzigt.
Denn manche Dateimanager versuchen, falls mehrere Kopiervorgänge vom Benutzer gestartet wurden, alle Kopiervorgänge gleichzeitig gleichermaßen zu bedienen. Auf Festplatten führt so etwas aber zu erheblichen Geschwindigkeitseinbußen, weil der Lesekopf immer zwischen den Dateien, der einzelnen Kopieranweisungen hin und herspringt.
Viel besser ist es daher, wenn man einen Dateimanager verwendet, der dies berücksichtigt und einzelne Kopierbefehle der Reihe nach abarbeitet, als alle Kopierbefehle gleichermaßen zu bedienen. Dadurch muss der Schreib- und Lesekopf der Festplatte nicht mehr so oft hin und herspringen und der gesamte Kopiervorgang geht schneller vonstatten.
Dies kann man dadurch sicherstellen, dass man sich als root einlogged und dann das OS in den Single user Mode per init Befehl schaltet. Dadurch werden alle Nutzer aus dem System geworfen und man hat freie Hand. :)
Natürlich kann, wer will, die Benutzer vorher auch noch darauf hinweisen, aber wer das technisch sicherstellen möchte, dass kein Benutzer dazwischenfunken kann, der macht das am besten so per init in den Single User Mode. Sicher ist sicher.
Bezüglich rsync muss man aufpassen, wenn man Dateien von NTFS und AFAIK auch FAT Partitionen
sichern möchte. Damit dies Fehlerfrei funktioniert muss man rsync noch ein paar Optionen mitangeben. Leider weiß ich die nicht auswendig und momentan bin ich nicht unter Linux, aber ich kann ja später mal nachschauen.
Ebenfalls Schwierigkeiten kann das sichern von Truecryptcontainerdateien machen.
Hier empfehle ich die Truecrpytcontainerdateien zu mounten und dann erst mit rsync die Daten zu sichern, denn sonst kann es sein, dass rsync entweder gar nichts sichert, oder der Sicherungsvorgang bei entsprechend großem TC Container sehr lange dauert.
Ansonsten noch bedanke ich mich noch für den Hinweis auf das Tool Testdisk.
Ich suche momentan nämlich nach einer Lösung, wie man bei einem USB Stick mit dd eine Linux Live-ISO Image auf den Stick kopiert und dann trotzdem eine NTFS Partition hinter der Linux Live Partition so anlegen kann, das diese von Windows hinterher auch erkannt werden kann.
Denn das hat bei mir bisher nicht funktioniert.
Das kopieren des ISO Image mit dd auf den USB-Stick war kein Problem.
Auch das Anlegen einer neuen Partition hinter der Partition der nun eingerichteten Live Linux Partition war kein Problem.
Das Problem ist aber, dass ich die nur unter Linux mounten kann und Windows trotz NTFS als Dateisystem nichts mit ihr anfangen kann. Ich vermute daher das hier die Partitionstabelle für Windows fehlerhaft ist und dieses daher nichts damit anfangen kann.
Ob ich mit dem Tool dieses Problem lösen kann, werde ich noch herausfinden müssen.
Wer dazu Lösungsvorschläge hat, der kann die natürlich auch hier äußern, ich würde mich darüber freuen.
Hi Herzlos,
vielen Dank für das umfangreiche Feedback.
Bekanntlich führen ja viele Wege nach Rom, doch die ein oder andere Anregung zur Verbesserung meines Artikels nehme ich gerne noch mit auf.
In einem Punkt liegst muss ich Dir aber widersprechen:
dd if=/dev/zero of=/mnt/sdxn/Null.txt; rm /mnt/sdxn/Null.txt
Hier ist das Semikolon zur Trennung der Befehle durchaus berechtigt, da der Rückgabewert des Schreibvorganges nicht 0 sein wird, da er wegen Platzmangel abgebrochen werden wird, käme es sonst anschließend nicht mehr zur Löschung der gerade erzeugten Datei.
Bezüglich deiner Frage zum USB-Stick mit nachgeschalteter NTFS Partition.
AFAIK mag Windows seine zu sich selbst kompatiblen Partitionen wie z.B. NTFS nur erkennen, wenn diese vor den Fremdpartionen liegen. Du müsstest also dafür sorgen, das diese von ihrer Partitionsnummer her gesehen (nicht von der physikalischen Lage) vor der Linux-Partition liegen, damit diese erkannt werden.
Das mag aber je nach Windows-Version im Verhalten unterschiedlich sein.
Jedoch wirst Du nach dem Klonen, durch nachträgliche Manipulationen am Partitionsschema, vermutlich dessen Bootfähigkeit einbüßen und das willst Du sicher auch nicht.
Hier gilt es dann diesen wiederherzustellen bzw. an das neue Partitionschema anzupassen, was jedoch eine bootloaderspezifische Operation ist, die dann im im Zweifel von Dir zu recherchieren und anzuwenden ist.
Ich hab mir daher meine eigenen Bootsticks mit GRUB gebastelt, samt NTFS Partition inklusive Portable-Apps für die Arbeit, die unter XP und Vista gut funktionieren
Gruß, Andy.
Da hast du Recht, das habe ich übersehen.
Klingt plausibel. Danke für den Hinweis.Ich werde mal schauen, ob ich die Linux Partition mit der Live Version hinter die NTFS Partition bekomme.
Wozu das -f von resize2fs? Die "safety checks" können sicher nicht schaden.
Ansonsten noch des (besserwisserische) Hinweis, dass dd meistens durch cp ersetzt werden kann.
Ein Hallo in die Runde
Hat jemand eine Idee, wie man ein btrfs auf verschiedene Standorte verteilen könnte? Ich stell mir das so vor, dass tagsüber nur mit einer im LAN vorhandenen via NFS exportierten Disk gearbeitet wird. (Alles lokal und schnell) Während in der Nacht ein Snapshot als Backup erstellt wird und dieser Snapshot inkrementel über das Internet in ein gespiegeltes btrfs nachgetragen wird?
So etwas wie ein hotcopy in Subversion.
Gruss, Markus
Wenn btrfs den Snapshot auf ein anderes Block Device schreiben kann (?), könnte man vielleicht mit Network Block Device etwas basteln.
Ein alter Artikel, aber immer noch aktuell; ich traue mich deshalb ihn noch zu kommentieren.
Artikel mit den diversen Tools zum Kopieren gibt es ja viele, wenn auch selten so erschöpfend wie diesen hier, dafür schon mal ein herzliches Danke schön.
Was ich aber überall (und auch hier) vermisse sind drei Aspekte:
1. Welche Dateien kann/nuss man weglassen (tmp, cache, Gerätedateien, usw)
2. Ist es möglich ein laufendes System (ohne angemeldete Benutzer) automatisiert so zu sichern, dass man damit ein desaster recovery durchführen kann? Welche Dienste sind ggf. vorher zu stoppen (z.B . MySQL)
3. Ich würde vor dem Backup gerne in den single-user Modus wechseln oder, besser noch, eine minimierte Service-Installation booten, dann die Sicherung machen und dann zurück in's normale System, aber AUTOMATISIERT. Geht so etwas?
Vielleicht gibt's ja Links zu dem Thema. Ich habe leider noch nichts gefunden.