Login
Newsletter

Thema: Welches Archivformat nutzen Sie bevorzugt?

3 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von pinguinesser am Mo, 24. April 2017 um 23:15 #

lrzip: habe ich oben schon geschrieben was ich davon halte, m.M. u. E. ist es viel zu buggy. Ist vielleicht in der aktuellen Version anders, aber jede Version die ich bisher getestet hatte lief schon bei normaler Anwendung nicht stabil. Probleme bei grossen Dateien oder Threading, irgendwann habe ich es nicht mehr weiter getestet weil die bugs nie richtig gefixed wurden und auch die Entwicklung für meinen Geschmack am einschlafen war.

All in one bietet das auch wenn es viele nicht hören wollen: rar
Es generiert Reedsolomonrecoverydaten auf das nakte archiv, deckt somit alle Fehler ab, egal wo sie auftreten, in den Verwaltungsbereich oder eigentlichen komprimierten Daten
und ist einfach zu handeln weil es das alles von Haus aus mitbringt. Kompression hält gut mit xz/lzip bei schneller Speed, hat m.M. die optimale Balance zw. Speed und Packrate bei defaultlevel für -m. Um das Rechteproblem unter unix zu umgehen kann man vorher tar'en, dann rar zum eindampfen +dessen recoverydatenfunktion nutzen.

Will man kein rar nimmt man tar + irgendeinen packer der schnell oder möglichst klein packt, beides zusammen gibts nicht, was der beste Kompromiss für dich ist musst du selber rausfinden. Recoverydaten erzeugt man dann mit par2

lzip ist ziemlich lahm, plzip die parallele Variante ist deutlich schneller aber erzeugt evt. grössere Dateien als wenn man sie mit lzip in den gleichen Einstellungen packt, ist auch klar weil es eben die Daten auf verschiedene Packthreads aufteilen muss und so nicht evt. sich überschneidende Wdhg nicht erkennen und ausnutzen kann. Den Effekt gibts bei allen parallelen Packern, egal welches Packverfahren sie anwenden.

7z ist von den LZMA-basierten Packern in meinen Tests der schnellste unter Linux und erzeugt auch meist die kleinsten Daten, sind aber nur minimale Unterschiede in der Grösse, entscheidend sind hier vermutlich die kleineren Verwaltungsdaten, aber er packt "sehr schnell", wobei alle LZMA-basierten Packer ziemlich lahm sind, das kann schon mal nerven bei grossen Datenmengen.
Wenn du mal eine 16GB tar-Datei packst und das dauert über eine Stunde, dann nervt dich das irgendwann und pfeifst auf die Grösse. Deshalb packe heute wieder teilweise mit lzo oder gzip, das geht deutlich schneller es gibt auch parallele Varianten von (g)zip bzw. Packern die den deflate-Pack-Algo nutzen.

Bei Backups wo man inkrementell arbeitet nehme ich wieder das Packverfahren mit maximaler Kompression, weil die diffs nur klein sind und die längerer Rechnerei kaum spürbar ist bei den kleinen Datenmengen.

Kommt auch immer darauf an was du für Daten hast ob sie sich gut packen lassen oder eher schlecht. Für jpg gibts spezielle Packer die nochmal bis zu 30% rausholen, nach meinen Tests.
packJPG ist die freie Variante davon.

Alles was archivert wird und wichtig ist wird vorher Recoverydaten mit par2 generiert und diese auf anderem Medium gespeichert.
Diese Recoverydaten haben mir schon mehrmals die Daten gerettet als mir schleichend mein Brenner die Daten geschreddert hat.

Geht mal was grösseres übers Netz kopiere ich die Header des gepackten Archivs nochmal separat, oder generiere mit par2 Recoverydaten. Hashes werden auch immer erstellt.

Ohne par2 wird bei mir jedenfalls nix mehr eingelagert.

[
| Versenden | Drucken ]
  • 0
    Von pagan am Di, 25. April 2017 um 11:42 #

    vielen dank für die ausführliche antwort. ich bleibe wahrscheinlich ersteinmal bei lrzip (bisher keine probleme, ist sehr schnell und packt sehr gut) und schaue mir par2 mal genauer an.

    trotzdem, so etwas wie lziprecover gibt es für lrzip nicht, oder?

    [
    | Versenden | Drucken ]
    • 0
      Von pinguinesser am Fr, 28. April 2017 um 14:34 #

      Nein gibts nicht. Das Format selber wurde auch nochmal einer der Vorgängerversionen nochmal überarbeitet und heutige Versionen sind nicht mehr abwärtskompatibel.
      Bei solchen Tools würde ich immer das Programm bzw. den Source gleich mit archivieren, wer weiss was in 10 Jahren ist wenn du mal wieder an die Daten willst, dann gibts längst neuere Versionen oder die Entwicklung wurde eingestellt....

      Habe jetzt nochmal die aktuelle lrzip version gezogen, compiliert und getestet, die alten bugs die ich entdeckt hatte sind alle weg.

      Es komprimiert mit den gängigen Verfahren nochmal deutlich besser, ist schon beeindruckend. Da kann man dann nochmal deutlich platz sparen und ist genauso schnell beim packen, z.T. sogar schneller.

      Hmm muss ich mal im Auge behalten und evt. auch umsteigen.

      [
      | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten