Das ist aber wahrscheinlich auch nicht üppig schnell. Wenn ich 14h / 80000 teile, dann kommt da 0,63 Sekunden pro Datei heraus. Nur dafür, um festzustellen, dass sich an den Dateien nichts geändert hat . . .
Das im Artikel beschriebene storeBackup würde in dem Fall (neben den Rechten haben sich zwangsläufig auch die ctime oder mtime geändert) die md5 Summe der Dateien neu berechnen. Ich habe gerade auf meiner Büchse (core-i5) gemessen, welchen Durchsatz man da so (allerdings bei großen Dateien) erreicht:
1TB HD, 7200/min -> 120MB/s 128GB SSD -> 250MB/s
Das sollte pi mal Daumen etwas sehr andere Ergebnisse bringen. Außerdem ist mir ein einfaches Dateiformat mit der Möglichkeit der Konsistenzprüfung des Backups (steht nicht im Artikel) wichtig.
Das ist aber wahrscheinlich auch nicht üppig schnell. Wenn ich 14h / 80000 teile, dann kommt da 0,63 Sekunden pro Datei heraus. Nur dafür, um festzustellen, dass sich an den Dateien nichts geändert hat . . .
Das im Artikel beschriebene storeBackup würde in dem Fall (neben den Rechten haben sich zwangsläufig auch die ctime oder mtime geändert) die md5 Summe der Dateien neu berechnen. Ich habe gerade auf meiner Büchse (core-i5) gemessen, welchen Durchsatz man da so (allerdings bei großen Dateien) erreicht:
1TB HD, 7200/min -> 120MB/s
128GB SSD -> 250MB/s
Das sollte pi mal Daumen etwas sehr andere Ergebnisse bringen. Außerdem ist mir ein einfaches Dateiformat mit der Möglichkeit der Konsistenzprüfung des Backups (steht nicht im Artikel) wichtig.
Grüße