1989 hatten wir aber auch Festplattengrößen im Bereich von kleinen zweistelligen Megabytes. In meinem Anwendungsfall liefert lzma bei gleicher Dauer eine etwas höhere Komprimierung als zstd.
Von Verfluchtnochmal_5987109 am Sa, 20. April 2019 um 17:13 #
Was für ein dümmlicher Kommentar mit Null Verständnis von Dingen wie Latenzen abgesehen davon dass es relativ sinnbefreit ist die gesteigerte Hardwareleistung ungenutzt zu verbrennen
Erstens sind unsere CPU's mitnichten "Superschnell", und zweitens steigt dann auch noch das Datenvolumen schneller als die Leistung der "Superschnellen" CPU's.
die Bedeutung von schnelleren Algorithmen ist in Zeiten superschneller CPU's zu relativieren. Wir schreiben halt nicht mehr 1989.
1989 hatten wir aber auch Festplattengrößen im Bereich von kleinen zweistelligen Megabytes.
In meinem Anwendungsfall liefert lzma bei gleicher Dauer eine etwas höhere Komprimierung als zstd.
nicht, wenn man das in Dateisystemen (i.e. btrfs) verwendet und dafür wurde zstd meines Wissens konzipiert.
Was für ein dümmlicher Kommentar mit Null Verständnis von Dingen wie Latenzen abgesehen davon dass es relativ sinnbefreit ist die gesteigerte Hardwareleistung ungenutzt zu verbrennen
Erstens sind unsere CPU's mitnichten "Superschnell", und zweitens steigt dann auch noch das Datenvolumen schneller als die Leistung der "Superschnellen" CPU's.