ext3 defragmentieren

Post Reply
Message
Author
hotti

ext3 defragmentieren

#1 Post by hotti »

Hallo!
Bei uns in der Firma laufen W2k-Rechner.
Ab und zu müßen die Platten defragmentiert werden.
Als Server läuft Linux mit ext3.
Nun weiß ich, daß man ext3 nicht defragmentieren muß.
Kann jemand einem Dau erklären warum?
Danke,
Hotti

User avatar
max
Posts: 806
Joined: 14. May 2000 12:55
Location: Ruhrpott

Re: ext3 defragmentieren

#2 Post by max »

ich nicht aber der vielleicht:

<a href="http://sdb.suse.de/sdb/de/html/ext2frag.html" target="_blank"><!--auto-->http://sdb.suse.de/sdb/de/html/ext2frag ... <!--auto-->

Symptom:
Wie defragmentiert man das EXT2-Filesystem?
Ursache:
Beim Filesystemcheck werden x% "non-contiguous" angezeigt.
Lösung:
Die Info stammt von Kristian Koehntopp.

Es bringt nix, denn nach der Fragmentierung wird das Dateisystem sehr schnell wieder einen fuer die Nutzungsweise des Dateisystems charakteristischen Fragmentierungslevel anstreben und dann dort verweilen.

Ausserdem spielt die Laenge der Fragmente eine Rolle. Linux verwendet kernelintern ein Readahead von 16 Blocks. Das bedeutet: Wenn eine Datei sequentiell durchgelesen wird (weit ueber 95% alle Lesezugriffe!), liest Linux bis zu 16 Bloecks am Stueck voraus, um den kernelinternen Cache vorzugluehen, in der Hoffnung, dass diese Bloecke gleich von dem betreffenden Programm verlangt werden.

Wenn die Fragmente also groesser als 16 Bloecke sind (die meisten sind das, siehe unten), dann ist es letztendlich egal, ob die Datei fragmentiert ist oder nicht, weil der Seek in den Readaheads untergeht. Nur Fragmente, die kleiner sind als 16 Bloecke wirken sich wirklich schaedlich auf die Leseperformance aus.

Das ext2-Dateisystem schreibt Dateien nun auch mit einer Art writeahead, aeh, mit Preallocation. Wenn Du in einem ext2-Dateisystem einen Block schreibst, belegt das Dateisystem gleich bis zu 7 weitere Bloecke in Folge fuer diese Datei. Zwei konkurrierende Schreibzugriffe in einem Verzeichnis wuerden also nicht Bloecke der Form

121212121212

anordnen, sondern eine Blockfolge

1ppppppp2qqqqqqq

erzeugen, wobei jeweils 1 und 2 geschriebene Bloecke der Dateien 1 und 2 sind und p und q fuer 1 bzw. 2 vorbestellte Bloecke sind. Werden 1 und 2 konkurrierend verlaengert, entsteht so

11111111222222221ppppppp2qqqqqqqq

und so weiter. Auf diese Weise wird die schaedliche (kleine) Fragmentierung weitestgehend vermieden. Das ganze Verfahren ist eine Verallgemeinerung des Fragment/Block-Verfahrens des BSD Fast Filing Systems.

Ausserdem muss man als Anwender auf einem Multitaskingsystem auch noch zwischen Performance und Durchsatz unterscheiden: Performance ist das, was ein Anwender mit einem einzelnen Prozess maximal aus der Platte an MB/sec rauslutschen kann. Durchsatz ist das, was die Platte ueber alle Anwender und Prozesse gerechnet an MB/sec ausspuckt.

In Multitasking-Systemen ist der Durchsatz oft sehr viel groesser als die Performance. Linux hat Algorithmen, die den Durchsatz, nicht die Performance des System erhoehen. Zum Beispiel werden Zugriffe auf die Festplatte, die in der Wait Queue der Disk stehen, nach Blocknummern aufsteigend sortiert. Mit einem Saegezahn-Algorithmus klettert der Kopf der Platte zu den hohen Blocknummern und serviced die Requests, um dann in einem long seek nach unten zu zucken und die naechste Runde zu drehen. (Nein, das ist nicht ganz der Fahrstuhl-Algorithmus: Mit dem waren die Latenzen/Service Times zu hoch und der Algorithmus ist nicht fair). Ausserdem werden aufeinanderfolgende Requests fuer denselben Prozess von Linux zu einem Request groesserer Groesse zusammengefasst (geclustert).

Durch eine solche Sortierung erfolgen die Lesezugriffe nicht in der Reihenfolge und mit der Groesse, die der Prozess ausgegeben hat, sondern in der Reihenfolge und mit einer Groesse, die der Platte genehm ist. Auf diese Weise werden die Effekte von grosser Fragmentierung weitgehend ueberdeckt - nur kleine Fragmente wirken sich schaedlich auf den Durchsatz auf.

Und zum Schluss liegt ueber all diesem auch noch der Buffer Cache des Betriebssystems, d.h. beim zweiten Leseversuch kommt sowieso alles aus dem Ram und die Anordnung der Daten auf der Platte ist vollkommen schnurz.

Defragmentierung ist Zeitverschwendung, Kristian

ratte

Re: ext3 defragmentieren

#3 Post by ratte »

Sehr schoen Darstellung Max!

Danke, Kristian.

...wie schaffen es eigentlich zwei Leute, eine Tastatur zu bedienen, ohne Schreibfehler zu machen und vom gleichen Thema folgerichtig zu berichten?

SCNR,
ratte

User avatar
max
Posts: 806
Joined: 14. May 2000 12:55
Location: Ruhrpott

Re: ext3 defragmentieren

#4 Post by max »

?
folge dem Kaninch^W Link. ;<!--no-->-)

Das war nur der Text dort...

Max, only

Post Reply