Login
Newsletter
Werbung

Thema: Defragmentierungstool für Linux-Partitionen

76 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von Roman am Mi, 19. Februar 2003 um 16:00 #
ich kann mir nicht vorstellen, dass sich sowas jemand für Linux kauft und schon recht nicht für das ext2. Vor allem, da die Eigenheiten des Dateisystems und der Optimierungen voll zum tragen kommen: http://sdb.suse.de/sdb/de/html/ext2frag.html

*kopfschüttel

PS: Bleibt noch abzuwarten, dass der ganze Mist von Norton und sonstwas rüberschwabt. Aber ich hoffe die Benutzer wissen dann, dass sie dafür kein Geld ausgeben brauchen.

[
| Versenden | Drucken ]
  • 0
    Von Philip Silva am Mi, 19. Februar 2003 um 16:14 #
    Naja, ehrlich gesagt fänd ich es garnicht mal so schlecht, wenn es von Norton, SiSoft Sandra usw. mal Linuxversionen gäb. Jemand mit Linuxerfahrung wird solche Tools zwar eher nicht brauchen aber wie siehts mit Einsteigern aus? Die wissen doch nichtmal, wie sie ihre Festplatte unter Linux halbwegs sinnvoll entrümpeln...
    [
    | Versenden | Drucken ]
    0
    Von Axel Jäger am Mi, 19. Februar 2003 um 16:40 #
    Ich möchte keine Norton Utilities oder sonstige Produkte dieser Firma auf meinem Linux PC haben. Meiner Meinung nach verschlimmbessern sie ein Windowssystem. Ich hab bisher nur Ärger damit gehabt, aber noch nie gesehen, das auch nur eines dieser Programme irgendeinen praktischen Nutzen hat, der den angerichteten Schaden rechtfertigen würde. Ich verstehe nicht, warum der Norton WinDoctor eine falsch eingetragene Dateinamenserweiterung in der Registry als ein mittelschweres Problem anzeigt. Wirkliche Schäden kann dieses Programm offensichtlich nicht reparien, wohl aber verursachen. Bin ich eigentlich der Einzige, der das so sieht?
    [
    | Versenden | Drucken ]
    • 0
      Von arni am Mi, 19. Februar 2003 um 17:06 #
      Oh, da kommen Alpträume in mir hoch wenn ich an den WinDoctor Denke... Als ich das Zeugs nicht mehr auf der Platte hatte, lief alles besser als mit :) Brauchbar war eigentlich nur das Speeddisk...
      Genau wie PartitionMagic und das ganze andere Gedöhns... diese angeblichen Helferlein machen aus dem blossen anklicken ihrer Buttons oft einen Alptraum (denke mit Grauen an PartitionMagic).
      Auf Linux würde ich niemals diesen Schund installieren! Selbst unter Win2k (was ich noch parallel fahre) kommt ausser den üblichen Servicepacks nichts von diesen Utilities rauf! Das einzige was unter Win2k läuft ist ein Temperatursensor-Proggy und Friede ist...

      Manchmal ist halt weniger mehr... :)

      [
      | Versenden | Drucken ]
      • 0
        Von Felix Schwarz am Mi, 19. Februar 2003 um 18:13 #
        Also mit Powerquest Partition Magic und Disk Image habe ich täglichen Einsatz sehr gute Erfahrungen gemacht. Als Admin habe ich beide Tools mehrmals täglich verwendet und nie Probleme gehabt - allerdings auch immer nur die DOS-Version, die Windows-Version habe ich noch nie verwendet. Was hast du für Probleme mit Partition Magic?

        fs

        [
        | Versenden | Drucken ]
        • 0
          Von arni am Mi, 19. Februar 2003 um 18:38 #
          Was hast du für Probleme mit Partition Magic?
          Jetzt keine mehr, ich nutze es ja nicht mehr :) Hatte mir Partitionen zerstört, hatte falsche Fehler gemeldet (Zylindergrenzen) usw. Hatte auch den Support von Quarterdeck am Phone die das auch bestätigt haben. Ist natürlich schon paar Jährchen her, vielleicht taugen die jetzigen Versionen ja mehr. Meine grosse Windowszeit ist allerdings vorbei (na ok, ausser fürs Musik machen mit Cubase ;-) ), sodaß mich das alles jetzt nicht mehr sonderlich interessiert.

          arni

          [
          | Versenden | Drucken ]
          0
          Von Axel Jäger am Mi, 19. Februar 2003 um 19:20 #
          Ist Powerquest equivalent mit Norton? Ich beziehe mich wirklich nur auf Norton Utilities und den Virenscanner. Der Virenscanner ist nie hochgefahren und selbst um ihn wieder zu deinstallieren hat es drei Reboots gebraucht. Die Utilities haben auch immer Ärger gemacht: Da gibt es so eine gkrelm-like-Symbolleiste. Wenn die läuft, würde ich nicht empfehlen, irgendein anderes Programm zu starten, weil dann so ein dusseliger Crashmanager kommt, weil das Programm abstürzt, garantiert, der einem anbietet, das abgestürzte Programm wieder zu reaktiviren. Die Firma soll mir mal erklären, wie das von statten gehen soll
          [
          | Versenden | Drucken ]
        0
        Von lutzlustig am Sa, 22. Februar 2003 um 16:07 #
        hihi, wenn eine Windows-User und Linux-abfänger sowas geschrieben hätte, hätte er gleich die geballten Sammlung toller Utlities an den Kopf geworfen bekommen und ein paar Bemerkungen, das man Äpfel mit birnen nicht vergleichen kann.

        Ich möchte jedenfall kein nackten W2k oder XP haben, gerade die kleinen Helferlein machen erst was richtiges draus. Ist alles eine Frage der Gewöhnung.

        Ciao

        [
        | Versenden | Drucken ]
      0
      Von Bernd am Mi, 19. Februar 2003 um 17:07 #
      Versetze dich in die Lage eines 08/15-Users.
      Ach, für Windows habe ich hier alles was ich brauche: Einen Norton-Antivirus, einen Cleansweep, eine Norton-Firewall, ein Norton-sonstwas...
      Für Linux gibt es das nicht, also muss ich doch da bestimmt diese ganzen komischen Kommandozeilenprogramme benutzen. So einen Scheiss mache ich nicht.

      Glaubst du der Nutzen eines dieser Programme ist Kaufgrund? Nein, das "ich habe meinem PC was gutes getan" ist der Kaufgrund. Ob man das wirklich braucht ist nicht die Frage.
      Und da es sowas nicht für Linux gibt, ist das alles nicht so einfach. Von demher ist es doch was schönes wenns das gibt. Es bringt zumindst Publicity.

      cu, Bernd

      [
      | Versenden | Drucken ]
      • 0
        Von Roman am Mi, 19. Februar 2003 um 17:30 #
        Ich weiss nicht - da bleibt doch dann letztendlich die Frage was man möchte. Ich finde ein offenes System steht im Widerspruch dazu, dass man dem Benutzer nen haufen Software verkauft die er eigentlich überhaupt nicht braucht, denn die Lösung seines Problems ist vielleicht 5min entfernt. Ich mein - okey es gibt auch sonst nen haufen überflüssiges Zeugs das man nicht braucht - die Leute kaufens aber trotzdem. Hm.. welch Dilemma.. schon komisch...

        Ich denke, dass man den 08/15 Benutzer mehr aufklären sollte, anstatt ihm irgendwas unterzujubeln. Was bei rauskommt ist reine Unzufriedenheit an das System, woran er natürlich nicht minder daran Schuld ist.

        [
        | Versenden | Drucken ]
        0
        Von Bodo am Do, 20. Februar 2003 um 11:23 #
        Nun ja dass es für Linux oft nur kommandozeilen-Tools gibt ist schon ein Manko. Das heißt aber für die Tools, die es schon gibt und die sich bewährt haben sollte man GUIs entwickeln.

        Und Norton hat nur ein einziges gutes Tool entwickelt, den Commander - der Rest war Schrott !!!

        [
        | Versenden | Drucken ]
    0
    Von Gerd am Mi, 19. Februar 2003 um 22:39 #
    vorher nacher wär mal interessant
    [
    | Versenden | Drucken ]
0
Von inra am Mi, 19. Februar 2003 um 16:31 #
*G* In was für Unsinn einige Firmen ihre Manpower stecken. Abgesehen davon das die Defragmentierung unter ext2/3 nicht erforderlich ist, gab es sogar schon vor längerer Zeit ein freies Tool dafür. Scheint aber kaum jemand genutzt zu haben, weil man davon nie wieder was gehört hat.

Hoffentlich fällt keiner auf dieses Quatsch rein und kauft sich das noch!

[
| Versenden | Drucken ]
  • 0
    Von krawabbel am Mi, 19. Februar 2003 um 16:49 #
    Jup, es gibt/gab ein Tool bei Debian (pjm oder so) und von Stephen Tweedie gabs auch mal ein Defrag-tool für ext2... hat wohl keiner genutzt bzw. ist der Nutzen nicht so gross als das es sich lohnt ext2 zu Defragmentieren, weswegen man davon wohl abgekommen ist.
    Naja, wer weiss... nachher haben die Leute von dieser komischen Firma nur den Code dieser vorhanden ext2 Defragmentierer genommen und bissel verändert... :)
    [
    | Versenden | Drucken ]
    0
    Von Kai Lahmann am Mi, 19. Februar 2003 um 16:50 #
    die DAUs werden sich drauf stürzen, wie sie sich auf Personal-Firewalls, Tuning-Tools und andere Placebo-Programme stürzen ;/
    ...hauptsache is bunt!
    [
    | Versenden | Drucken ]
    • 0
      Von C-User am Mi, 19. Februar 2003 um 22:39 #
      ach sag bloß Du gehst noch ohne Firewall ins Internet? Hmmm und was machst Du, wenns grad keine gibt bzw. von Haus aus mitgeliefert wird? Z. B. bei Windows? Es gibt ja Leute, die müssen tatsächlich mit sowas arbeiten, und dann *keine* Personal Firewall o. ä. zu benutzen ist wirklich ausgesprochen dämlich.
      Hier daheim habe ich im Moment mein W2k reanimiert, weil meine Linux HD einen kleinen Hardwaredefekt hat, und auf Internet möchte ich nicht verzichten.
      Schon interessant was bei der Firewall unter Linux rauskommt, darum habe ich auch eine Personal Firewall unter W2k installiert.
      Aber bitte, wenn Du unbedingt *nicht* möchtest...
      [
      | Versenden | Drucken ]
      • 0
        Von metoneca am Mi, 19. Februar 2003 um 23:20 #
        der kommentar von kai scheint mir mehr auf mich abgezielt gewesen zu sein, nachdem ich mich in einem anderen thread für den einsatz von firewalls aussprach, die auch von einem "newbie" bedienbar sein sollen. da ging es um die knoppix, wo ich das fehlen einer firewall bemängelte. aber lass ihn mal, er weiß das eh besser ;)
        [
        | Versenden | Drucken ]
        0
        Von stefan3??? am Do, 20. Februar 2003 um 10:23 #
        Moin,

        ich nehme stark an, Kai ging es nicht darum, generell etwas gegen Firewalls zu sagen, sondern vielmehr um Klicki-Firewalls, die manchmal keine wirkliche Sicherheit bieten, aber den klickenden DAUs eine trügerische Art Scheinsicherheit geben.
        Ich nehme ferner an, es ging Kai um in der Windoze-Welt sehr beliebte Klicki-Optimierungstools, deren realer Nutzen meist in keinerlei Relation zum Preis steht. Und darum, dass solche User-Abzocke unter Linux nicht unbedingt als Gewinn zu werten ist.

        tschö

        Stefan

        [
        | Versenden | Drucken ]
        • 0
          Von Bodo am Do, 20. Februar 2003 um 11:27 #
          Die Frage ist doch wohl eher, was hinter den Klicks steckt.
          Ihr könnt doch wohl nicht von jedem erwarten, dass er weiß wie man ne Config für nen Firewall schreibt.
          [
          | Versenden | Drucken ]
        0
        Von Marc R. am Do, 20. Februar 2003 um 13:12 #
        Moin.

        > ach sag bloß Du gehst noch ohne Firewall ins Internet?

        Mach ich auch. Iptables brauche ich lediglich für SNAT.
        Auf dem Win-Rechner meines Vaters (den ich supporten darf *huargh*) läuft auch keine PF.
        Nenn mir einen vernünftigen Grund, warum ich das ändern sollte.

        Gruß
        Marc

        [
        | Versenden | Drucken ]
        • 0
          Von drake am Do, 20. Februar 2003 um 16:18 #
          Jup. Firewalls zu Hause sind groestenteils totaler Bloedsinn.
          Wuerde bei einigen Betriebssystemen vermutlich auch mehr Sinn machen, ausgehenden Verkehr zu kontrolieren als eingehenden. Aber wer unterwirft sich diesem unbequemen Verhalten von der "Personal Firewall Ecke" ?
          Wozu eine Firewall (Paketfilter) wenn keine Dienste Laufen ?
          [
          | Versenden | Drucken ]
          • 0
            Von Falk am Do, 20. Februar 2003 um 19:44 #
            Was ist mit Exploits, die greifen, bevor der entsprechende Dienst die Anfrage aus dem Internet abgelehnt hat? Ist es da nicht doch sicherer, Verbindungsanfragen von außen generell abzulehnen?

            Außerdem:
            Kennt ihr euch mit Windows (oder evtl. auch mit Linux) so gut aus, daß ihr euch sicher sein könnt, daß interne Dienste für euer LAN nicht über das Internet erreichbar sind? Die Konfiguration ist fehlerfrei?

            Wenn ihr diese Fragen entkräften könnt, dann brauchst ihr wirklich keine Personal Firewall, denn gegen Trojaner hilft so ein Teil normalerweise wirklich nicht.

            PS: Mir ist natürlich auch bekannt, daß man auch den eigenen Rechner aus dem Internet scannen (lassen) kann. Aber wer macht das schon, nach jeder Bastelei?

            [
            | Versenden | Drucken ]
            • 0
              Von Marc R. am Do, 20. Februar 2003 um 20:45 #
              Moin.

              > Ist es da nicht doch sicherer, Verbindungsanfragen von außen generell abzulehnen?

              Wenn ein Dienst läuft, für den ein Exploit existiert, kümmert man sich um ein Update.
              Wenn kein Dienst läuft, dann werden die Anfragen sowieso abgelehnt. Wozu brauche ich da eine PF?
              Im übrigen bieten PFs an sich nur eine weitere Angriffsfläche.

              > Kennt ihr euch mit Windows (oder evtl. auch mit Linux) so gut aus, daß ihr euch sicher sein könnt, daß interne Dienste für euer LAN nicht über das Internet erreichbar sind?

              Das läßt sich ja mit einfachsten Mitteln (Portscan,...) testen.
              Ein lokales Netz mit irgendwelchen Servern erfordert aber auch eine etwas andere Herangehensweise, als ein einzelner Desktoprechner.

              > Mir ist natürlich auch bekannt, daß man auch den eigenen Rechner aus dem Internet scannen (lassen) kann.

              Diese Online-Scans sind meistens nicht sehr aussagekräftig, da sie z.B. nicht alle Ports scannen, die Ergebnisse fehlerhaft interpretieren usw.

              Gruß
              Marc

              [
              | Versenden | Drucken ]
              • 0
                Von Falk am Fr, 21. Februar 2003 um 08:30 #
                Das läßt sich ja mit einfachsten Mitteln (Portscan,...) testen.
                Aus dem Internet?
                Wenn man den Scan von einem anderen Rechner aus dem Netz starten kann, dann klar. Aber sonst?
                [
                | Versenden | Drucken ]
              0
              Von drake am Do, 20. Februar 2003 um 23:11 #
              > Was ist mit Exploits, die greifen, bevor der entsprechende Dienst die Anfrage aus dem Internet abgelehnt hat?

              Wenn kein Dienst laeuft, kann er auch keine Fragen ablehnen.

              > Kennt ihr euch mit Windows (oder evtl. auch mit Linux) so gut aus

              Bei einem Linuxdienst gibt es entweder eine Einstellung "bind_interfaces" oder aehnlich, bei der man nicht viel falsch machen kann, egal wie der Rest der Konfiguration aussieht, oder aber ein PF macht wirklich Sinn. Daher auch groestenteils.
              Bei Windos laufen im Allgemeinen keine Dienste, und smb Freigaben werden(sollten) fuer das ppp Interface im Allgemeinen abgeschaltet (werden).

              Wer keine dubiosen Mails erhaelt/oeffnet oder kein Active-X/VBS benutzt/zulaesst, faehrt mit Windows (2k/XP) eigentlich recht sicher (kann man den WSH bei 2k/XP noch abschalten ?). Moegliche Hintertueren mal aussenvorgelassen. Ob "personal firewalls" davor Schuetzen, so diese denn existieren, sei mal dahingestellt.
              Und vor dem, was Windos evtl. von sich aus verschickt, hilft auch keine Firewall. Ausser eben, man kontrolliert auch den ausgehenden Verkehr.

              Wir reden von Woerkstaischons. Nicht davon, das jemand mit seiner W2k-Advanced Server Raubkopie surft und vergisst, den IIS abzuschalten.

              Das Problem ist, das Firewalls gerne falsche Sicherheit vorspiegeln, weil haeufig nicht bekannt ist was eine Firewall macht.
              Daher kommen dann auch so unsoziale Auswuechse wie "vor ping verstecken macht mich krass sicher".
              Wenn Du vertrauen in Dein System hast, brauchst Du keine Angst vor nem ping zu haben. DOS Angriffe werden anders behandelt, IMHO. Zumal DOS Angriffe selten schwere Auswirkungen haben auf nen Heimrechner. Gut, wird der esel langsamer. Beinbruch.
              Man stelle sich mal ein Internet vor, indem kein ping mehr geht. Und das sollten nicht "immer nur die anderen" sein.

              Wie dem auch sei. Vor den Paketfilter haben die Goetter die lokale Absicherung des hostes gesetzt.

              [
              | Versenden | Drucken ]
              • 0
                Von Falk am Fr, 21. Februar 2003 um 08:38 #
                smb Freigaben werden(sollten) fuer das ppp Interface im Allgemeinen abgeschaltet (werden).
                Sowas meine ich. Und kennst du dich wirklich damit aus, was RAS,... macht?
                Das Problem ist, das Firewalls gerne falsche Sicherheit vorspiegeln, weil haeufig nicht bekannt ist was eine Firewall macht.
                Die weist alles ab, was von außen kommt, wenn man sie richtig einstellt. Meinetwegen kann man ja Ping zulassen (sowas von egal bei einem Privatrechner).
                [
                | Versenden | Drucken ]
          0
          Von Hosi am Sa, 22. Februar 2003 um 23:30 #
          Du könntest per iptables sagen, dass der Rechner Deines Vaters nicht auf/von Port 31337 zugreifen darf.
          [
          | Versenden | Drucken ]
          • 0
            Von Marc R. am So, 23. Februar 2003 um 13:07 #
            Hi.

            Hab ich schon versucht, aber irgendwie reichen dafuer meine Skillz nicht. ;)

            Spass beiseite. Ich konnte mir zwar ein Grinsen nicht verkneifen, dennoch stellt sich mir die Frage, ob diese Provokation sein musste. Wenn Du irgendwas zu kritisieren hast, dann nenne auch bitte die Kritikpunkte.

            Gruss
            Marc

            [
            | Versenden | Drucken ]
mehr re
0
Von gina am Mi, 19. Februar 2003 um 16:50 #
netter aprilscherz. wenn solch ein tool fuer extx irgendetwas bringen wuerde, haette das bereits vor jahren jemand geschrieben und unter der gpl veroeffentlicht. aber vielleicht haben eine signifikante anzahl von umsteigenden windowsadmins das tool vermisst. vielleicht sollte sich mal ne firma hinsetzen und bluescreens fuer linux entwickeln
[
| Versenden | Drucken ]
0
Von Mike am Mi, 19. Februar 2003 um 16:52 #
quarck mit soße
[
| Versenden | Drucken ]
0
Von Asdex am Mi, 19. Februar 2003 um 17:02 #
...wenn man nicht gerade einen Fileserver oder Proxy betreibt.
Klar, bei echtem Multiuser Betrieb bringt das nichts, ein Großteil der Linuxinstallationen dürften aber reine Desktopinstallationen sein.

Wenn z.B. $USER auf das Openoffice Icon klickt, macht es sehr wohl Sinn, wenn die hunderten OO Dateien an einem Fleck auf der Partition stehen, so daß sowohl die Readaheadfunktion funktioniert, als auch der Festplattenkopf nur geringe Wege zurücklegen muss. Anderweitige Zugriffe finden in diesen 10-20Sek kaum statt. Ohne Defragmentierung befinden sich jedoch auf einem normal genutzten System spätestens nach dem ersten Openoffice Update die Dateien wild über die gesamte Partition verstreut.

Genauso wenig macht es Sinn, daß, wenn $USER ein Icon für ein Programm auswählen will, der Festplattenkopf hunderte Positionen auf der Platte anfahren muss, um z.B. die >1000 Crystal Icons einzulesen.

Also nicht immer gleich rumschreien, wie blöd das "windowsartige" Defragmentieren ist, sondern auch akzeptieren, daß es sich zwar nicht für alle, aber immerhin für manche Einsatzzwecke Vorteile bringt.

[
| Versenden | Drucken ]
  • 0
    Von Artikel5 am Mi, 19. Februar 2003 um 17:08 #
    Ich habe neulich eine Gentoo-Installation, die einige Zeit in Betrieb war, 1:1 (per cp -a) auf eine baugleich Platte kopiert. Die Kopie war danach fühlbar schneller. Das dürfte deine Annahmen bestätigen und ist ein Hinweis daruf, daß Fragmentierung u.U. doch ein Problem sein kann.
    [
    | Versenden | Drucken ]
    • 0
      Von MichaelB am Mi, 19. Februar 2003 um 17:24 #
      Für das Defragmentieren unter ext2 (oder auch NTFS bei Windows) genügt es einfach, die Dateien einmal zu kopieren, weil sie dann ja wieder an einem Stück abgelegt werden.
      Ein zusätzliches Tool ist dafür nicht vonnöten.

      Gruss
      MichaelB

      [
      | Versenden | Drucken ]
      • 0
        Von Asdex am Mi, 19. Februar 2003 um 18:07 #
        Es geht nicht nur um fragmentieren im engeren Sinn, sondern auch darum, daß (unfragmentierte) Dateien, die (immer) zusammen gelesen werden, nciht über die gesamte Partition verstreut liegen sollen.
        [
        | Versenden | Drucken ]
        • 0
          Von cirad am Mi, 19. Februar 2003 um 21:13 #
          Nun, dafür hast du bei ext2/3 ja bereits Gruppen.

          Sinnvoll wäre eine Reservierung für große Dateien, wie sie allerdings noch Zukunftsmusik ist ... allerdings eine geplante. (:

          [
          | Versenden | Drucken ]
          • 0
            Von Mike am Mi, 19. Februar 2003 um 22:00 #
            was für Gruppen?
            [
            | Versenden | Drucken ]
            • 0
              Von cirad am Mi, 19. Februar 2003 um 22:19 #
              Gruppen eben. Jede Gruppe hat eine Kopie des Superblocks, Inodes und 2 Bitmaps. Die Bitmaps geben an, welche Inodes, bzw. Blöcke belegt, bzw. frei sind. Jede Bitmap ist einen Block groß, also defaultmäßig 4kb.

              Die Block-Bitmap kann somit 4096Byte * 8Bit Blöcke "verwalten", was 32768 Blöcke = 128MB macht.

              Der Sinn der Gruppe ist, daß beispielsweise Dateien in einem Verzeichnis auch physisch dicht beisammen liegen. Beispielsweise liegen sie so auch dicht bei dem Verzeichnis, in dem ja die Dateinamen gespeichert werden.

              Mit dumpe2fs kannst du dir angucken, wieviele Gruppen existieren und welche Blöcke davon belegt und frei sind.

              [
              | Versenden | Drucken ]
          0
          Von kiwi am Mi, 19. Februar 2003 um 22:02 #
          was ist denn "immer" und was ist "verstreut"

          Diese ganze Defragmentierung bringt wirklich nichts, da sie
          vollkommen am Problem vorbei denkt.

          Manche Benutzer stopen die Zeit, wie lange es geht, eine Datei
          zu kopieren oder Mozilla zu starten, doch das ist doch keine
          Aussage über die Performance des Dateisystems. Es ist vielmehr
          ein statistisches Ereignis aus den möglichen Zuständen des Systems.

          Und hierbei muß man gute Strategien für das Dateisystem selbst
          entwickeln, nicht defragmentieren.

          Ein Beispiel dazu:
          Man schreibt mit FAT eine Datei, sie wird an eine Stelle geschrieben,
          oder vielleicht schlecht fragmentiert, ... so dauert das schreiben
          und lesen länger. Diese Datei bleibt aber für immer und ewig dort,
          die Entscheidung über ihren speicherplatz wird nie revidiert.
          Das sich sehr mittelalterlich.
          Nur der Defrager kann dies, wird er gestartet, beheben. Hier also
          macht für diesen Zeitpunkt der Defrager wirklich scheinbar sinn,
          doch sollte er dann nicht ständig laufen?

          Denken wir etwas weiter:
          Wir wollen den Speicherort der Datei, die aus drei Segmenten {1,2,3}
          besteht optimieren, was ist nun optimal, wenn wir sie direkt hinter-
          einander schreiben? Ok, wir schreiben sie hintereinander, dann kann
          man sie sicher sehr schnell lesen (glaubt man).
          Doch nach dieser Datei wir eine andere gelesen, welche Datei genau
          das ist, kann keiner sagen, das kann ja schließlich jede andere Datei
          auf der Platte sein, rein statistisch.
          Wenn wir also nun als nächstes eine Datei lesen, die auf der Spur
          neben den Dateisegmenten {1,2,3} liegt und nur aus zwei segmenten
          besteht, so brauchen wir mit der zusammengesobenen Datei auf jeden
          Fall länger zum lesen, als hätten wir wie Datei auf zwei Spuren verteilt.
          Und dabei haben wir nichtmal angenommen, dass ein anderer Prozess das
          lesen irgendwie stört.
          Zusammenfassung, ein Dateisystem muß die Daten nach einer sogenannten
          Online-Strategie (Online-Optimierungsverfahren) platzieren, das leider
          nie optimal sein wird. (So ist das bei Online-Verfahren). Jedoch ent-
          scheidet die Strategie des Verfahrens wie gut wir erwartungsgemäß
          sein werden. Und genau das erreicht ext3 in meinen Augen sehr gut.

          Und wer nun denkt, ok, dann optimiere ich es halt mal von Zeit zu
          Zeit, dann stellt sich die Frage, was ist optimal? Für welchen der
          statisch Möglichen zukünftigen Lesenfolgen von Datein will ich jetzt
          optimieren. Will ich für einen schnellen Linux-Start optimieren??

          Und dabei bleibt eine Sachen noch voll außer Acht.
          Im Moment reden wir immer über best effort. Also lese/schreibe so
          schnell, wie es geht und genau in der angefragten Reihenfolge.
          Wer aber Video-Streams in Echtzeit aufnimmt, der kann den Stream
          nicht 5 sec später schreiben, als erwartet, nur weil gerade Mozilla
          nebenbei gestartet wurde. Hier müssen Garantien gegeben werden.

          Die Statistische Verteilung und segmentierung der Datein auf der
          Platte und die sägezahnverteilung sind genau die notwendigen Ansätze
          um Echtzeitverhalten zu bekommen und keine verhungernden Datenströme.

          Das Thema ist also viel komplexer, als viele Glauben mögen.
          Mir wäre es viel wichtiger, wenn ich einer Anwendung 2MByte/sec Datenrate
          garantieren könnte, da kann ich gern etwas länger auf Mozilla warten.
          Der nice-Wert hilft hier nicht!

          [
          | Versenden | Drucken ]
          • 0
            Von Michael am Do, 20. Februar 2003 um 00:30 #
            Danke,
            endlich mal ein qualifizierter Kommentar.
            [
            | Versenden | Drucken ]
            0
            Von drake am Do, 20. Februar 2003 um 16:27 #
            XFS duerfte dich interessieren. Ich weiss jetzt nicht, in wie weit oder wie zuverlaessig diese Funktion schon auf Linux portiert wurde, aber zumindest unter IRIX ist garantierter Datendurchsatz moeglich. Vermutlich hast Du Dir das auch schon angeschaut, wollte nur auf Nummer sicher gehen ;)
            [
            | Versenden | Drucken ]
    0
    Von ugga ugga am Mi, 19. Februar 2003 um 17:20 #
    Das ist Unsinn weil ext2 nicht fat ist! ext2 arbeitet unter anderem mit "extends" um gerade diesen Punkt der Defragmentierung zu umgehen. Ausserden das schon angesprochene Read Prediction und Read Ahead.

    Man darf nicht von einem mittelalterlichen Dateisystem wie vfat und ntfs auf die Hochleistungssysteme wie ext2/3, xfs, Reiser usw. schliessen. Unter Windows macht Defragmentieren durchaus seinen Sinn und das wird sich wohl erst ändern wenn Microsoft auf ein ganz neues Datenbankbasierte FS umsteigt (sowas in der Richtung ist wohl für zukünftige Windows geplant).

    [
    | Versenden | Drucken ]
    • 0
      Von MichaelB am Mi, 19. Februar 2003 um 17:32 #
      Hallo ugga_ugga,

      >>Man darf nicht von einem mittelalterlichen Dateisystem
      >>wie vfat und ntfs

      NTFS legt Dateien schon von sich aus defragmentiert ab (anders als FAT). NTFS ist also durchaus schon deutlich besser. Und solange die Platte nicht übermäßig voll wird, gibt es auch nicht viel Probleme.

      >>Unter Windows macht Defragmentieren durchaus seinen Sinn
      >>und das wird sich wohl erst ändern wenn Microsoft auf ein ganz
      >>neues Datenbankbasierte FS umsteigt (sowas in der Richtung ist
      >>wohl für zukünftige Windows geplant).

      Naja ... ich weiß ja nicht, was mit Datenbankbasiert gemeint ist aber dadurch wird das ja nicht zwangsläufig besser. Letzlich steht man ja vor den selben Problemen. Und Datenbankbasierte FS kochen auch nur mit Wasser sprich sie müssen die Sektoren auf der Platte effizient verwalten genau wie jedes andere FS. Was wirklich nur sind macht ist, daß Daten die zusammengehören möglichst physisch hintereinander auf der Platte liegen. Sprich wenn eine Datei vergrößert wird, muss so reorganisiert werden, daß diese Datei trotzdem wieder an einem Stück abgelegt ist. Und das natürlich automatisiert und im Hintergrund.

      Gruss
      MichaelB

      [
      | Versenden | Drucken ]
      0
      Von klaus am Mi, 19. Februar 2003 um 18:02 #
      Selbst die Entwickler von ext2 sagen das Defragmentierung nicht erforderlich ist. Zudem steht es ganz ohne Frage: wenn das irgendwie Sinn machen würde, hätte schon lange jemand ein freies Tool geschrieben oder die bestehenden weiter ausgebaut...

      Wenn man bisschen googelt findet man etwas über das Thema. Als Essenz steht fast immer das gleiche (mehr oder weniger noch erklärt warum): es ist nicht erforderlich!

      [
      | Versenden | Drucken ]
      • 0
        Von Asdex am Mi, 19. Februar 2003 um 18:06 #
        >Selbst die Entwickler von ext2 sagen das Defragmentierung nicht erforderlich ist.

        Ließ genauer. Die Entwickler sagen nciht, daß es nichts bringt, sondern, daß es bei Servern nichts bringt. Ein kleiner, aber feiner Unterschied.

        [
        | Versenden | Drucken ]
      0
      Von Hanswurscht am Mi, 19. Februar 2003 um 18:14 #
      > Das ist Unsinn weil ext2 nicht fat ist!
      Immerhin das stimmt an deinem Posting.

      Ein moderner Defragmentierer defragmentiert nicht nur, sondern optimiert auch den phys. Speicherort der Dateien:
      > Ausserden das schon angesprochene Read Prediction und Read Ahead.
      Das bringt genau gar nichts, wenn z.B. die beim Start von OpenOffice benötigten Dateien über die gesamte Partition verstreut sind (wie es ext2 gerne macht).

      > Man darf nicht von einem mittelalterlichen Dateisystem wie vfat und ntfs auf die
      > Hochleistungssysteme wie ext2/3, xfs, Reiser usw. schliessen.

      Im Vergleich zu Ntfs ist ext2 wirklich mittelalterlich.

      [
      | Versenden | Drucken ]
      0
      Von cirad am Mi, 19. Februar 2003 um 21:18 #
      Was sind extends? (Ich kenne nur extends für XFS, aber die haben damit eigentlich wenig zu tun (oder ich verwechsel gerade was.)

      Was Hochleistungssysteme wie ext2/3 angeht, so kann es noch nichtmal Inodes dynamisch anlegen. (: Und NTFS hat ACLs und transparente Kompression (jaja, gibts auch für ext2). Also so ganz mittelalterlich ist es nun acuh wieder nicht.

      [
      | Versenden | Drucken ]
    0
    Von Jan Dreyer am Do, 20. Februar 2003 um 14:41 #
    Du vergisst, dass das Defragmentieren damit ueberhaupt nichts zu tun hat?!
    Beim Defragmentieren werden lediglich auseinandergerissene Dateien wieder zusammengeflickt (auch das nicht unbedingt). "Zusammengehoerige" Dateien werden aber nicht nebeneinandergelegt.

    Da bei neueren FS aber (siehe der ext2-Artikel bei Suse) sowas gar nicht erst passiert, bringt auch das Defragmentieren nichts.

    Allgemein ist es deutlich sinnvoller, die Festplatte bereits bei der Installation richtig aufzuteilen: Haeufig genutzte Partitionen wie Swap und /usr nach vorne(=innen), weniger genutzte nach hinten (=aussen) ...

    [
    | Versenden | Drucken ]
    • 0
      Von Wolle am Do, 20. Februar 2003 um 16:51 #
      > ... vorne(=innen) ... hinten (=aussen) ...

      Das gilt für Knoppix ;)

      Bei CDs ist vorne=innen, bei den allermeisten Festplatten ist vorne=aussen. Aussen ist schneller als innen (fast immer - nie andersherum).

      [
      | Versenden | Drucken ]
0
Von tom am Mi, 19. Februar 2003 um 17:04 #
Weiß zufällig jemand, wie es beim XFS-Dateisystem mit Fragmentierung aussieht? Ich habe das Gefühl, daß die Plattenzugriffe immer langsamer werden, je länger das System auf der Platte ist. Ich benutze Gentoo und kompiliere relativ viel - kann das evtl die Platte fragmentieren?
tom
[
| Versenden | Drucken ]
  • 0
    Von Jürgen Sauer am Mi, 19. Februar 2003 um 20:01 #
    Da gib tes ein standard tool: xfs_fsr
    Das ist als backround server tool für crontab Betrieb gedacht.

    mfG
    Jojo

    [
    | Versenden | Drucken ]
0
Von Wolle am Mi, 19. Februar 2003 um 17:43 #
sondern die Verteilung der Daten über die Platte, mit Lücken zwischen den Dateien. Ein Fragment ist ein Teil einer Datei, zu der es noch andere Teile gibt, die nicht mit ihm zusammenhängen.

Windows (oder DOS) wird dadurch schneller, dass die Köpfe nach einer Defragmentierung nicht mehr über die ganze Platte rauschen, sondern sich auf den wirklich belegten Platz beschränken. Es wird nämlich nicht nur defragmentiert (was sich praktisch nicht bemerkbar macht), sondern auch zusammengeschoben. Das bringt die Geschwindigkeitssteigerung.

Bei ext2 & Co kann das auch Erfolge haben. Man merkt das, wenn man mal ein Backup zurückspielt. Aber der Umgang mit der Platte ist bei Linux einfach besser, so dass die Gewinne kleiner sind.

Ich versuche meine stark aktiven Partitionen immer vorn (bis maximal 2/3 der Plattengröße) anzuordnen. Dort sind die Platten deutlich schneller, als weiter hinten. Außerdem werden die maximalen Kopfbewegungen kleiner. Diese Maßnahmen bringen viel mehr, als jede Defragmentierung.

Gruß Wolle

[
| Versenden | Drucken ]
  • 0
    Von MoMo am Mi, 19. Februar 2003 um 18:09 #
    Die Aussage stimmt bei einer linearen Arbeitsweise wie sie unter Dos, Win31 oder teilweise bei Win95 und Win98 zu sehen ist. Das Problem ist aber, dass auf Multiuser Maschinen mit Multitastking dies keine Bedeutung hat, denn ein Programm wird nie die Gelegenheit haben eine Sequenz komplett zu laden, ohne dass ihm ein anderer dazwischen kommt.

    Hier eine Fallstudie:
    Du liest eine Datei. Waerend sie aber gelesen wird, macht der Kernel einen Logeintrag -> Der F-Kopf muss die position wechseln. Es kann sein, dass einer der zahlreichen Daemonen etwas schreibt -> Der F-Kompf muss neu positioniert werden. Usw... Usw...

    Aus diesem Grund auch, verfuegen Platten ueber einen Cache, in dem Sequenzen gebuffert werden (Hardware-Read Ahead). Mechanismen wie Read Prediction oder Read Ahead sorgen zudem, dass Daten im "Vorrat" geholt werden. Aus diesem Grund ist eine Defragmentierung so egal, wie der Sprichwoertliche Sack Reis. Es ist einfach ein Relikt aus der DOS-Welt, an dem immer noch sehr viele glauben. Ganz oben steht ein Link zu SuSE. Da wird der Prozens auch sehr gut erklaert, warum es so und nicht anderst ist.

    [
    | Versenden | Drucken ]
    • 0
      Von Asdex am Mi, 19. Februar 2003 um 18:21 #
      > Hier eine Fallstudie:
      > Du liest eine Datei. Waerend sie aber gelesen wird, macht der Kernel einen Logeintrag -> Der
      > F-Kopf muss die position wechseln. Es kann sein, dass einer der zahlreichen Daemonen etwas schreibt -> Der F-Kompf muss neu positioniert werden.
      > Usw... Usw...

      Unrealistisch.
      Bei einer typischen Desktopinstallation wäre die Log-Partition in küzester Zeit voll, wenn wirklich so viel protokolliert werden würde, daß Dateizugriffe, wie sie z.B. beim Start von Mozilla oder Openoffice auftreten, *signifikant* gestört werden würden.

      Normalerweise wird höchstens alle paar Sekunden was geloggt. Mehr nicht. Im Gegensatz zu fast 100 Kopfpositionierungen pro Sekunde beim Start von häufig upgedateten Programmen, die "schön" über die gesamte Partition verteilt sind.

      (Wir reden hier *nicht* von Server-Einsatz)

      [
      | Versenden | Drucken ]
      0
      Von radego am Mi, 19. Februar 2003 um 18:53 #
      So ist es... So ähnlich liest sich auch die Erklärung der ext2-Leute zu dem Thema "Defragmentierung". Ob da ein Unterschied zwischen Server und Desktopeinsatz gemacht wurde, weiss ich allerdings nicht mehr.

      Egal... es gibt sicherlich auch bei ext2 was zu Defragmentieren, aber im Grunde ist das alles Pillepalle und nicht erforderlich. Wer ein bisschen googelt wird schnell herausfinden, das man diese Tool sich nicht wirklich kaufen muss, es sei denn mal will ein kleine Firma in Berlin sponsern :)

      [
      | Versenden | Drucken ]
    0
    Von cirad am Mi, 19. Februar 2003 um 21:29 #
    @Wolle:
    Daten zusammenschieben ist schonmal unsinnig. Ein Änderung einer Datei und schon entstehen Lücken, oder Fragmente müssens ans Ende angehangen werden.

    Bei ext2/3 strebt man daher eine Verteilung der Daten an. Dazu werden Gruppen gebildet und jede Gruppe verwaltet zwei Bitmaps für Inodes und Blöcke. Dateien werden dann beispielsweise nach Möglichkeit in die Gruppe geschrieben, in denen auch das Verzeichnis ist, in dem sie liegen.

    Die Gruppen wiederum sind über die komplette Partition verteilt, und das mit voller Absicht. So bleibt überall genügend Spielraum, Lücken zu füllen und Dateien, die "zusammen gehören" (bspw. gleiches Verzeichnis), auch zusammen liegen.

    Das Problem sind größere Dateien. Die Forderung, diese in einem Stück zu haben, ist übrigens unüberlegt, da Gruppen nur 128MB groß sind (defaultmäßig) und in den Gruppen wiederum Unterbrechungen durch Inodes und Bitmaps existieren. Diese Unterbrechungen sind gewollt, denn sonst müßte man wie bei FAT32, immer an den Partitionsanfang, um Metadaten zu speichern, oder die komplette FAT im Speicher halten.

    Mit großen Dateien kann man keine Lücken füllen, große Dateien belegen ganz Gruppen und noch schlimmer, es läßt sich kein Platz dafür reservieren. MLDonkey ist da beispielsweise tötlich, denn es schreibt viele große Dateien parallel in gleiche Gruppen. Das ist dann auch deutlich zu merken, beispielsweise geht die Performance bei mir von 30MB auf 3MB runter. Eine extra Partition für MLDonkey wirkt wunder.

    Was Partitionen "vorne" an einer Platte anbelangt. Natürlich sind sie dort DEUTLICH schneller, deswegen legt man dort auch beispielsweise Swap ab. Nebenbei lohnt es sich, für stark fragmentierende Partitionen wie /var extra Partitionen einzurichten. (Für MLDonkey sollte man das auf jeden Fall machen.)

    [
    | Versenden | Drucken ]
    • 0
      Von Wolle am Do, 20. Februar 2003 um 07:13 #
      > Daten zusammenschieben ist schonmal unsinnig. Ein Änderung einer Datei und schon entstehen Lücken, oder Fragmente müssens ans Ende angehangen werden.

      Was auch immer "zusammenschieben" bedeutet... Zunächst meine ich nicht Dateien in sich zusammenschieben (ohne Fragmente). Ich meine die Gesamtmenge der Daten. Beispiel: Die Platte mit meiner Home-Partition (IBM DNES 309170 - 9,1 GB) hat 11474 Zylinder. Seek Times: Average:70ms, Full:130ms. Bei einer Partition und über die gesamte Partition verteite Daten, warte ich also im Durchschnitt 70ms, bis die angeforderte Daten beim Prozessor eintrudeln. Ständig belegt habe ich ca. 500 MB, die sich schon mal auf 4 GB aufblähen, und beim Aufräumen dann wieder auf 500 MB schrumpfen.

      Wenn ich die Daten in eine 4,5 GB Partition "zwänge", so dürfte die mittlere Zugriffszeit sich auf etwa 40ms reduzieren (von mir geschätzt). Das bedeutet dann fast die doppelte Geschwindigkeit. Dieser Effekt reduziert sich natürlich deutlich, wenn die nächsten Daten "in der Nähe" liegen.

      Wenn ein Zusammenschieben der Daten von 9 GB auf 4,5 GB sich deutlich bemerkbar macht, so wird der Gewinn größer, wenn die Daten weiter zusammengeschoben werden. Nun muss das ja nicht gleich auf 500 MB bei mir sein, aber wie wäre es denn mit z.B 2 GB bei geschätzter Zugriffszeit von 25 ms?

      Ich glaube nicht, dass ext2 meine 500 MB nach dem Anlegen des Dateisystems gleichmäßig auf die 9,1 GB verteilt. Meine Beobachtung widerspricht dem. Später, nach Downloads, Kopieraktionen u.ä., sieht das dann schon ganz anders aus. Ein Tool das nach einer Löschaktion den Anfangszustand wieder herstellt, dürfte auf meiner Home-Platte zumindest zu spürbaren Geschwindigkeitssteigerungen führen.

      Nichtsdestotrotz finde ich es egal, ob mein OpenOffice jetzt 60 Sekunden zum Starten braucht (real gemessen), oder sich auf vielleicht 45 Sekunden beschleunigen lässt. Immerhin müsste ich mich um solche Tools kümmern, und am ungemounteten Dateisystem arbeiten. Wo nehme ich die Zeit her, wenn ich dreimal am Tag 15 Sekunden spare? OK, nicht nur OpenOffice würde schneller - trotzdem glaube ich nicht, dass sich das lohnt.

      Aber wie wäre es, wenn sich das Dateisystem selber ein bischen optimieren würde? So als Cronjob alle Tage mal wieder nachsehen, ob man da nicht was machen kann und in Zeiten geringer Plattenaktivität "da mal Hand anlegen"?

      [
      | Versenden | Drucken ]
0
Von panzi am Mi, 19. Februar 2003 um 18:16 #
Warum eigentlich nur für ext2??
Das verwendet keiner der großen Distributoren als Standartfilesystem mehr!!! ext3, reiserfs, jfs und xfs sind alle um einiges besser (wenn auch die 2 Letzten erst seit relativ kurtzer Zeit im offiziellen Kernle vertreten sind).
[
| Versenden | Drucken ]
  • 0
    Von Jan am Mi, 19. Februar 2003 um 19:33 #
    lies mal das Posting ganz am Anfang und auch den Links zur Suse-Datenbank. Einer der Gründe von "nicht zusammenhängenden Daten" nach einen Filecheck sind die Inodes. Diese werden immer in einen bestimmten Abstand angelegt. Dazwischen kommen dann alles restlichen Daten.

    Sich Gedanken über Defragmentierung bei Unix-Dateisystemen zu machen ist _Zeitverschwendung_. Es gibt genügend Literatur im Netz und in Bibliotheken von Informatik-Fakultäten um sich davon zu überzeugen.

    Ein zweiter zentraler Gedanke von Unix, auch Linux, ist das Cachen von Daten. Lass mal deinen Rechner eine Weile laufen, starte Programme, mach irgendwas, beende Programme, usw.. Ganz schnell wird dein Arbeitsspeicher voll, kannst du dir mit xosview ansehen.
    Dabei wird aber _sehr_ viel gecacht. Warum wohl?

    Unixbasierende Systeme versuchen mit sowenig Kopfbewegungen wie möglich auszukommen und Daten _zusammenhängend_ abzulegen. Im Gegensatz Systemen von diesem M... mir ist der Name entfallen ;-)


    Fazit: Defragmentierung ist Zeitverschwendung, wenn $Newuser zuviel Geld hat kann er es gern an FSF, Software in the public Internet u.a. spenden

    [
    | Versenden | Drucken ]
    0
    Von pab am Mi, 19. Februar 2003 um 21:36 #
    Ob ext2 oder ext3 ist dem egal..

    ext3 ist nur ein journaling aufsatz.. ein ext3 fs kann man auch ohne probleme als ext2 mounten, halt nur ohne journaling...

    folglich geht das tool auch mit ext3...

    [
    | Versenden | Drucken ]
    0
    Von cirad am Mi, 19. Februar 2003 um 21:36 #
    Das ist ja das tolles an ext3, daß es zu ext2 "kompatibel" ist. Die Tools, die du auf ext2 anwenden kannst, kannst du auch auf ext3 anwenden.

    Probleme dürftest du wohl nur bekommen, wenn Metadaten im Journaling File noch nicht abgearbeitet sind, weil der Rechner ausgefallen ist, und du dann die komplette Partition umschreibst, ohne vorher nen Logfile-Replay zu machen. Keine Ahnung, ob das bei dem Defrag-Programm berücksichtigt wird. Aber im Endeffekt ist das kein Problem, wenn man es nicht auf "unsaubere" ext3-Partitionen anwendet.

    [
    | Versenden | Drucken ]
0
Von Zeitverschwendung am Mi, 19. Februar 2003 um 22:16 #
Aber die von OoSoft werden schon wissen was sie tun.
Haben wir nicht was anderes was die für uns programmieren könnten?

Z.B. einen kommerziellen Linux DVD Player den die Hersteller mitliefern können.

(aber XINE tuts ja ganz gut :-)

[
| Versenden | Drucken ]
0
Von Schugy am Mi, 19. Februar 2003 um 22:29 #
Sollen Windowser doch glauben, dass defrag der Festplatte guttut, Ihnen Tage an Arbeit durch Zeitgewinn erspart, die Datensicherheit erhöht und die ganze Systemstabilität davon abhängt :-D

Die 48MB als ext2 meiner Bootpartition sind auch nicht wirklich zu optimieren *gg*

MfG

[
| Versenden | Drucken ]
0
Von matong am Mi, 19. Februar 2003 um 23:46 #
Helau,
ich setzte bei mir reiserfs ein, und frage mich gerade, ob man bei dieser defragmentieren muss/kann/sollte. Hier wurde leider nur auf ext2/3 eingegangen.

schönen abend noch,
matong

[
| Versenden | Drucken ]
0
Von Icke-linux am Do, 20. Februar 2003 um 08:19 #
habe mir das Programm mal runtergeladen und auf diskette geschmissen und gebootet.
naja was soll ich sagen. das Programm hat mir die Festplatte in einzelteile zerlegt, naja zumindest das Filesystem.
war nichts mehr zu machen. e2fsck hat milarden von fehlern gefunden und der rettungsmodus des programms meinte bloss die platte sei nicht konsistent und beendete sich.
naja also vorsicht, wer mal neuinstallieren will kann das danach gerne tun.
[
| Versenden | Drucken ]
  • 0
    Von fetzer am Do, 20. Februar 2003 um 11:13 #
    Ooh? Auch wenn das Tool keinen Sinn macht, hätte man zumindest erwartet das es seine Aufgabe korrekt erledigt. Naja, wenn Amateure versuchen Systemtools zu schreiben... :)
    [
    | Versenden | Drucken ]
0
Von dibo am Do, 20. Februar 2003 um 14:56 #
hm, sowas gibts doch schon unter gpl.
davon ab, wer schnelle server braucht holt sich gescheite hardware, und macht ein raid.

ciao,
dibo

[
| Versenden | Drucken ]
0
Von drake am Do, 20. Februar 2003 um 16:32 #
Bei etwas so unwichtigem wie dem Dateisystem und der Kompatibilitaet der Linuxdistributionen werde ich sicherlich ein nicht offenes Programm an meine Daten lassen ...

P.S.: Ich hab gelesen, das es statisch gelinkt ist. Aber nachdem mein Rock-Linux-Rettungssystem - basierend auf Kernel 2.4.3 sich weigerte, eine mit kernel2.4.19 und entsprechend neueren e2fsprogs formatierte ext2-Partition zu mounten, werde ich so ein Programm sicher kein Vertrauen haben.

[
| Versenden | Drucken ]
  • 0
    Von drake am Do, 20. Februar 2003 um 16:46 #
    Davon mal ab, da die Partitionen eh nicht eingebunden sein duerfen, bezweifele ich, das die Qualitaet an die von tar rankommt Partition mit tar sichern, loeschen oder neu formatieren, wieder entpacken. Natuerlich ro eingebunden waehrend des lesens, um Inkonsistenzen zu vermeiden).

    Hab seinerzeit zwei 15G Partitionen auf neue Platten verschoben, und, warum auch immer, mv hat bei mir nicht wirklich die Fragmentierung reduziert, im Gegensatz zu tar.

    [
    | Versenden | Drucken ]
0
Von ceo am Do, 20. Februar 2003 um 18:10 #
Da soll noch einer sagen Deutsche Firmen sind innovativ :-( Da werden Dinge entwickelt die kein Mensch braucht und deren Sinn sehr fragwürdig ist, ganz abgesehen davon das sie Fehlerfrei funktionieren. Aber man entwickelt erstmal darauf los, wird ja schon paar Heinis geben denen man das aufs Auge drücken kann...

Da braucht man sich gar nicht mehr wundern, wenn diese kleine Berliner Firma auch irgendwann auf der Insolvenzliste steht.

[
| Versenden | Drucken ]
  • 0
    Von Caligula am Do, 20. Februar 2003 um 21:15 #
    Gerade die sind sehr überlebensfähig.

    Schick - Schnack verkaufen, aber nichts gutes für die linuxgemeinde tun.


    Das "gute tool" erinnert mich an meine Azbizeit als KFZ-lehrling.
    Welches auto braucht eine Vergasser Innenbelechtung.

    [
    | Versenden | Drucken ]
0
Von knorke am Do, 20. Februar 2003 um 20:13 #
Für was soll das unter Linux gut sein?
So ein überflüssiger Blödsinn!
[
| Versenden | Drucken ]
0
Von Paule Panke am Do, 20. Februar 2003 um 22:42 #
Das ist doch wirklich totaler Unsinn so ein Defragtool für ext2. Die werden auf dem Käse sitzen bleiben, weil bestimmt nur ein paar Newcomer darauf reinfallen werden.
Kann man ja wirklich überall lesen, von den Leuten die selbst an den Filesystemen mitentwickelt haben, daß Defragmentierung nicht erforderlich ist.
[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung