Login
Newsletter
Werbung

Thema: Ubuntu 9.04 kommt mit Ext4

19 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von Uli am Di, 13. Januar 2009 um 14:01 #
Verstehe ich nicht, der Witz am Journal ist doch, dass es die Konsistenz gewährleistet?
[
| Versenden | Drucken ]
  • 0
    Von LH am Di, 13. Januar 2009 um 14:17 #
    Ja, und nein. Auch ein Journal muss kein 100%iger garant sein das alles stimmt. Es stellt ja an sich nur sicher das es bei Problemen beim schreiben keine Daten verliert.
    Aber es können ja auch andere Fehler auftretten, z.B. ein Bug in der Dateisystemimplementierung, oder auch ein Hardwarefehler. Gerade in letzterem Fall kann es sehr gut passieren das es vom Dateisystem selbst nicht erkannt, und erst ein Komplettcheck zeigt wenn etwas nicht stimmt.
    [
    | Versenden | Drucken ]
    • 0
      Von gnomey am Di, 13. Januar 2009 um 14:22 #
      Ja aber Hardwarefehler sollten eigentlich über SMART erkannt werden und zwar
      - im laufenden Betrieb und ohne zusätzliche Zeitaufwand
      - tlw. soweit möglich schon im Vorfeld, bevor also tatsächlich Datenverlust auftritt

      leider läuft der smartd wohl nur auf wenigen Systemen, viele fühlen sich hier durch fsck sicher, der leider erst anzeigt wenns zu spät ist. Tja auch unter Linux gibt es eben zunehmend falsch/schlecht informierte User.

      [
      | Versenden | Drucken ]
      • 0
        Von phnord am Di, 13. Januar 2009 um 14:27 #
        Datensicherheit gibt es nur durch Redundanz. Da hilft auch SMART nicht, schließlich hat auch SMART keine Glaskugel um auftretende Fehler zu erkennen.
        [
        | Versenden | Drucken ]
        0
        Von detru am Di, 13. Januar 2009 um 14:29 #
        sollte, müsste, könnte.

        Fällt dir was auf? Das ist alles relativ.

        Ext 3 ist mir schon mehrmals ohne besonderen grund um die Ohren geflogen, tux sei dank hat mich dieser check beim booten vor dem schlimmsten bewahrt und ich konnte die 300 inodes durch permanentes drücken von "y" "reparieren"...

        Software ist fehleranfällig und beinhaltet fehler und das ist bei fast jeder software so und genau deswegen muss man Kontrollen durchführen.

        Ansonsten sieht das nämlich wie bei Microsoft Windows aus: Dein System fragmentiert dir deine Dateien unterm hintern und nebenbei geht das Dateisystem auch noch hopps und keiner merkts bis es zu spät ist und das ganze ding nicht mehr starten will

        Und zu SMART: Meine Festplatte wird von keinem verfügbaren Smarttool erkannt bzw. richtig ausgelesen (laut den dingern dürfte meine festplatte nicht mehr funktionieren) soviel dazu...

        [
        | Versenden | Drucken ]
        • 0
          Von Yu Kei am Di, 13. Januar 2009 um 16:11 #
          Da kann man sagen was man will (und leider ist es erst seit Suse 11.0 anders). Das Reiser fs war aus der Benutzer Sicht ein verflucht gutes Dateisystem. Ich weiss nicht wie lange ich dieses System auf wie vielen Rechner benutzt habe, und zum Teil auch immer noch benutze. Mir ist in all diesen Jahren nicht ein einziges Reiser in den Reperaturstatus gegangen und das obwohl ich teilweise den Larry hab raushängen lassen und die Systeme mal kurz ausgeschaltet habe.
          [
          | Versenden | Drucken ]
          • 0
            Von DuuuDooooh am Di, 13. Januar 2009 um 16:59 #
            Mir ist Reiser 2x komplett um die Ohren geflogen.
            Hatte ich bei ext2/3 noch nie.
            [
            | Versenden | Drucken ]
            0
            Von allo am Di, 13. Januar 2009 um 18:54 #
            Lol. Schalt einmal den PC im laufenden Betrieb aus mit Reiser. Danach macht dir fsck das ganze FS kaputt.
            [
            | Versenden | Drucken ]
            • 0
              Von gargel karg am Mi, 14. Januar 2009 um 02:37 #
              Unsinn. Wir hatten eine ganze Weile 'nen Fileserver mit reiserfs laufen, der staendig einfach im laufenden Betrieb ausgeschaltet wurde ohne ihn korrekt runterzufahren, da das Buttonmodul unter einem 2.4er-Kernel nicht richtig funktionierte. Gab trotzdem keine Probleme.
              [
              | Versenden | Drucken ]
              0
              Von ac am Mi, 14. Januar 2009 um 13:03 #
              Das wird einiger Wahrscheinlichkeit nach an etwas anderem gelegen haben. Ich habe schon mehrfach bei Systemen mit ReiserFS den Stecker gezogen und danach ohne Probleme wieder hochgefahren.
              [
              | Versenden | Drucken ]
            0
            Von Vrenn am Di, 13. Januar 2009 um 19:20 #
            Ich habe auch jahrelang Reiser benutzt, und es ist aus Benutzersicht wirklich ein verflucht gutes Dateisystem, solange nix passiert...
            Durch einen Motherboardfehler stürzte der PC ab, das Dateisystem nicht mehr lesbar und ich kann dir versprechen: bei einem Reiser den Tree zu rebuilden weil dir (Hardware/Strom weg) ist die Hölle schlechthin. Die "Ausbeute" ist im Vergleich zu ext3 auf grund der B-Tree Struktur miserabel, noch höflich ausgedrückt (aus eigener Erfahrung, selber PC annähernd selbe Daten, Stromausfall). Das binäre Suchen von Daten innerhalb Dateifragmenten bleibt dir bei einem gekräschtem Reiser nie erspaart.
            Ext3 ist da stählener. Es gibt einfach mehr gut geschriebene Tools, und Sicherungshaken eingebaut im System. Im Falle des Falles hast du einfach um ein vielfaches mehr Möglichkeiten.
            Fazit: solange es läuft prima, aber ein Problem und es lässt die Hose runter...
            [
            | Versenden | Drucken ]
        0
        Von yxcv am Di, 13. Januar 2009 um 14:29 #
        # aber Hardwarefehler sollten eigentlich über SMART erkannt werden
        Stört dich das eigentlich und das tlw. gar nicht. ;-)
        Nichts ist perfekt und wenn ich mich nicht irre, gibt es auch Ausfälle,
        die smart nicht erkennt. (Meine da stand mal was in einer der Linux-
        Zeitschriften.)
        [
        | Versenden | Drucken ]
        0
        Von Marc am Di, 13. Januar 2009 um 15:01 #
        Wie macht sich denn smart so im SAN? ;)
        [
        | Versenden | Drucken ]
        0
        Von ac am Mi, 14. Januar 2009 um 12:57 #
        > Ja aber Hardwarefehler sollten eigentlich über SMART erkannt werden

        Eigentlich. In der Praxis ist SMART sowas von unzuverlässig - da kann man gleich eine Münze werfen.

        [
        | Versenden | Drucken ]
        • 0
          Von Anonymous am Do, 15. Januar 2009 um 23:43 #
          > In der Praxis ist SMART sowas von unzuverlässig
          Dem kann ich nur zustimmen. Ich kenne einige klar defekte Festplatten, die von Smart noch als OK bezeichnet werden. Da fragt man sich schon, was das Ganze soll, wenn nicht einmal offensichtliche Defekte angezeigt werden. Naja.
          [
          | Versenden | Drucken ]
      0
      Von energyman am Di, 13. Januar 2009 um 14:48 #
      falsch. Es stellt einfach nur sicher, daß die Struktur gewährleistet bleibt und das Dateisystem konsistent ist. Die Daten können dabei schonmal verloren gehen.
      Dazu kommt, daß ext3 im falschen Moment unterbrochen, durchaus Unsinn verzapfen kann. Verschlimmernt kommt hinzu, daß bei ext3 per default barrier aus sind - schließlich interessiert kein Schwein, ob die Daten es auf die Platte schadden oder das fs in Ordnung ist - hauptsache Geschwindigkeit!
      ...

      wenn einem an den Daten liegt, nimmt man sowieso lieber reiserfs oder xfs.... die haben barrier an - und sind dann deutlich schneller als ext3, wenn man das dort auch aktiviert.

      [
      | Versenden | Drucken ]
      • 0
        Von Uli am Di, 13. Januar 2009 um 17:54 #
        "falsch. Es stellt einfach nur sicher, daß die Struktur gewährleistet bleibt und das Dateisystem konsistent ist"

        Das ist doch genau, was beim Check regelmäßig überprüft wird, zur Datenintegrität kann fschk auch keine Aussagen treffen. Redundant und lästig, jedenfalls habe ich hier noch kein bestechendes Argument gehört, wo der Vorteil der regelmäßigen Checks liegen soll. Mein xfs macht sowas übrigens nicht und ich glaube noch immer, dass man das einfach aus Gewohnheit von ext2 übernommen hat.

        [
        | Versenden | Drucken ]
        • 0
          Von LH am Di, 13. Januar 2009 um 22:34 #
          "Redundant und lästig"

          Nein, den wie gesagt kann die Datenstruktur auch am Journaling vorbei beschädigt werden.

          Mögliche Ursachen die mir spontan einfallen
          1. Fehler in der Implementierung des Dateisystems
          2. Hardwarefehler der HDD
          3. Eine andere Implementierung mountet das Dateisystem und beschädigt es

          [
          | Versenden | Drucken ]
    0
    Von fuffy am Di, 13. Januar 2009 um 19:36 #
    Das kann es gar nicht. Es reicht schon ein Write-Buffer im Festplattencontroller, der bei einem Stromausfall nicht vollständig weggeschrieben wurde.
    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung