Login
Newsletter
Werbung

Thema: Fortschritte beim Dateisystem Tux3

50 Kommentar(e) || Alle anzeigen ||  RSS || Kommentieren
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von fuxxxbau am Mo, 1. Dezember 2008 um 14:21 #
Schade um die Entwicklerenergie, die da verschwendet wird. Die sollen doch lieber mal Reiser4 weiterentwickeln - das hat seit jeher mehr Potenzial und scheiterte bisher eigentlich nur an der fehlen sozialen Kompetenz von Hans Reiser. Aber der ist ja nun weggesperrt, also steht einer ordentlichen Weiterentwicklung und Kernelintegratin nix im Wege. Alle "neuen" Ansätze wie Btrfs, Tux3 und Ext4 sind nichts revolutionäres, sondern lediglich Wiedergekäue von 20 Jahre alten Technologien und verkrusteten Vorstellungen, wie ein Dateisystemdesign auszusehen hat.
  • 0
    Von o13 am Mo, 1. Dezember 2008 um 14:44 #
    Was du ueber Btrfs schreibst ist totaler Unsinn. Btrfs ist
    vollkommen neu. Nimmt Ideen unter anderem von Reiser4.

    Vor 20 Jahren hat keiner auch nur im entferntesten
    an die Features gedacht die Btrfs hat bzw haben wird.

    Der Omega13.

    0
    Von Haha am Di, 2. Dezember 2008 um 13:07 #
    Schade um die Entwicklerenergie, die da verschwendet wird. Die sollen doch lieber mal mehr kohlekraftwerke bauen - das hat seit jeher mehr Potenzial und scheiterte bisher eigentlich nur an der dummen umweltbewussten Bevölkerung. Aber die kann man ja wegsperrenn, also steht einer ordentlichen Weiterentwicklung und Netzintegration nix im Wege. Alle "neuen" Ansätze wie Wind-, Wasser- und Sonnenenergie sind nichts revolutionäres, sondern lediglich Wiedergekäue von 20 Jahre alten Technologien und verkrusteten Vorstellungen, wie ein Kraftwerk auszusehen hat.
0
Von grafiker?! am Mo, 1. Dezember 2008 um 14:26 #
hi leute,
kann mir einer sagen, warum ich einen grafiker zum entwickeln eines filesystems benötige? oder designt der nur letztlich das projekt-logo? oder was bedeutet dieser "geheimnisvolle" letzte satz? was ist junkfs? fragen über fragen....
0
Von Captn Difool am Mo, 1. Dezember 2008 um 14:45 #
war schon immer ein Merkmal der Open Source Szene. Mittlerweile gibt es bald mehr Dateisysteme als Desktops und jeder hat "sein" ganz spezielles Lieblingssystem. Aber wo Wettbewerb in der kommerziellen Welt für günstigere Angebote sorgt, ist der Wettbewerb in der OS der von Ideen und davon kann es nicht genug geben. Nicht die billigste Lösung soll hier zum Erfolg kommen, sondern die Beste. Von daher weiter so.
  • 0
    Von o13 am Mo, 1. Dezember 2008 um 14:53 #
    > [...] ist der Wettbewerb in der OS der von Ideen und davon kann es nicht genug geben.
    Endlich mal einer der es blickt. Genau so ists!

    Zumal der Kernel so modular ist und Interfaces bietet, dass
    das hinzufuegen von (zB) Dateisystemen
    weder der Uebersichtlichkeit noch der Codestruktur schaden.

    Der Omega13.

    0
    Von ki am Mo, 1. Dezember 2008 um 15:02 #
    0
    Von Thomas am Mo, 1. Dezember 2008 um 18:12 #
    Na klar! Vielfalt bringt Innovation. Leider hat das in meinen Augen auch folgenden Nachteil:
    Wenn jeder was eigenes macht ist nichts kompatibel. Meine externen Datenträger muss ich immer noch mit FAT32 formatieren. Damit die Dinger Problemlos auf allen (gängigen) Systemen gelesen werden und beschrieben werden können.
    Gerade im Bereich Video-Postproduktion hat man ständig mit Macs, PCs und der ein oder anderen Linux-Kiste zu tun. Da nerven die FT32 Einschränkungen (2GB/file) auf jeden Fall gewaltig!
    Oder gibt es dafür eine mir nicht bekannte Lösung?
    Also: Vielfalt ist ne super Sache aber offene Standards (und saubere APIs) bringen - meiner Ansicht - der Entwicklergemeinschaft mehr. OpenDocument will ja auch jeder haben....
    Wie seht Ihr das?

    Beste Grüße
    Thomas


    • 0
      Von Alex am Mo, 1. Dezember 2008 um 18:24 #
      > Oder gibt es dafür eine mir nicht bekannte Lösung?

      Ext2:

      http://sourceforge.net/projects/ext2fsx/
      http://www.fs-driver.org/

      • 0
        Von pragmat am Mo, 1. Dezember 2008 um 21:48 #
        äh, ja, wenn du mal eben schnell eine Datei auf einen anderen (windows)Rechner kopieren willst, musst du erst einen neuen fs-Treiber installieren - besonders lustig, wenn du keine Admin Rechte auf dem Rechner hast und der Admin gar nicht so angetan von der Idee ist..
        • 0
          Von Lukas am Mo, 1. Dezember 2008 um 22:28 #
          Wer schreibt denn hier was von "mal eben schnell"? Das war nicht die Anforderung des Vorposters. Während seiner Video-Postproduktion wird er wohl nicht "mal eben schnell" Dateien kopieren, sondern eher regelmäßiger. Und dann gibt's halt nicht so viele Lösungen. Hilft halt nix wenn FAT32 schlapp macht, weil die Dateien zu groß sind. Aber ausser ext2 und ntfs gibt's halt nicht viel was von allen Plattformen unterstützt wird. Da hilft dann auch das Gejammer vom Admin nix, wenn der Workflow steht und der Kunde auf die Ergebnisse wartet.
        0
        Von Thomas am Di, 2. Dezember 2008 um 12:02 #
        prinzipiell gute sache. aber eben ohne admin rechte nicht zu machen. (z.B: an Unis!)
        Aber auch einfach ein risikofaktor wenn schnell produziert werden muss!
      0
      Von ki am Mo, 1. Dezember 2008 um 18:58 #
      Die bessere(n) Idee(n) gewin(nt)(nen) und wird/werden Standard!
      0
      Von Nathan am Mo, 1. Dezember 2008 um 19:02 #
      die einzige andere Lösung (die ich kenne) für dein Problem ist NTFS,
      keine nervigen Einschränkungen aber sehr cpu-lastig mit ntfs-3g,
      fast jeder hat unter linux ntfs-3g (in meinem bekanntenkreis),
      windows hat auch ntfs unterstützung
      bei mac gibt es auch ntfs-3g hab aber keine arnung wie verbreitet das ist

      mfg

      • 0
        Von paul am Mo, 1. Dezember 2008 um 22:41 #
        > die einzige andere Lösung (die ich kenne) für dein Problem ist NTFS

        Ist denn NTFS bei Linux schon so stabil genug, um es gefahrlos auf externen Festplatten zum Datenaustausch mit anderen Systemen benutzen zu können?

        • 0
          Von gustl am Di, 2. Dezember 2008 um 14:16 #
          Kenne keine Berichte wonach ntfs-3g nicht funktionieren sollte.

          Ich wollte 2 externe Fesplatten redundant betreiben, nicht als RAID, sondern mit hilfe von synchronisation (unison). Das hat ein paar Wochen sehr gutmit NTFS funktioniert, bis die Datenmenge so groß war, dass das Synchronisieren extrem langsam war.

          Ich habe dann doch auf ein RAID umgebaut, und dort natürlich kein NTFS mehr eingesetzt, weil ja der Vorteil den ich mir erhalten wollte (Portabilität) sowieso weg war.

        0
        Von A. Nonymous am Mo, 1. Dezember 2008 um 23:25 #
        fast jeder hat unter linux ntfs-3g

        Das mag bei Dir so ein ist aber wohl nicht die Regel. Hier verwendet das niemand. Dafür haben etliche Leute ext2 unter Windows.

        NTFS auf externen Datenträgern macht hier übrigens ständig Probleme mit Rechten (auf dem Zielrechner kann niemand mehr auf die Daten zugreifen und Rechte ändern geht auch nicht) und außerdem ist es ständig inkonsistent.

        Aber meist werden Daten sowieso über Netz übertragen.

        • 0
          Von gast am Mo, 1. Dezember 2008 um 23:33 #
          > >fast jeder hat unter linux ntfs-3g
          >
          > Das mag bei Dir so ein ist aber wohl nicht die Regel. Hier verwendet das niemand.

          NTFS-Support ist doch im Linux-Kernel drin.

          • 0
            Von wer am Di, 2. Dezember 2008 um 03:42 #
            Nur lesend.
            Eine ältere andere Entwicklung, die nur noch gepflegt wird nicht weiterentwickelt.
            Alles konzentriert sich auf ntfs-3g, das aber nicht Kerneltauglich geschrieben ist
            • 0
              Von gast am Di, 2. Dezember 2008 um 12:11 #
              Mein Linuxkernel schreibt auch NTFS! Keine Ahnung, welches Modul dafür zuständig ist.
              • 0
                Von wer am Mi, 3. Dezember 2008 um 10:31 #
                Dann ist es höchst wahrscheinlich NTFS-3g, das über fuse läuft. Der eigendliche FS-Treiber läuft allso im userspace. Davon merkt man nichts, da man einafch mount und co nutzen kann, jedoch ist es nicht direkt im Kernel.
              0
              Von kk am Mi, 3. Dezember 2008 um 04:41 #
              > Nur lesend.

              Das war früher mal.

          0
          Von komsomolze am Di, 2. Dezember 2008 um 16:08 #
          >>A. Nonymous
          >>NTFS auf externen Datenträgern macht hier übrigens ständig Probleme mit Rechten
          >> (auf dem Zielrechner kann niemand mehr auf die Daten zugreifen und Rechte ändern geht auch nicht)

          Nicht so ganz, ein neu angelegtes Dateisystem ist erstmal world-writeable,
          leider aber mit replizierenden Rechten.
          Mit winfile.exe kann das aber leicht geändert werden auf F:Jeder
          natürlich auch mit cacls.
          Dadurch hast Du die Rechte vom alten FAT mit den Vorteilen des NTFS

      0
      Von thomasg am Mo, 1. Dezember 2008 um 20:10 #
      Wir leben in Zeiten in denen Gigabit-Ethernet Mindeststandard ist - gerade im Bereich Video-Postproduktion wird hoffentlich keiner mehr Botengänge mit der externen Festplatte machen...
      Wo die 100 MByte/s von Gigabit-Ethernet wirklich nicht mehr ausreichen, also professionelle Storagesysteme eingesetzt werden, darf man 10GBase-T durchaus voraussetzen.
      Dank einer großen Auswahl an (fast) plattformunabhängigen Protokollen, von SFTP über iSCSI bis hin zu Fibre Channel, ist Interoperabilität überhaupt kein Problem.

      Zugegeben - wir leben auch in Zeiten wo schon im Heimbereich Dateigrößen von 5-20 GB üblich sind - aber dass man den USB-Stick nicht mit einem modernen Dateisystem ausstatten kann und damit von Plattform zu Plattform laufen kann ist sicherlich kein Problem von Linux. Nachdem seit vielen Jahren zu einem Großteil ext3 eingesetzt wird hat es noch kein anderer Systemhersteller für nötig empfunden dieses offene Dateisystem auf die eigene Plattform zu portieren. Stattdessen blieb man auf dem eigenen einzelnen Dateisystem mit geheimen Spezifikationen sitzen.
      Wer Mac oder Windows nutzt ist also - wie immer - selber schuld. Schade natürlich, dass beide Plattformen noch immer sehr verbreitet sind.

      Wie dem auch sei, es wäre vielleicht einmal an der Zeit an Schnittstellen wie eSATA und USB3 über ein Dateisystemunabhängiges Dateiubertragungsprotokoll zu denken, selbst wenn das der Performance in diesem Übertragungsmodus abträglich ist.

      • 0
        Von Chaoswind am Mo, 1. Dezember 2008 um 21:51 #
        Glaubst du der jede Kamera in der Wildnis läuft einem Gigabit-Ethernet-Kabel durch die Gegend? Oder jede noch so kleine klitsche kann sich eine Standleitung mit der Geschwindigkeit leisten? Von "Heimarbeitern" ganz zu schweigen.
        0
        Von Paul am Mo, 1. Dezember 2008 um 22:49 #
        Sind Linuxdateisysteme überhaupt zum Datenaustausch auf mobilen Datenspeichern empfehlenswert?
        Was haltet ihr von den Aussagen in diesem Forum?
        Wie ist das mit den Problemen der Eigentumsrechte von Dateien, wenn man sie unter verschiedenen Systemen austauscht? Was wenn der Eigentümer auf dem Quellsystem eine andere UID als auf dem Zielsystem hat?
        • 0
          Von r2d2xyz am Di, 2. Dezember 2008 um 15:38 #
          "Wie ist das mit den Problemen der Eigentumsrechte von Dateien, wenn man sie unter verschiedenen Systemen austauscht?"

          Die Eigentumsrechte bleiben natürlich erhalten.

          "Was wenn der Eigentümer auf dem Quellsystem eine andere UID als auf dem Zielsystem hat?"

          Dann Hast Du Pech gehabt, die Dateien gehören Dir dann nicht.
          Denselben Effekt erzielst Du auch, wenn Du z.B. OpenSuse 11.0 und Slackware 11.0 oder Suse 9.0 parallel installierst.

          "Sind Linuxdateisysteme überhaupt zum Datenaustausch auf mobilen Datenspeichern empfehlenswert?"
          Das hängt vom mobilen Datenspeicher ab.

          Bsp.: USB-Sticks: Ein klares Nein.
          USB-Sticks kann man nur recht eingeschränkt wiederbeschreiben, sehr oft sind es nur 10000 bis maximal 100000 Schreibzyklen. Reines Verbrauchsmaterial also.
          Legt man etwa ein ext3-Datensystem auf einem USB-Stick an, dann kann man sich vorstellen, was das Journal auf dem Stick anrichtet.
          Alternativ ginge auch ext2 mit der noatime-Option.
          Zum Problem mit den Eigentumsrechten: siehe oben.
          Vfat/FAT32 besitzt demgegenüber keine Journalfunktion, die Eigentums- und Zugriffsrechte gehen beim Kopieren auf den Stick verloren, sind also nicht mehr existent und damit irrelevant.

          Fazit: Wenn Du Dateien zwischen unterschiedlichen Betriebssystemen, ja sogar zwischen unterschiedlichen Linuxen (siehe obiges Beispiel) austauschen möchtest, dann solltest Du vfat/FAT32 benutzen.

          • 0
            Von thomas am Di, 2. Dezember 2008 um 15:45 #
            > Fazit: Wenn Du Dateien zwischen unterschiedlichen Betriebssystemen,
            > ja sogar zwischen unterschiedlichen Linuxen (siehe obiges Beispiel) austauschen möchtest,
            > dann solltest Du vfat/FAT32 benutzen.

            Aber vfat kommt mit großen Dateien nicht klar! NTFS ist unter Linux vermutlich nicht so stabil. Also was soll man nehmen?

            • 0
              Von r2d2xyz am Di, 2. Dezember 2008 um 15:51 #
              Was ist denn Dein konkretes Problem?
              Welche Dateien welcher Größe müssen von welchem Betriebssystem auf welches (und gegebenenfalls zurück?) übertragen werden?
              Vor allen Dingen warum?
              Kannst Du denn nicht alle Arbeiten nur auf einem Betriebssystem (z.B. Win mit NTFS) erledigen?
              • 0
                Von thomas am Di, 2. Dezember 2008 um 16:03 #
                > Kannst Du denn nicht alle Arbeiten nur auf einem Betriebssystem (z.B. Win mit NTFS) erledigen?

                Ich selber habe kein Windows und will mir auch keines beschaffen. Trotzdem könnte mal das Bedürfnis bestehen, mit einem Windowsuser oder einem anderen Linuxuser Daten auszutauschen. Das könnten alle möglichen Dateien sein. Welche, das ist ja jetzt irrelevant. Denke aber auch mal an Filme oder DVD-images. Da ist die 4GB-Gernze von vfat schnell überschritten.

                • 0
                  Von r2d2xyz am Di, 2. Dezember 2008 um 16:24 #
                  Es hängt letztendlich von Deinem Nutzerverhalten ab, ob Du z.B. eine externe USB-Festplatte mit ext3 oder aber mit ntfs benutzt.
                  Da Du kein Windows besitzt, ist ntfs nicht wirklich eine Wahl für Dich. Es sei denn, der von Dir beabsichtigte Datenaustausch findet sehr oft statt.
                  Bei Rechteproblemen hilft dann auf Deinem Privatrechner unter Linux notfalls die root-"Holzhammermethode".
                  Siehe auch:
                  http://wiki.ubuntuusers.de/Dualboot
                  http://wiki.ubuntuusers.de/Linux-Partitionen_unter_Windows

                  Eine Alternative wäre vielleicht das Brennen von entsprechend dimensionierten DVDs "vor Ort", z.B. im Falle von heruntergeladenen Linux-DVD-isos (Szenario: Du hättest z.B. kein DSL, Deine Kumpel laden diese für Dich deshalb herunter).

            0
            Von Frickler am Di, 2. Dezember 2008 um 15:50 #
            Dann Hast Du Pech gehabt, die Dateien gehören Dir dann nicht.

            Und? Läßt sich doch trivial beheben.

            • 0
              Von r2d2xyz am Di, 2. Dezember 2008 um 16:06 #
              Ja klar.
              Danach bootest Du dann wieder in Dein parallel installiertes Linux und mußt es dann noch einmal "beheben".
              Das geht aber nur als root.
              Stell Dir einfach einmal vor, Du hättest keine root-Rechte.
              Mit root-Rechten herumhantieren zu wollen bzw. zu müssen, um Dateien von einem Betriebssystem bzw. von einem Rechner zum anderen mit korrekten Eigentums- und Zugriffsrechten zu übertragen, macht auch wenig Sinn, da es die "Schutzfunktion" der Eigentums- und Zugriffsrechte unter Linux ad absurdum führt.
              Den gleichen Effekt erzielt man mit der Verwendung von Vfat/Fat32. Es geht dann letztendlich darum, ob ein Nutzer z.B. USB-Sticks bzw. USB-Geräte unter Linux benutzen darf oder nicht. Im Hinblick auf einen Privatrechner ist die Antwort klar, dort sind die USB-Ports ja in aller Regel "offen".

              Wenn ich daran denke, dass von diesen Problemen auch ganze Mail-Ordner, .mozilla-, .evolution- und .thunderbird-Konfigurationsdateien betroffen sein können ...

              Das ist aber alles kein wirkliches "Problem", das ist unter Linux ein gewolltes Feature.

              0
              Von ggggggg am Di, 2. Dezember 2008 um 16:06 #
              Wie?
              Meinst du chmod und chgrp unter root?
              Das ist aber keine zufriedenstellende Lösung.
            0
            Von AH am Di, 2. Dezember 2008 um 21:48 #
            > USB-Sticks kann man nur recht eingeschränkt wiederbeschreiben, sehr oft sind es nur 10000 bis maximal 100000 Schreibzyklen.

            Diverse Jahrzehnte also. Irrelevantes Argument.

            • 0
              Von 00x am Mi, 3. Dezember 2008 um 00:09 #
              Jahrzehnte?
              Das stimmt so nicht.
              Diese Anzahl von Schreibzyklen ist je nach verwendetem Betriebs- und Dateisystem sehr schnell erreicht.
              Gerade dann, wenn immer wieder dieselben Bereiche des Sticks beschrieben werden.
              Allerdings gebe ich Dir recht, einige Hersteller verwenden ausgeklügelte closed-source Software-Tools, um kaputt gegegangene Sektoren zu "sperren".
              Es gibt darüber hinaus Tests (c't?) mit einem auf einem USB-Stick installierten und auch von dort gebooteten WinXP, das täglich acht Stunden zum Arbeiten benutzt wurde. Nach knapp 60 Tagen war der Stick hinüber.
              • 0
                Von Ralf G. am Mi, 3. Dezember 2008 um 00:28 #
                > Gerade dann, wenn immer wieder dieselben Bereiche des Sticks beschrieben werden.

                Der Controller im USB-Stick und in der SD-Karte sogt dafür, dass die Speicherzellen gleichmäßig abgenutzt werden. Es ist deshalb nicht möglich, immer wieder die selben Bereiche zu beschreiben. Es sei denn, man beschreibt immer die volle Kapazität.

                > Es gibt darüber hinaus Tests (c't?) mit einem auf einem USB-Stick installierten
                > und auch von dort gebooteten WinXP, das täglich acht Stunden zum Arbeiten benutzt
                > wurde. Nach knapp 60 Tagen war der Stick hinüber.

                Die c't hat mit einem eigens dafür geschriebenen Programm versucht, einen USB-Stick kaputt zu kriegen. Nach wochenlangem Beschreiben war der Stick noch immer OK.

                • 0
                  Von 00x am Mi, 3. Dezember 2008 um 04:37 #
                  "Der Controller im USB-Stick und in der SD-Karte sogt dafür, dass die Speicherzellen gleichmäßig abgenutzt werden. Es ist deshalb nicht möglich, immer wieder die selben Bereiche zu beschreiben."

                  Für schon belegten Speicherplatz gilt das sowieso nicht.

                  Ich habe ja gesagt, wann das Problem auftritt: Genau dann, wenn dieselben Bereiche des Sticks immer wieder beschrieben werden oder werden müssen.

                  Befindet sich etwa WinXP auf dem Stick (siehe obiges Beispiel), so braucht es ja einigen Platz für seine "statischen" Daten und für installierte weitere Programme. Der verbleibende Platz wird dann von WinXP ständig "traktiert". Je kleiner der zur Verfügung stehende Speicherplatz noch ist, umso häufiger schreibt WinXP neu anfallende Daten (temporäre Daten, Swap) immer wieder auf dieselben Speicherzellen des USB-Sticks, da die anderen ja belegt sind. In diesem Fall kann der von Dir beschriebene Mechanismus nur noch sehr eingeschränkt helfen.

                  Probleme gibt es natürlich auch bei regelmäßigen Backups, die jedes Mal fast den kompletten Speicherplatz des Sticks in Anspruch nehmen.
                  Das Problem wird dadurch etwas abgemildert, dass USB-Sticks ja auch Reservezellen enthalten.

                  Und: Die meisten USB-Sticks verfügen in der Regel nur über 10000, nicht 100000 Schreibzyklen.
                  Hinzu kommen noch große Qualitätsunterschiede sowie bestimmte "Qualitätsprobleme": Wenn schon manchmal in punkto Speicherplatz nicht die ganze Wahrheit gesagt wurde (dazu gab es einige c't-Artikel), so dürfte auch der Einbau minderwertiger Controller und Speicherzellen nicht völlig unmöglich sein.

                  • 0
                    Von Ralf G. am Mi, 3. Dezember 2008 um 04:48 #
                    Siehe hier http://www.heise.de/ct/08/21/122/
                    unter "Flash-Haltbarkeit".
                    • 0
                      Von 00x am Mi, 3. Dezember 2008 um 13:59 #
                      Danke für den Link.
                      Was da über Wear-Leveling drin steht, klingt aber nicht sehr vertrauenserweckend.
                      Zudem spricht die eigene Erfahrung gegen eine längere Haltbarkeit:
                      In den letzten sechs Jahren habe ich fünf USB-Sticks gekauft. Die ältesten beiden USB-Sticks (512 MB) funktionieren noch einbahnfrei, was wohl daran liegt, dass sie kaum noch benutzt werden. Einer der beiden 2GB-Sticks hat mittlerweile große Performance-Probleme: Der Datendurchsatz ist teilweise völlig im Keller und das mit USB 2.0. Sein identisches Pendant hat diese Probleme noch nicht. Der jüngste Stick (8GB) ist schon defekt. Dieser USB-Stick dürfte für lange Zeit mein letzter Stick-Kauf gewesen sein.

                      Falls Deine Ausführungen zutreffen, so stünde doch eigentlich einer mehrjährigen Garantie für USB-Sticks (z.B. zehn Jahre) nichts mehr im Wege.

          0
          Von gustl am Di, 2. Dezember 2008 um 16:38 #
          Die Berechtigungsprobleme hast du mit allen Dateisystemen und Betriebssystemen die zwischen Benutzern unterscheiden.
          Wenn du das vermeiden willst, dann musst du die zu transportierenden Dateien in ein tar Archiv einpacken. Beim Auspacken werden dann üblicherweise die UID Nummern "richtig" gesetzt.

          Dann ist allerdings das darunterliegende Dateisystem egal, solange es mit der Größe der tar Archiv Datei klarkommt.

          Eine Lösung die überall immer funktioniert und die Berechtigungen erhält gibt es nicht, da ist noch irgendeine Idee nötig. Und die kooperation von Microsoft (was der schwierigere Part sein dürfte)

          • 0
            Von gast am Di, 2. Dezember 2008 um 19:19 #
            > Eine Lösung die überall immer funktioniert und die Berechtigungen erhält gibt es nicht

            Ein stabiles ntfs unter Linux würde genügen. Die Funktionalität der Benutzerrechte braucht man bei mobilen Datenträgern nicht.

Pro-Linux
Unterstützer werden
Neue Nachrichten
Werbung