Login
Newsletter
Werbung

Thema: Dritte Testversion von Ubuntu 9.10

86 Kommentar(e) || Alle anzeigen ||  RSS || Kommentieren
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von sfdsf am Fr, 24. Juli 2009 um 09:33 #
Funktioniert das schon problemlos?
  • 0
    Von fritzi am Fr, 24. Juli 2009 um 10:06 #
    nein.
    0
    Von nureinName am Fr, 24. Juli 2009 um 12:03 #
    Auf den BSDs funktioniert DeviceKit nicht so recht. Aber frag mich nicht nach genauen technischen Details.
    Das ist ein sehr grosses Problem der Desktop Entwicklung in der Free Software. Eigentlich sollten die
    X11 und darüber liegenden Schichten Plattformunabhängig sein, doch sind sie es nur rudimentär.
    • 0
      Von Paul am Fr, 24. Juli 2009 um 13:35 #
      Die Entwicklung geht aber weg von X11, langsam aber sicher, Tools wie DeviceKit etc. reden direkt mit dem Kernel.
      Das ist auch gar nicht so schlimm, da DK pluginartig aufgebaut ist und für BSD und Opensolaris theoretisch Schnittstellen bietet. Die müssen nur von denjenigen gefüllt werden (BSD, OS) ...
    0
    Von D3xter am Fr, 24. Juli 2009 um 14:41 #
    Devicekit ist bereits fertig und schon wieder obsolete ^^
    Die Funktionen von Devicekit werden in udev-extra eingebaut.
    • 0
      Von Jörg Zweier am Fr, 24. Juli 2009 um 20:05 #
      Nicht wirklich, oder?! Das wäre doch ein Graus. Ich war endlich froh, dass an einem Ersatz für das nervige Udev gearbeitet wird und jetzt verfolgt es uns noch weiter...
0
Von Thomas am Fr, 24. Juli 2009 um 09:43 #
"Als Alternative zu Konqueror, der nach Angaben der Entwickler mit vielen populären Webseiten nicht kompatibel ist, wird der auf Webkit beruhende Browser Aurora mitgeliefert, der schlank und schnell sein soll."

Absolut unverständlich, warum das KDE Team nicht vollständig auf Webkit umsteigt und KHTML komplett entfernt. Eine weitere Lib für exakt die gleiche Aufgabe zu pflegen, obwohl doch das überlegene Webkit bei Qt für lau dabei ist macht doch einfach keinen Sinn. Zumal KDE bei Plasma eh schon auf Webkit setzt. Das ist doch reine Eitelkeit seitens einiger KDE-Entwickler...

  • 0
    Von Gunni am Fr, 24. Juli 2009 um 09:49 #
    Auch wenn das technisch einleuchtend ist, kann ich schon verstehen, dass die KHTML Entwickler ihr "Baby" nicht einfach wegschmeissen wollen.
    Hängt halt mit Sicherheit Herzblut dran.
    Stolz sein können sie allemal, da WebKit ja aus KHTML hervorging.
    • 0
      Von Thomas am Fr, 24. Juli 2009 um 10:05 #
      Jaja, alles richtig.
      Aber so funktioniert nun mal OpenSource:
      Andere haben sich bedient, es besser gemacht, und wieder zurückgegeben.
      Das es letzlich in Qt gelandet ist, ist doch ein wahrer Glücksfall für KDE.
      Ich kann nicht verstehen, warum die sich nicht einfach ihrem Glück fügen.
      Wenn KDE auch weiterhin daran mitarbeiten will, dann können die das ja auch tun.
      Vor kurzem hat Nokia die Qt-Entwicklung doch ein Stück weit geöffnet, und gute Kontakte / Zusammenarbeit gab es ja schon immer.
      • 0
        Von d2kx am Fr, 24. Juli 2009 um 11:12 #
        Der WebKit port für Konqueror läuft nicht besonders toll, viele mögen auch Konqueror im Allgemeinen nicht besonders. KHTML kann bis KDE5 eh nicht komplett rausgeworfen werden.
        • 0
          Von :( am Fr, 24. Juli 2009 um 11:15 #
          Was für Aussichten ....
          Konqueror war mal das Vorzeigeprogramm von KDE, wie kommt der Sinneswandelt?
          0
          Von konqueristo am Fr, 24. Juli 2009 um 11:56 #
          also ich persönlich habe immer den Konqueror gerne verwendet
          der war früher (KDE 3) schnell und hatte den Vorteil, dass er nicht zwischen online- und offline-Inhalten trennte. Grade diese Doppelfunktion von Dateimanager und WebBrowser habe ich immer geschätzt

          traurig zu sehen, was aus dem Konqueror geworden ist

    0
    Von Michael am Fr, 24. Juli 2009 um 12:30 #
    Absolut unverständlich, warum das KDE Team nicht vollständig auf Webkit umsteigt und KHTML komplett entfernt. Eine weitere Lib für exakt die gleiche Aufgabe zu pflegen, obwohl doch das überlegene Webkit bei Qt für lau dabei ist macht doch einfach keinen Sinn. Zumal KDE bei Plasma eh schon auf Webkit setzt. Das ist doch reine Eitelkeit seitens einiger KDE-Entwickler...

    Es gibt ein paar Leute, die an einem Webkit-KPart für Konqueror arbeiten. Im Prinzip funktioniert das auch, aber zumindest als ich es das letzte mal getestet habe, ging zum Beispiel Flash nicht. Ich denke, das Problem ist, daß halt einfach nicht genug Leute daran arbeiten, sonst gäbe es schon längst ein Webkit-KPart für Konqueror.

    • 0
      Von Fun am Fr, 24. Juli 2009 um 15:07 #
      > sonst gäbe es schon längst ein Webkit-KPart für Konqueror.

      Gibt es und funktioniert auch ganz gut.

      • 0
        Von Hank am Fr, 24. Juli 2009 um 18:22 #
        >> sonst gäbe es schon längst ein Webkit-KPart für Konqueror.

        > Gibt es und funktioniert auch ganz gut.

        unterstützt aber keine Plugins -> kein Flash kein Youtube, kein Java etc. Als alleiniger Browser also ungeeignet

    0
    Von maestro_alubia am Fr, 24. Juli 2009 um 14:24 #
    KHTML ist bei der Kompatibilität mit Webseiten mittlerweile gar nicht mal so schlecht wie es oft behauptet wird.
    Konqueror ist zudem auch ziemlich schnell beim Rendern. Wenn man IPv6 nicht benutzt und es abschaltet (Umgebungsvariable KDE_NO_IPv6=true) und einen DNS-Cache einrichtet ist er ähnlich flott wie andere aktuelle Browser.

    Ich benutze Konqueror als Standardbrowser und bin ziemlich zufrieden. Seit KDE 4.2 musste ich Firefox nur noch äußerst selten benutzen, wenn irgendwelche Seiten im Konqueror nicht funktionierten. Auch Flash funktioniert mittlerweile ziemlich damit.

    Nichtsdestotrotz fände ich es auch besser, wenn man vereint an Webkit arbeitet, solche Redundanzen sind ja irgendwie unnötig. Aber das dürfen die Hobby-Programmier natürlich selbst entscheiden, womit sie ihre Freizeit verbringen.

    Unter KDE hat man ja die Wahl, ob man Konqueror mit KHTML oder Webkit benutzen möchte oder lieber Arora, rekonq oder Firefox.
    Mein persönlicher Favorit für diesen "Browserkrieg" in KDE ist rekonq, da er auf Webkit basiert und im Gegensatz zu Arora eine umfangreiche KDE-Integration anstrebt.

    • 0
      Von Diedrich am Fr, 24. Juli 2009 um 21:22 #
      Konqueror ist bei mir auch der Browser der Wahl. Flash, Java und was es sonst noch alles so gibt, seit KDE 4.2 funktioniert bei mir alles problemlos mit Konqueror, und gefühlt ist er schneller als Firefox.
      0
      Von Frankes am Sa, 25. Juli 2009 um 11:45 #
      Mich mal in den Reigen der Konqueror-Liebhaber einreihen.
      Nutze den Konqueror mit khtml schon seit 11 Jahren als Standard-Browser und bin wirklich zufrieden mit ihm.
      Ja, es gab immer wieder Zeiten wo er nicht ganz rund lief und einige Seiten nicht ordentlich anzeigte oder Probleme mit Flash, Java-Plugins oder manchen Javascripts zeigte.
      Die langjährige Erfahrung zeigte mir aber auch, dass viele Probleme auch von den Websites selbst kamen. Fehler im Code, nicht an Standards gehalten, aber auch die unterschiedlichen Umsetzung von Javascript in den einzelnen Browsern, die Seitenentwickler (verständlicher Weise) nicht auf den Konqueror anpassten. Auch zeigte mir die Erfahrung, dass die khtml und Konqueror Entwickler diese Probleme früher oder später in den Griff bekamen. Dieses "früher oder später" mag einigen bitter aufgestoßen sein, für mich selbst gesprochen kann ich nur sagen, dass ich sehr viel Vertrauen in die Entwickler habe, und dass dieses Vieles für mich aufwiegt. Den ganzen Plugin-Geschichten und Javascript stehe ich kritisch gegenüber. Websites sollten meiner Ansicht nach ohne solche Krücken auskommen, aber auch dass ist wohl Ansichtssache und vielleicht auch eine Altersfrage, ob man solche Spielereien und Multimediageschichten benötigt.
      Auf der anderen Seite stehen beim Konqueror die Unterstützung vieler verschiedener Protokolle, eine saubere Umsetzung der Standards, schon immer eine der ästhetischsten Darstellungen unter den Browsern, viele Funktionen und eine einfache Bedienung, welche vielleicht auch an meiner langen Erfahrung mit ihm liegt.
      Kurz, ich mag die eierlegende Wollmilchsau und möchte sie nicht mehr missen. Ich kann auch nicht mehr zählen wie oft mich der Konqueror mit seinen Funktionen rettete, weil ein bisher genutztes Programm fehlerhaft war oder nicht mehr weiter entwickelt wurde.
      Die hier wieder aufflammenden Forderungen ein Projekt einzustampfen, seien es Desktops, Office Pakete oder hier khtml kann ich nicht nachvollziehen. Anstatt froh zu sein, dass es parallele Entwicklungen gibt, wird immer wieder gefordert, dass Entwicklerressourcen gebündelt werden, ohne einen Beweis, dass die dadurch freiwerdenen Ressourcen wirklich im favorisierten Projekt ankämen, oder diese Megaprojekte dann effektiver arbeiten. Ich kann mir diese Forderungen nur noch dadurch erklären, dass den Vertretern die Erfahrungen fehlt, dass OSS Projekte Probleme (Code, interner Streit, Austritt eines Hauptentwicklers ...) bekamen, seltener genutzt Funktionen und Programme (lange) nicht oder nicht weiter entwickelten wurden.
      In diesen Fällen war ich immer froh, auf Alternativen zurückgreifen zu können. Sei es auch nur, um eine spezielle Funktion in einem zweiten Programm zu nutzen. - Mit auch einer der Punkte, warum ich einheitliche Standards als unabdingbar betrachte.
      Aber auch das ist Freie Software, Code entwickelt von Leuten, die für sich eine Lösung benötigten und den Code dann freigaben. - Ich kann damit leben und freue mich, dass sich so viele daran beteiligen. Weitergehende Ansprüche gehen doch bitte an Software Firmen.
      Speziell bei den anfänglichen Querälen zwischen khtml und Apples Webkit Entwicklung meine ich mich zu erinnern, dass die khtml Entwickler bewusst auf die schnell erstellten Codeerweiterungen von Webkit verzichteten, da er nicht ihren Ansprüchen genügte. Man mag auch davon halten was man will, aber dass der khtml Code als schlank und effektiv gilt wird wohl kaum von ungefähr kommen.
      Von mir somit ein klares Pro, zur Weiterentwicklung von khtml.
      • 0
        Von christian am Sa, 25. Juli 2009 um 14:46 #
        Ich nutze KDE3-Konqueror unter Slackware 11.0 (KDE 3.5.4) als Webbrowser auf einem alten PII 333MHz mit 256MB RAM.
        Auch ich sehe keinerlei Grund, warum man Khtml einstellen sollte.
        Einen funktionierenden Webbrowser zu "killen", wäre wirklich selten dämlich.
        Konqueror macht alles das, wozu ich unter anderen Desktopumgebungen mehrere Einzelprogramme gebrauche. Zu diesem Funktionsumfang gehört auch Khtml.
        0
        Von fuffy am Sa, 25. Juli 2009 um 19:10 #
        > Nutze den Konqueror mit khtml schon seit 11 Jahren als Standard-Browser und bin wirklich zufrieden mit ihm.

        KDE 2.0 (mit Konqueror) wurde doch erst vor knapp 9 Jahren veröffentlicht.

        • 0
          Von Frankes am Sa, 25. Juli 2009 um 20:50 #
          Oje, bin ich schon so alt, das mich mein Zeitgefühl verlässt?
          Aber du hast recht. - Habe die Netscape Jahre vollkommen verdrängt.
      0
      Von Nevyn am Sa, 25. Juli 2009 um 15:29 #
      Leider funktioniert Konqueror mit Web 2.0 Systemen nicht gut, gmx, freemail und hotmail laufen bei mir unter Kubuntu 9.04 nicht annähernd so weit, dass man Mails lesen oder schreiben könnte.

      Insoforn spreche ich mich für einen Port auf Webkit aus, zumal Arora selbst in der 0.5x version besser funktioniert als konqueror.

      • 0
        Von cba am Sa, 25. Juli 2009 um 16:10 #
        "Insoforn spreche ich mich für einen Port auf Webkit aus"

        Nur dafür aussprechen, nützt nichts, es müssen sich Leute finden, die diesen Port auch programmieren.
        Was glaubst du denn, warum der Webkit-Port von Konqueror noch nicht fertig ist?
        Es fehlen ganz einfach Freiwillige.

        0
        Von maestro_alubia am Mo, 27. Juli 2009 um 01:55 #
        Also GMX gehört bei mir zu den Seiten, die wunderbar mit dem Konqueror funktionieren. Auch mit Kubuntu 9.04. Whats the problem?
    0
    Von Kevin Krammer am Fr, 24. Juli 2009 um 14:52 #
    Absolut unverständlich, warum das KDE Team nicht vollständig auf Webkit umsteigt und KHTML komplett entfernt.

    Niemand möchte zu diesem Zeitpunkt einen neuen Major Release, der eine solche Entfernung zulassen würde.

    Außerdem scheint, zumindest hab ich das so verstanden, die WebKit API noch nicht den Umfang der KTHML API zu bieten, z.B. Zugriff auf den DOM Baum, etc.

    Aber wie schon gesagt: nur für eine Komponente wird niemand auf die Idee kommen den KDE4 Zyklus abzubrechen und KDE5 zu starten.

    • 0
      Von Keine Logik nicht. am Fr, 24. Juli 2009 um 18:25 #
      > Aber wie schon gesagt: nur für eine Komponente wird niemand auf die Idee kommen den KDE4 Zyklus abzubrechen und KDE5 zu starten.

      Warum muss man, um kdewebkit benutzbar zu machen, kde5 starten?

      • 0
        Von Kevin Krammer am Fr, 24. Juli 2009 um 18:28 #
        Warum muss man, um kdewebkit benutzbar zu machen, kde5 starten?

        Nein, das bezog sich auf das "komplett entfernen"

    0
    Von abc am Sa, 25. Juli 2009 um 12:31 #
    khtml ist schrott, webkit ist schon sehr ausgereift. khtml wird auch in den nächsten 10 Jahren nicht benutzbar werden. das ist ein illusion, der man sich nicht hingeben sollte.
0
Von Mullemax am Fr, 24. Juli 2009 um 09:50 #
"HAL wurde durch DeviceKit ersetzt und ist nur noch für die Kompatibilität mit älteren Anwendungen verfügbar."

Ui, was hab ich denn nun verpaßt? Schonwieder ein Durchtauschen irgendwelcher Abstraktionssysteme in GNU/Linux?

  • 0
    Von dfgdg am Fr, 24. Juli 2009 um 10:01 #
    DeviceKit klingt nach neuer Arbeitsbeschaffungsmassnahme für OpenSourceentwickler.

    Ich wäre ja schon zufrieden wenn die Kernelverwickler endlich die Finger von dem IOSchedullercode lassen würden bzw. es einmal richtig machen würden. Dass Linux immer noch hohe Last bei einfachen umkopieraktionen hat ist megapeinlich wo die Linuxfanboys seit Jahren die tollen Schedulerfähigkeiten propagieren und unter Windows alles Dreck sei. Nur unter Windows ruckelt das System nicht wenn ich mehrere parallele Kopieraktionen starte, unter Linux bricht sofort die Performance ein.


    • 0
      Von Thomas am Fr, 24. Juli 2009 um 10:19 #
      "... und unter Windows alles Dreck sei."

      Kann ich absolut nicht nachvollziehen.
      Selbst eingefleischte Linux-Fans zollen Microsoft inzwischen Respekt für durchweg gelungene Betriebssysteme wie WindowsXP und Windows 7.
      Kritik gibt es doch nur an Vista, Outlook und Firmenpolitik.

      • 0
        Von WindowsHater Artikel? am Fr, 24. Juli 2009 um 10:22 #
        Oo wie gesteuert sind wir eigentlich alle durch die Presse ... Linus meinte sicherlich nicht das er Respekt für XP zollt. Und was aus W7 wird bleibt erstmal abzuwarten. Nur generell gegen Windows zu bashen ist halt deppert.
        0
        Von DerAndere am Fr, 24. Juli 2009 um 12:49 #
        Ja, das ganze Gebashe gegen Vista wurde ja von ahnungslosen Noobs gestartet, die das völlig veraltete XP immer noch verwenden wollen und sich mit den technischen Neuerungen von Vista nicht beschäftigt haben, sondern nur sehen: Hoher RAM-Verbrauch! SCHEISS VISTA!!!!!!1111elfeins. Vista und vor allem 7 sind endlich wirklich gute Betriebssysteme - wenn sie auch noch viel zu viele Altlasten mitschleppen, aber gut - einen Schritt wie Apple mit OS X gemacht hat kann für's Image schlecht ausgehen, sieht man ja schon an den kranken Bashes über Vista ohne Hand und Fuß.
        • 0
          Von rofl am Fr, 24. Juli 2009 um 19:59 #
          Jo Vista ist ist voll genial!

          Bootzeiten von bis zu 4 Minuten.
          Tausende von User die sich über Wlan Sticks beklagen die nur noch lahm rumtümpeln.
          Auf schwächerer HW z.B. ION + 4GB Ram + 500GB 2,5 WD Platte oder Notebooks ständig "Keine Rückmeldung".
          USB Geräte die nicht mehr gingen.
          Scheduler der lieber einem Film zeit ein Räumte aber keiner Netzwerk übertragung.
          Updates und SP die bis zu 90 Minuten brauchen bis sie installiert sind.
          Ressourcen Verbrauch wie blöde selbst wenn Superfetch deaktiviert wird.
          DRM gespickter Kernel.
          Inkompatible Treiber und Software.
          Toller UAC gernerve.
          Software die dank UAC überhaupt nicht funzt wenn man sie ned zureckt biegt oder UAC deaktiviert.
          Geniale UAC nervtöter bei Autostart Anwendungen.
          Bildschirmauflösungen die sich permenent von alleine ändern vorallem wenn man sich per RDP einloggt.
          Träge langsame Fenster/Menüs.
          Genialer Ordner Bug der nicht mal mit SP2 gefixt ist.
          Vista mit dem selben Umfang wie ein Ubuntu benötigt um die 30 - 40GB.
          Usw usf.

          Ohne SP1 war Vista unbrauchbar und selbst mit SP2 hat er noch gravierende Mängel.

          Man stelle sich vor dafür bezahlen Leute hunderte von €.


          Win 7 zwar ganz gut gelungen aber ist auch nur ein "funktionierendes" Vista.

          • 0
            Von Mullemax am Fr, 24. Juli 2009 um 20:04 #
            > Auf schwächerer HW z.B. ION + 4GB Ram
            Mit "ION" kann ich nichts anfangen aber 4GB schwach? Ich habe bisher mit noch keinem BSD oder Linux meine Workstation zum Swappen gekriegt mit 3GB RAM.
            • 0
              Von rofl am Fr, 24. Juli 2009 um 22:13 #
              ION = Nvidia ION

              In meinem Fall Intel Atom N330 2x 1,6Ghz und ne Nvidia GF 9400M.


              Mit der HW kommt Vista überhaupt ned klar, ständig Hänger (Keine Rückmeldung), Bootzeit von 4 Minuten, Auflösung die spinnd wenn die Kiste über HDMI am LCD hängt usw usf.

              Win XP (bis auf HDMI) und Win 7 laufen damit aber problemlos.

              Wollte damit eigentlich nur zeigen was für Mist Vista ist.

              • 0
                Von DerAndere am Sa, 25. Juli 2009 um 23:36 #
                Scheinst ja von Computern absolut keine Ahnung zu haben, wenn du meinst, dass ein Treiberproblem, dass bei dir Auftritt, bedeutet, dass es sich um ein Scheiß Betriebssystem handelt. Aber gut, was erwartet man von nichtsdenkenden Besserwissern wie dir auch anderes ...
            0
            Von dagger am Fr, 24. Juli 2009 um 21:25 #
            Um unser aller Drang nach Vollständigkeit zu befriedigen:
            Das Kopieren von Dateien ist auch nach SP1 einfach nur langsam...
        0
        Von dagger am Fr, 24. Juli 2009 um 21:20 #
        *prust*
        Kurzeithedächtnis oder hat ein Hippie in deine Cola geschifft?

        Windows XP war erst nach Jahren (und Sevicepacks) halbwegs nutzbar
        und Windows 7 ist noch Zukunftsmusik. Das MS es jetzt so huldigt ist
        bei denen Standard und wurde genauso auch bei 95, 98, ME, 2000, XP,
        Vista usw. gemacht.
        Also im Westen nichts Neues äh in Redmond nichts Neues...

        0
        Von alex am Sa, 25. Juli 2009 um 13:46 #
        Du hast zwei wichtige Gründe, Windows nicht zu benutzen, vergessen:
        Zwangsaktivierung und WGA-Tool zur herstellerseitigen Kontrolle und Überwachung Deines Rechners.
        Wie man auf der einen Seite gegen Vorratsdatenspeicherung sein und dann sich auf der anderen Seite so etwas gefallen lassen kann, werde ich wohl nie verstehen.
        Windows unter solchen Bedingungen im Privatbereich zu benutzen (oder aus irgendwelchen Gründen benutzen zu müssen), ist eines freien Bürgers unwürdig.
      0
      Von Uschi am Fr, 24. Juli 2009 um 10:27 #
      Ja, Linux gleicht sich, was Schedulerfertigkeiten und unbenutzbare Systeme bei I/O-Last angeht, immer mehr FreeBSD an.
      0
      Von --- am Fr, 24. Juli 2009 um 13:30 #
      Das ist in Kernel 2.4 und 2.6er-Kernelversionen bis etwa 2.6.15/2.6.18 noch nicht so. Ein direkter Vergleich zwischen einem aktuellen Ubuntu und einem Slackware 11.0 mit Kernel 2.4.33.3 zeigt das sofort. Unter Slackware 11.0 kann man trotz Kopieraktionen ohne jedes Ruckeln problemlos weiterarbeiten.
      Die Entwickler haben sich anscheinend mittlerweile einen fatalen I/O-Bug eingebaut und kommen damit nicht mehr zu Rande.
      Bei Kopieraktionen verhält sich Linux mittlerweile wie mein noch parallel installiertes Windows 98.
      Hier könnt ihr diese Performance-Katastrophe nachlesen:
      http://bugzilla.kernel.org/show_bug.cgi?id=12309
      Hier noch ein Link für diejenigen, die nicht so viel Zeit haben:
      http://it.slashdot.org/article.pl?sid=09/01/15/049201
      • 0
        Von dfgdg am Fr, 24. Juli 2009 um 14:02 #
        Interessant. Und ich dachte immer ich wäre der einzige dem das Problem aufgefallen ist.
        Immerhin ist das Problem jetzt bekannt und es wird daran gearbeitet.

        Scheint ja ein ziemlich übler Bug zu sein dem man schwer beikommt.

        • 0
          Von --- am Fr, 24. Juli 2009 um 14:25 #
          Es scheint so zu sein.
          Das sind natürlich erst einmal schlechte Nachrichten für alle Linuxnutzer, nicht nur für die "Bei mir läuft alles perfekt."-Fraktion.
          Einer der Kommentare unter obigem Link spricht für sich:
          http://bugzilla.kernel.org/show_bug.cgi?id=12309#c323
          "I am using Ubuntu 9.04 with 2.6.30-rc3 x86_64 Kernel and I can confirm the
          whole behavior.
          The irony is that it feels like Windows 95 while a floppy was formated. You
          know, the whole pseudo multi tasking on top of Dos - everything was really
          choppy.
          (...)"
          Klasse finde ich aber, wie versucht wird, die Natur dieses Bugs zu ergründen. Man darf sehr gespannt sein, was da noch herauskommen wird.
      0
      Von dagger am Fr, 24. Juli 2009 um 21:23 #
      > Dass Linux immer noch hohe Last bei einfachen umkopieraktionen hat ist megapeinlich
      *hust*
      Schonmal unter Vista was kopiert? Auch nach SP1 ist dass die Hölle... oder kann ich
      die Ironie nur nicht sehen?
      • 0
        Von dfgdg am So, 26. Juli 2009 um 10:26 #
        Meine Windowserfahrungen hören bei Windows 2k auf, dort geht das jedenfalls geschmeidig, selbst ein P3 ist dort agiler während Umkopieraktionen. Nebenher Programme starten, ... geht problemlos ohne endloses warten.

        Dass das unter XP/Vista so scheisse ist wusste ich nicht.

        Scheint wieder der Fluch der neuesten Releases zu sein: Never change a running system.

        • 0
          Von DriverDevel am So, 26. Juli 2009 um 22:25 #
          Waas, und dann gibst Du solche Aussagen ab??

          Von Win2K zu reden ist ja wohl witzig, das hab ich neulich noch auf einem K6-2/400 mit 256MB gesehen, das fliiiiieeegt!! Da war eine gewisse XP-Installation auf Dual Core mit XXX GB sogar fast sanduhriger... (ich frag mich sowieso immer, was XP treibt, schnell ist Was Ganz Anderes (tm)).

          Aber joa, Linux ist ultraproblematisch langsam, schon klar...

          • 0
            Von sdfsdf am Mo, 27. Juli 2009 um 10:15 #
            Aber joa, Linux ist ultraproblematisch langsam, schon klar...
            Der Bug unter Linux ist bekannt, dokumentiert und es wird an einem fix gearbeitet. Les mal den ganzen Thread bevor du mitedest. Und verschone uns in Zukunft mit deinen Pavlowschen Reflexen, das nervt.
    0
    Von asdf am Fr, 24. Juli 2009 um 10:22 #
    > Ui, was hab ich denn nun verpaßt? Schonwieder ein Durchtauschen irgendwelcher Abstraktionssysteme in GNU/Linux?

    DeviceKit ist der offizielle Nachfolger von HAL, und kommt von den gleichen Entwicklern.

    Als die Entwicklung HAL begonnen wurde, hatte man damit in der Linux Welt keine Erfahrung, die Arbeit wurde bei Null gestartet. Funktional war/ist HAL durchaus erfolgreich, und hat Linux - vor allem am Desktop - viel gebracht.
    Beim Design hat man aufgrund der fehlenden Erfahrung aber Fehler gemacht. Diese Fehler bekommt man heute in Form von Performance-Problemen und schlechter Wartbarkeit zu spüren. Aufgrund dessen wurde mittlerweile die Entwicklung von HAL eingestellt, es wird nur noch gewartet. DeviceKit ist das Nachfolgeprojekt welches die Funktionalität von HAL übernimmt, und welches aus den Fehlern von HAL gelernt hat. Man könnte DeviceKit also auch als HAL 2.0 oder "HAL done right" bezeichen.

    • 0
      Von Mullemax am Fr, 24. Juli 2009 um 11:00 #
      Danke für die Erklärung. Allerdings findet sich unter http://fedoraproject.org/wiki/Features/DeviceKit : "It is designed to partially replace hal". Das heißt dann wohl "Stück für Stück", statt teilweise, wie ich erst annahm?
      • 0
        Von asdf am Fr, 24. Juli 2009 um 11:39 #
        Das ganze udev/HAL/DeviceKit/dbus Thema ist recht komplex, zu 100% kann ich es leider auch nicht erklären.

        Aber soweit ich das verstanden habe wurde HAL letztendlich für eine ganze Liste von Aufgaben verwenden wozu es eigentlich nicht gedacht war. Um eine Wiederholung dieses Fehlers zu vermeiden gibt es nicht nur DeviceKit als Nachfolger von HAL, stattdessen ist es in mehrere Subprojekte aufgesplittet, welche für verschiedene Aufgaben verantwortlich sind. Vermutlich bezieht sich die Aussage darauf, dass es eben nicht nur DeviceKit gibt, sondern auch die genannten DeviceKit-disks, DeviceKit-power und udev-extra, welche ebenfalls Aufgaben übernehmen welche zuvor alle von HAL erledigt wurden.

    0
    Von Dieter am Fr, 24. Juli 2009 um 14:24 #
    Man kann den ganzen HAL Firlefanz auch einfach bleiben lassen.
    Hab ich bisher noch nicht vermisst.
    • 0
      Von --- am Fr, 24. Juli 2009 um 14:35 #
      Die meisten leichtgewichtigen Desktop-GUIs sind ohnehin nicht out-of-the-box an HAL angepasst, in dem Sinne, ich stecke jetzt den USB-Stick hinein und unter Icewm oder Fvwm poppt ein mc- oder roxfiler-Fenster auf. Da ist Handarbeit angesagt, Nachinstallation z.B. von ivman, usw.
      Der letzte Versuch, solche Probleme einheitlich für alle GUI- und Nicht-GUI-Umgebungen zu lösen, war IMHO submount:
      http://submount.sourceforge.net/
      Das wurde in Suse 9.1 bis etwa Suse 9.3 verwendet, hat sich aber nicht durchsetzen können.
0
Von Lecter am Fr, 24. Juli 2009 um 10:07 #
Unter Ubtuntu 9.10 A3 funktioniert nicht einmal meine Laptop-Tastatur und Touchpad...unter Win 7 schon!
  • 0
    Von asdf am Fr, 24. Juli 2009 um 10:25 #
    Liegt vielleicht daran dass Ubuntu 9.10 noch eine Alpha Version ist und Win7 ein RC.

    Aber wenn du schon eine Alpha Version installierst, solltest du auch einen Bugreport schreiben, denn dazu sind diese Test Versionen da!

    0
    Von Pete am Fr, 24. Juli 2009 um 13:11 #
    Hallo,
    nenn mal bitte die Daten, damit ich nachsehen kann, ob der Bug existiert. Ansonsten stellen wir ihn halt rein. Du hast das vermutlich noch nicht gemacht. Grüße.
    • 0
      Von Lecter am Fr, 24. Juli 2009 um 16:00 #
      Es ist ein MSI Megabook M620. Die Tastatur funktioniert nur sporadisch, oder wenn ich gleichzeitig das Touchpad berühre. Muss man sich so vorstellen: Ich schreibe etwas, die Buchstaben erscheinen aber nicht, ich fahre mit einem finger über das Touchpad, die Buchstaben erscheinen dann, manchmal alle, manchmal nur der erste oder zuletzt eingegebene. Total nervig ist das. Manchmal gehts auch ohne Probleme. Auf Dauer aber nicht...
0
Von Anwender am Fr, 24. Juli 2009 um 10:36 #
Immer wieder lustig zu lesen, dass die Distributoren mit jeder neuen Version ihre "Standardanwendungen" austauschen. Kontinuitaet kriegt man so nicht. Man sollte doch lieber mal eine Sache richtig entwickeln.
  • 0
    Von Bloedsinnpointer am Fr, 24. Juli 2009 um 11:09 #
    Immer mit der Ruhe ... Konqueror ist ja nicht "weg", Arora wurde lediglich in KDE als Default eingerichtet, den der Nutzer bei Belieben sofort ändern kann ... Konqueror ist eine gute, alte Dame, der bekanntlich auch Webkit viel zu verdanken hat ... da wird überhaupt nicht "ständig" die Standardanwendung gewechselt, das ist dummes Zeug.
    0
    Von asdf am Fr, 24. Juli 2009 um 12:00 #
    > Immer wieder lustig zu lesen, dass die Distributoren mit
    > jeder neuen Version ihre "Standardanwendungen" austauschen.

    Immer wieder? Was wird den immer wieder ausgetauscht? Ich verwende Ubuntu auf dem Desktop seit dem ersten Release (ich glaub 4.10 war es). Wenn ich mir die vorinstallierten Standardanwendungen so durchschaue, dann sind dass immer noch die gleichen bekannten:
    Evolution, Firefox, Openoffice, Gimp, und die diversen Gnome Tools.

    Hm, was hat sich geändert? Mir fallen ein:
    * 4.10 hatte noch xpdf dabei da Evince damals noch nicht ganz fertig war, und z.B. noch nicht Drucken konnte.
    * irgendwann wurde Kombination nautilus-burn und das andere Tool zum Brennen von Audio-CDs - dessen Name mir nicht einfällt - durch das deutlich mächtigere Brasero ersetzt. Die alten nautilus GUIs sind aber erhalten geblieben, für den User hat sich nicht viel geändert.

    Sonst fallen mir eigentlich nur Sachen ein welche zuvor in der Form nicht existiert haben (wie z.B. Network Manager).

    • 0
      Von --- am Fr, 24. Juli 2009 um 13:47 #
      - Xpdf ist immer noch da, für alle diejenigen, die keinerlei Bloat beim PDF-Anschauen gebrauchen können.

      - Du meinst wohl Gnomebaker. Die Brennprogramm-GUIs sind nicht so sehr das Hauptproblem, es ist vielmehr das Backend wodim, das mittlerweile cdrecord vollständig ersetzt hat. Die vielen Nerolinux-Installationen unter Ubuntu sprechen da für sich (siehe popcon). Das würde niemand tun, wenn das Brennen von CDs und vor allem DVDs mit freier Software hundertprozentig zuverlässig funktionieren würde.

0
Von Feuerfrei am Fr, 24. Juli 2009 um 10:50 #
Der Browser heißt Arora nicht Aurora. Und schonmal vorsorglich, die neue KWin Engine heißt Aurorae und ebenfalls nicht Aurora. Ein Programm mit Namen Aurora fehtlt. :-P
0
Von Methusalem am Fr, 24. Juli 2009 um 11:19 #
Bäumlein wechsle dich, mal wieder ein neues IM-Standard Programm. Aber hier ein guter Beweiß das OS funktioniert, Empathy installiert und siehe da "Ein Import-Tool für Pidgin" klasse ganz großes Kino. Danke Jungs. Jetzt ist nur die frage ob das Empathy besser in der Bedienung ist. Vergleich Pidgin Adium, Pidin 0 Adium 1, und das obwohl beide Tools auf libpurple bassieren. Ich hoffe/wüsche das Empathy die usebillity von Adium hat, so das ich auch privat komfortabel chatten kann.
0
Von Atomic am Fr, 24. Juli 2009 um 15:40 #
"eine Netbook Edition mit den neuesten Technologien von Moblin"
Weiß schon Jemand wie das ungefähr aussehen wird/soll?
Moblin 2.0 sieht auf jeden Fall super aus.

"Erstmals gibt es auch ein Netbook-Image von Kubuntu."
Gibt es auch eine spezielle Oberfläche? Ich meine da etwas auf planetkde.org gelesen zu haben.

  • 0
    Von Tscheesy am Fr, 24. Juli 2009 um 17:04 #
    Es wird eine angepasste Oberfläche geben, zB. mit einem App-Bar Miniprogramm. Es wird auch der Platz auf dem kleinen Bildschirm besser ausnutzen.

    Leider wird der Netzwerkmanager von Moblin nicht übernommen - allerdings erfährt der Plasma-NM eine starke Überarbeitung.

    0
    Von Alex1024 am Sa, 25. Juli 2009 um 11:06 #
    Habe die kubuntu netbook edition auf meinem Asus 1000HE installiert. KDM ist wohl noch nicht für kleinere Auflösungen optimiert. Der Desktop selber sieht jedoch sehr gut aus. Allerdings hatte ich Probleme mit dem WLAN da ich wohl nur den HEX schlüssel habe. Erst mit dem nachinstallieren von wicd hat es geklappt. Firefox sollte man auch für netbook optimieren. Openoffice hatte keine Icons, musste ich erst installieren. Openoffice sollte man auch noch für die Auflösung optimieren, unter Windows XP läuft OpenOffice ja sehr gut. Ist ja aber schliesslich noch eine Alpha version :) Werde aber die netbook edition weiterhin beobachten, mir hat es gefallen.
0
Von ARM-Prozessor am Fr, 24. Juli 2009 um 15:48 #
Hauptsache die Ubuntu-ARM-Version wird für die kommenden Nettops/Netbooks an die verschiedenen Prozessoren angepasst, die jetzige scheint "nur" speziell den i.MX515 der Firma Freescale zu unterstützen. Die Nutzer von z.B. dem Texas-Instruments Omap3530 fricklen sich selbst ein Ubuntu zusammen( http://beagleboard.org/project/Ubuntu/ )...
  • 0
    Von Tscheesy am Fr, 24. Juli 2009 um 17:39 #
    Das Ziel für 9.04 war auch "nur" das portieren und 1-2 Geräte nebst dem Virtuellen Kernel.
    • 0
      Von ARM-Prozessor am Fr, 24. Juli 2009 um 18:02 #
      "This first, community-supported ARM release of Ubuntu supports the Freescale iMX51 and ixp4xx architectures. It also runs on versatile sub-architectures that can be used on a wide variety of hardware and virtual environments. Desktop installation images are available for the Freescale iMX51 Babbage development board, and netboot installation images for other sub-architectures."

      >> http://www.ubuntu.com/products/whatisubuntu/arm

      • 0
        Von Tscheesy am Fr, 24. Juli 2009 um 19:11 #
        (n.b. man kann auch einen Debian-Kernel einbinden mit etwas Nacharbeit)

        Für 9.10 ist eine breitere Unterstüzung angepeilt.

        Info's aus erster Hand unter freenode #ubuntu-arm

        • 0
          Von ARM-Prozessor am Fr, 24. Juli 2009 um 19:25 #
          Für ARM-Prozessoren gibt es spezielle hochangepasste Einheiten (Open-GL(3D),OpenVG(2D),...), diese werden da aber nicht unterstützt, dessen Arbeit muß die CPU übernehmen (Softwarerendering,...) was die ganze Sache grausam langsam macht.

          Das ist so wie wenn man Software für x86-CPUs mit 386 compiliert, also kompatibel für vieles, aber die ganzen beschleunigenden Neuerungen (SSE,MMX,...) nicht nutzt.

          Wenn ich von Unterstützung rede dann meine ich auch alles was zu dem ARM-Prozessor gehört, genau diese Optimierung scheint bei Ubuntu nur für den i.MX515 und die XScale vorgenommen worden zu sein, alle anderen sind nicht optimiert (>langsam d.h. nicht nutzbar).

          • 0
            Von Tscheesy am Fr, 24. Juli 2009 um 19:45 #
            es gibt HW-Hersteller, deren Mitarbeiter kommen zB in den IRC und bieten Hilfe beim ansprechen Ihrer Schnittstellen an, und sprechen eventuelle Hürden an - wer solche Möglichkeiten nicht nutzt, nun ja..

            Auf jeden Fall ist jeder Input dem man nicht nachrennen muss Willkommen.

Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung