Login
Newsletter
Werbung

Thema: Cinnamon 1.6 mit »Cinnamon 2D« naht

10 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von OpenGL 2.0 Shader am Di, 4. September 2012 um 13:51 #

Aber warum das KDE Projekt es nicht gebacken kriegt, den KDE 4 Desktop Standardmäßig beim ersten Start ohne Nutzung des OpenGL 2.0 Shader Modus und Effekte zu starten, da verstehe ich absolut nicht.

Auf alten Grafikkarten, z.B. Geforce FX 5700 ist KDE 4 nämlich nicht zu gebrauchen, es sei denn, man startet einen einfachen Window Manager und ändert darin durch starten des KDE Kontrollcenters (Systemsteuerung) die Einstellungen bezüglich der OpenGL 2.0 Shader Effekte, erst dann, wenn die aus sind, ist KDE 4 auf so einer alten Grafikkarte zu gebrauchen.


Verglichen mit Gnome 3 ist das aber besser als nichts, denn Gnome 3 funktioniert ohne Nutzung von OpenGL 2.0 Shadereffekten überhaupt nicht.

[
| Versenden | Drucken ]
  • 0
    Von Wurzel am Di, 4. September 2012 um 13:59 #

    Denkst du Cinnamon 2D läuft mit Software-Rendering besser?

    [
    | Versenden | Drucken ]
    • 0
      Von mgraesslin am Di, 4. September 2012 um 18:27 #

      da die LLVM Anpassungen für KWin ein Commit Embargo haben: mit Sicherheit nicht :-)

      [
      | Versenden | Drucken ]
      0
      Von OpenGL 2.0 Shader am Di, 4. September 2012 um 19:02 #

      Warum sollte ich das denken?
      Ich habe dazu gar keine Aussage in meinem Posting gemacht!

      Ich habe nur die neue Version und die Änderungen an sich begrüßt.
      Du interpretierst in mein Posting etwas rein, was nicht dasteht.

      Das LLVM keine Lösung für alte Rechner ist, das weiß ich auch.

      [
      | Versenden | Drucken ]
    0
    Von mgraesslin am Di, 4. September 2012 um 18:27 #

    In dem Artikel geht es zwar um einen anderen Fenstermanager aber was soll's :-)

    Wir sind für Bugreports natürlich immer sehr dankbar. Leider wusste ich bis heute nicht, dass es mit der Geforce FX 5700 Probleme gibt (das ist leider älter als die älteste NVIDIA Karte, die ich besitze). Auf meiner TODO Liste für die nächsten Tage steht den OpenGL 1 und 2 Codepath besser zu trennen um in Zukunft einfacher den OpenGL 1 Codepath zu wählen. Darüber wird es auch einen Blogpost geben.

    Aber bereits heute haben wir eine Configoption um Shaders auszustellen - dies kann man übrigens sogar über die Konsole setzen, desweiteren unterstützen wir wirkliches 2D über XRender was man auch über die Konsole setzen kann und natürlich funktioniert KWin immer noch hervorragend ganz ohne Compositing: einfach Alt+Shift+F12 drücken :-)

    [
    | Versenden | Drucken ]
    • 0
      Von OpenGL 2.0 Shader am Di, 4. September 2012 um 19:01 #

      Auf meiner TODO Liste für die nächsten Tage steht den OpenGL 1 und 2 Codepath besser zu trennen um in Zukunft einfacher den OpenGL 1 Codepath zu wählen. Darüber wird es auch einen Blogpost geben.


      Das klingt doch schonmal gut.

      Aber bereits heute haben wir eine Configoption um Shaders auszustellen

      Ja, die habe ich ja auch benutzt, allerdings startet KDE 4 beim ersten Login/Start mit Maximaleinstellungen mit den OpenGL 2.0 Shadern und das führt zu den genannten Problemen, ich wüßte nicht, wie das ein unerfahrener Computeruser lösen können sollte.

      Das war früher zu KDE 2 und KDE 3 Zeiten besser, da gab es einen Konfigurationswizard beim ersten Start, so etwas würde ich mir für KDE 4 auch wünschen. Neben den OpenGL 2.0 Shadern habe ich übrigens auch so gut wie fast alle Effekte abgeschaltet, damit der Desktop flüssig reagiert.

      Alternativ zu dem OpeGL 2.0 Defaulteinstellungsproblem würden auch Minimaleinstellungen für das Defaultsetting reichen, bei dem einfach standardmäßig OpenGL 1.5 verwendet wird, und wer eine bessere Karte hat, der soll das halt nachträglich einstellen.

      Ansonsten könnte man die Shader und OpenGL Version aber auch ganz einfach vor dem Start abfragen und meine NVidia Karte meldet hier mit dem für diese Karte geeigneten Treiber, also nvidia-173, nur OpenGL Version 1.5, daß das also nicht mit OpenGL 2.0 funktionieren kann, ist klar.
      Mehr kann die Karte übrigens auch nicht, siehe:
      http://de.wikipedia.org/wiki/Geforce_FX

      desweiteren unterstützen wir wirkliches 2D über XRender was man auch über die Konsole setzen kann und natürlich funktioniert KWin immer noch hervorragend ganz ohne Compositing: einfach Alt+Shift+F12 drücken
      Ja, das finde ich auch gut. Danke.
      Da es Gnome 2 in Ubuntu 12.04 LTS nicht mehr gibt und Gnome 3 nicht läuft (abgesehen von der nun völlig anderen Desktop Philosophie) habe ich bei diesem Rechner jetzt KDE 4 als Standarddesktopumgebung eingstellt.

      [
      | Versenden | Drucken ]
      • 0
        Von mgraesslin am Di, 4. September 2012 um 20:06 #

        Alternativ zu dem OpeGL 2.0 Defaulteinstellungsproblem würden auch Minimaleinstellungen für das Defaultsetting reichen, bei dem einfach standardmäßig OpenGL 1.5 verwendet wird, und wer eine bessere Karte hat, der soll das halt nachträglich einstellen.

        Das ergibt ganz ehrlich gesagt keinen Sinn. Wer eine OpenGL 2 fähige Grafikkarte hat, profitiert gewaltig vom OpenGL 2 Code Pfad. Wir haben einen Standard gewählt, der für die meisten Nutzer am Besten ist. Es gibt halt heutzutage viel mehr Nutzer, die entsprechende Hardware haben als welche mit alter Hardware (wie geschrieben mir war das Problem nicht bekannt) und wir wollen ja den Nutzern die besten Optionen (inkluse Stromsparen) anbieten.

        Ansonsten könnte man die Shader und OpenGL Version aber auch ganz einfach vor dem Start abfragen und meine NVidia Karte meldet hier mit dem für diese Karte geeigneten Treiber, also nvidia-173, nur OpenGL Version 1.5, daß das also nicht mit OpenGL 2.0 funktionieren kann, ist klar.
        Und genau das machen wir auch. Wir brauchen aber gar nicht OpenGL 2.0, sondern nur eine Teilmenge und diese fragen wir über Extensions ab und aktivieren das, wenn es unterstützt ist und in unserer Hardware-spezifischen Checkliste erlaubt ist. Die Extensions, die wir brauchen wurden gegen OpenGL 1.4 geschrieben.

        Was es hier braucht ist einfach bessere Erkennung und das wird vermutlich in 4.10 etwas besser werden, wobei wir aus Mangel an Hardware nicht viel machen können (deine Karte würde in meinen Rechner nicht mehr reinpassen).

        [
        | Versenden | Drucken ]
0
Von gast am Mi, 5. September 2012 um 11:31 #

Hi,

gibts irgendwo Tests bei denen mal der Leistungsverbrauch bei Notebooks mit Opengl beschleunigten Desktops verglichen wurde? Im speziellen geht es mir um den Stromverbrauch der durch Opengl ansteigt da die Grafikkarte dann wesentlich mehr Leistung verbraucht. Mit llvm könnte sie ja die Stromsparmechanismen nutzen, allerdings wäre die Last der CPU höher. Daher die Frage: was verbraucht letztendlich mehr: llvm oder die Grafikkarte mit OpenGL? (Im speziellen: Intel Sandy- und Ivy Bridge)

[
| Versenden | Drucken ]
  • 0
    Von Nimm die GPU am Fr, 7. September 2012 um 18:54 #

    llvm, weil das im Prinzip nichts anderes als ne Softwarelösung ist die deine CPU auf Vollllast bringt und das ist schlechter als dedizierte Grafikchips werkeln zu lassen.


    Bei letzteren kann's durchaus sein, daß hier Energiesparmodi greifen, weil nicht alle Shadereinheiten usw. für das bischen 3d Desktop benötigt werden.
    Und selbt wenn nicht, wird die Grafikkartenindustrie daran definitiv arbeiten, denn 3d Desktops gibt's auch bei Windows.

    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung