Login
Newsletter
Werbung

Thema: Fedora diskutiert Werbung für proprietäre Software in »Gnome Software«

52 Kommentar(e) || Alle anzeigen ||  RSS || Kommentieren
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
1
Von Naja am Di, 26. November 2019 um 10:29 #

Werbung im Betriebssystem? Ich glaub ich spinne, die Gnomiker werden mir immer unsympathischer.

1
Von Gast am Di, 26. November 2019 um 11:45 #

Zukünftig dann also Werbeblocker für den Paketmanager?

2
Von Oiler der Borg am Di, 26. November 2019 um 12:17 #

aber wenigstens wird so absehbar, was man sich da ranholt..... :cry:

3
Von Josef Hahn am Di, 26. November 2019 um 12:21 #

... ist immernoch: https://i.stack.imgur.com/yZcyV.png

Hier wird in einem Gnome Systemdialog ganz unverkrampft Werbung für die größten A*löcher der Branche gemacht. Das leistet (in dem Maße, wie Gnome halt kann) ausdrücklich denen Vorschub, denen man nicht soooo sehr zutraut, FOSS-Werte ernsthaft zu vertreten.

Bonus: Dieser Dialog kann auch ganz normales SMTP. Dafür muss man dann auf das "..." klicken... WTF?

Solange hier auf Erden _alles_ Facebook ist, und sich (außer mir) offensichtlich niemand darüber aufregt, braucht sich niemand darüber auszulassen, dass (eher als Resultat einer Verkettung von Dingen) in der Softwareverwaltung mal irgendwo eine Einblendung erfolgt.

Versteht ihr eigentlich selber noch eure Maßstäbe?

> Der Bugreport schlägt vor, hier entweder vorab zu filtern oder eine Opt-in-Situation zu schaffen, die nur auf ausdrücklichen Wunsch des Anwenders Software mit unfreier Lizenz anzeigt.

Nagutttt... Wenn sonst nix ansteht......... Aber dann MACHT DAS BITTE AUCH FÜR DEN O.G. GNOME-DIALOG!!!

  • 1
    Von kraileth am Di, 26. November 2019 um 12:53 #

    GNOME ist einfach ein ganz spezieller Verein... Gefühlt wäre man wohl echt gerne Apple. Zumindest wissen die Entwickler gerne mal alles besser (z.B. besser als du selbst, was du brauchst - bzw. nicht brauchst und führen dann den Rückbau von vormals brauchbarer Software durch), sitzen teilweise auf einem unglaublich hohen Roß (da war vor Jahren mal ein Fall, bei dem ein GNOME-Entwickler auf einen Einwand, daß es doch auch noch andere Desktops gäbe, die auf GTK+ aufsetzen, nur meinte: „z.B.?“ und auf die Antwort „Xfce“ frech zurückfragte: „Was ist das?“) und haben ganz offensichtlich genügend „Pragmatismus“, um sich mit wirklich jedem ins Bett zu legen.

    Ich bekenne ganz offen, daß ich das Projekt zu GNOME 2-Zeiten mal sehr mochte. Aber dann ging da aus meiner Sicht alles ziemlich schief. Gut, daß es unter *nix eine große Auswahl an Desktopumgebungen gibt! Wir sind zum Glück noch nicht beim allseits beliebten „Friß-oder-stirb“, wie man es aus der MS-Welt kennt. Aber die Tendenzen sind teilweise schon arg unschön. Rücksicht auf die anderen (vielleicht gar noch die Kleinen)? Wird seltener. POSIX? Scheiß drauf, Linux ist der neue Standard und wer etwas anders macht, der ist selbst schuld.

    Aus meiner Sicht haben wir es hier mit den negativen Effekten zu tun, die sich immer einstellen, wenn ein (Quasi-)Monopol entsteht. Als der geneigte Pinguin noch leidenschaftlich gegen die MS-Dominanz kämpfte, war man schnell im Fordern, es sollten von den Herstellern auch alternative Systeme etwas Aufmerksam bekommen. Heute ist man selbst der „Big Player“, auf dem Server schon Quasi-Monopolist und finanziell extrem stark aufgestellt. Da wird man sich irgendwann eben selbst genug. Schade, schade. Wir waren schon mal weiter.

    • 1
      Von Tamaskan am Di, 26. November 2019 um 21:30 #

      GNOME ist einfach ein ganz spezieller Verein... Gefühlt wäre man wohl echt gerne Apple. Zumindest wissen die Entwickler gerne mal alles besser (z.B. besser als du selbst, was du brauchst - bzw. nicht brauchst und führen dann den Rückbau von vormals brauchbarer Software durch),

      Das ist reine Geschmackssache. GNOME ist ein minimalistischer Desktop, die mitgelieferten Anwendungen bieten bewusst nur grundlegende Funktionen. Wer das nicht mag, kann doch einen Desktop mit einer anderen Philosophie benutzen, z.B KDE, die bewusst auf viele Funktionen und Konfigurationsmöglichkeiten setzen.

      sitzen teilweise auf einem unglaublich hohen Roß (da war vor Jahren mal ein Fall, bei dem ein GNOME-Entwickler auf einen Einwand, daß es doch auch noch andere Desktops gäbe, die auf GTK+ aufsetzen, nur meinte: „z.B.?“ und auf die Antwort „Xfce“ frech zurückfragte: „Was ist das?“) und haben ganz offensichtlich genügend „Pragmatismus“, um sich mit wirklich jedem ins Bett zu legen.

      GTK+ wird mit und für GNOME entwickelt. Die Bibliothek ist in erster Linie für Anwendungen gedacht. Natürlich kann man GTK+ benutzen, um einen eigenen Desktop zu schreiben, aber man kann nicht erwarten, dass Upstream das berücksichtigt und z.B interne APIs stabil auf längere Zeit stabil bleiben oder dass sich Funktionalität nicht ändert.

      Mozilla hat vor Jahren auch mal entschieden, dass Gecko primär als Rendering-Engine für Firefox gedacht ist und die Verwendung in einem anderen Browser nicht unterstützt wird. Das hat dazu beigetragen, dass viele kleinere Browser dann von Gecko nach WebKit gewechselt sind.

      Es ist natürlich schön und sinnvoll, projekteübergreifend zusammenzuarbeiten und Code zu teilen. Das ist aber nicht immer möglich, besonders dann, wenn die Projekte eine stark unterschiedliche Entwicklerzahl haben oder unterschiedlich schnell entwickelt werden. Schau dir einfach mal an, wie oft GNOME eine neue Version veröffentlicht und wie oft Xfce.

      Ich bekenne ganz offen, daß ich das Projekt zu GNOME 2-Zeiten mal sehr mochte. Aber dann ging da aus meiner Sicht alles ziemlich schief. Gut, daß es unter *nix eine große Auswahl an Desktopumgebungen gibt! Wir sind zum Glück noch nicht beim allseits beliebten „Friß-oder-stirb“, wie man es aus der MS-Welt kennt. Aber die Tendenzen sind teilweise schon arg unschön. Rücksicht auf die anderen (vielleicht gar noch die Kleinen)? Wird seltener. POSIX? Scheiß drauf, Linux ist der neue Standard und wer etwas anders macht, der ist selbst schuld.

      Es ist gut, dass es POSIX bzw. SUS gibt, und man sollte wann immer möglich standardkonform entwickeln. Jedoch entwickeln sich diese Standards nur langsam weiter und bilden nur einen Bruchteil der APIs ab, die du als Entwickler meist benötigst. Früher oder später musst du plattformspezifisch entwickeln (bzw. eine Bibliothek benutzen, die das für jede Plattform abstrahiert). Und dann kommt noch hinzu, dass du deine Software auf mehreren Plattformen testen müsstest, weil du wirst immer Bugs haben, die nur auf einer Plattform auftreten. Das fällt aus Zeitgründen oft flach.

      Wir haben z.B bei GNOME die Situation, dass 99% der Entwickler und Anwender ein Linux-Betriebssystem benutzen. Das heißt, dass fast ausschließlich auf Linux entwickelt und getestet wird. Fehler, die unter anderen Betriebssystemen auftreten, werden so nur selten überhaupt gemeldet und noch seltener behoben, da kaum Entwickler dafür bereit stehen. Und wenn für ein Feature ein schönes Linux-spezifisches API genutzt werden kann, dass die Programmierung erleichtert oder erst ermöglicht, dann akzeptiert man das eben, weil es wichtiger ist, die Software voran zu bringen als exotische Plattformen zu unterstützen, die eh fast niemand nutzt.

      Ich habe auch Software für Linux geschrieben, aber ich habe keine Ahnung, ob diese z.B auf FreeBSD oder Solaris kompilieren und laufen würde. Weil ich es nie ausprobiert habe! Nicht, weil ich was gegen diese Betriebssysteme hätte, sondern weil ich sie nicht benutze und mich damit nicht auskenne. So geht es den großen Projekten ja auch. Niemand will nicht-Linux-Betriebssysteme ausgrenzen, ganz im Gegenteil; da es sich um freie Software handelt, kann jeder den Code auf ein anderes Betriebssystem portieren. Es muss halt nur jemand machen.

      Das ist auch der große Unterschied zu proprietärer Software. Da kann nur der Hersteller portieren. Ich sehe Linux daher nicht als Monopolisten, denn Linux hat gar nicht die Macht, ein Monopol durchzusetzen. Die meisten sind mit Linux nur eben so zufrieden, dass sie keinen Grund haben, etwas anderes zu benutzen.

      • 0
        Von kamome umidori am Mi, 27. November 2019 um 05:07 #

        > aber ich habe keine Ahnung, ob diese z.B auf FreeBSD oder Solaris kompilieren und laufen würde.

        Wenn es aber schon vorab bekannt ist, dass eine (vielleicht sogar zentrale) Software für andere Systeme nur mit großen Verrenkungen verwendbar wäre (und es dort Leute gibt, die sich an der Entwicklung beteiligen würden), man deren Einwände aber ignoriert, darf man das doch kritisieren.

        • 0
          Von was ist das am Mi, 27. November 2019 um 07:03 #

          Finde ich nicht. Es gibt viele Gründe warum man sich eben für einen Weg entscheiden muss und gibt es nicht das Prinzip " Tue eines, tue es gut"?

          Lange bevor ich in die Softwareentwicklung ging, habe ich auch gerne Kritik geübt. Jetzt wo ich Software entwickeln muss, muss ich auch Entscheidungen treffen, die ich früher für Unmöglich hielt. Heute denke ich immer, was habe ich mir dabei gedacht...

          0
          Von Tamaskan am Mi, 27. November 2019 um 09:59 #

          Du spielst wahrscheinlich auf systemd an, richtig? Warum darf systemd nicht Linux-spezifisch sein? Andere Unix-Betriebssysteme haben schon lange ihre eigenen Init-Lösungen, die nicht portierbar sind, macOS hat launchd (das ein Vorbild für systemd war), Solaris hat schon ewig SMF. Und auch SysVInit war sogar distributionsspezifisch, da hatte jeder seine eigene Variante davon, hier hat systemd die Interoperabilität verbessert!

          Ich empfand daher den Einwand, systemd sei nicht plattformunabhängig, immer als vorgeschoben. Ähnlich wie das mit dem "Init System Freedom"; man konnte bei Debian und den meisten anderen Distributionen noch nie das Init-System frei wählen und niemand hatte ein Problem damit - bis SysVInit durch systemd ersetzt werden sollte.

          Wie gesagt, es ist großartig, Standards zu haben und Implementierungen austauschbar zu machen, das ist aber nicht immer mit vertretbaren Aufwand möglich.

          • 0
            Von kamome umidori am Mi, 27. November 2019 um 13:57 #

            Ich habe nichts gegen systemd, sondern gegen Software, die nur damit läuft.
            Mit etwas Planung und Aufwand kann man sich oft an Standards halten – aber nicht, wenn man die von vornherein ignoriert. Nachträglich ist es dann natürlich „unmöglich“ die Funktionen ohne den ganzen geilen neuen Schice zu implementieren. Fortschritt kann ja super sein, aber mit etwas Weitblick und Rücksicht bringt es für alle noch viel mehr!

            • 0
              Von pointer am Mi, 27. November 2019 um 14:35 #

              Ich habe nichts gegen systemd, sondern gegen Software, die nur damit läuft.

              Das ist auch aus meiner Sicht eine sehr bedenkliche Entwicklung.

              • 0
                Von klopskind am Mi, 27. November 2019 um 16:29 #

                Meinen Sie eine Entwicklung, bei welcher immer mehr Software direkt von Schnittstellen, die systemd anbietet? Oder meinen Sie, die zitierte Aussage an sich wäre "eine sehr bedenkliche Entwicklung" kamome umidoris? ;)

                • 0
                  Von pointer am Mi, 27. November 2019 um 17:53 #

                  Meinen Sie eine Entwicklung, bei welcher immer mehr Software direkt von Schnittstellen, die systemd anbietet? Oder meinen Sie, die zitierte Aussage an sich wäre "eine sehr bedenkliche Entwicklung" kamome umidoris? ;)

                  Ich finde in der Tat die zunehmende Abhängigkeit von systemd und die damit verbundene (Gefahr der) Entstehung eines Monopols bedenklich.

                  • 0
                    Von klopskind am Mi, 27. November 2019 um 21:35 #

                    Ja, ich weiß, ich hatte mir einen Scherz erlaubt ;)

                    Ich teile Ihre Sorge - jedenfalls solange es ums Brot-und-Butter-Geschäft im Linux-Ökosystem geht. Es gibt aber noch mehr: z.B. Android, Embedded, Appliances und HPC. Da spielt systemd nicht so sehr eine Rolle.

                    Man muss es auch mal so sehen:
                    Wer ist das Monopol bezüglich Betriebssystemerei? Linux? Red Hat? Wohl eher Microsoft, mit Abstand Google (Android, ChromeOS) und Apple (macOS, iOS). Wenn man da ran möchte, muss man irgendwo besser sein und an anderen Stellen ggf. Kompromisse machen. Und ich denke, dass es zum Angriff der Monopolstellung Microsofts notwendig ist, die unnötige Fragmentierung im Linux-Umfeld einzudämmen und endlich die Features, die der Kernel mitbringt, auch tatsächlich schlau nutzen, damit die Entwicklung konkurrenzfähiger Anwendungen und Produkte möglich und ökonomisch wird, sich mindestens in der Form von Nutzerstatistiken rentiert. Anders kann man das Microsoftmonopol nicht aufhalten.

                    Hätte es bessere Alternativen zu systemd mit mindestens gleicher Mächtigkeit der Kernkomponenten gegeben? Sicherlich. "Welche eigentlich und wie sehen die aus?" wäre da schon eine viel interessantere Frage. Musste systemd so viel Funktionalität in einem Projekt vereinen um die für den wesentlichen marktpolitischen Zwecke zu erfüllen? Vermutlich nicht. Gaben/geben sich die Hauptentwickler aka Lennart und Kay undiplomatisch, unkooperativ, erhaben, sturköpfig und abstoßend? Viele Köpfe nicken. Wird all' das den gemeinen potentiellen Neukunden/-anwender etwas kümmern? Eher weniger. Schadet systemd dem OSS-Ökosystem mehr als es nützt? Ich wage, es zu bezweifeln. etc. pp.

                    Das makellos Perfekte wird für immer unnerreichbar bleiben. Auf dem Weg zum Besseren, und das ist das einzige, was letztlich zählt, ist jeder Schritt hilfreich. Dafür braucht es notwendigerweise Veränderung.
                    Wir alle stehen auf den Schultern von Giganten, und jeder Schritt in die richtige Richtung zählt. Die Schritte hängen voneinander derartig ab, dass sogar mehrere Schritte rückwärts langfristig einen riesigen Schritt vorwärts bedeuten können. Auch Kompromisse wird man nicht ausschließen können, wenn man nicht gerade plant, die einzige Person auf der Welt zu sein.

                    Lasst uns von unseren Fehlern gemeinsam lernen, und die Dinge hinter uns lassen, die wir nicht mehr ändern können, und deren Erinnerungen uns nichts mehr bringen außer Streit, Hass und Leid.

                    Ich teile Ihre Sorge, aber hängt unser Leben in existentieller Weise davon ab? Bevor die Welt um mich herum in Schutt und Asche liegt, wird systemd geforkt, überarbeitet oder durch Neuentwicklungen ersetzt werden. Da glaube ich an den Willen und die Stärke meiner Mitmenschen. Und falls sie dann in Schutt und Asche liegt, habe ich andere Probleme im Sinn als ein zu fett geratenes, unportierbares Init-System. Machen wir uns nur etwas vor?
                    Wie sehen Sie das?

                    • 0
                      Von pointer am Do, 28. November 2019 um 12:38 #

                      Man muss es auch mal so sehen:
                      Wer ist das Monopol bezüglich Betriebssystemerei? Linux? Red Hat? Wohl eher Microsoft, mit Abstand Google (Android, ChromeOS) und Apple (macOS, iOS). Wenn man da ran möchte, muss man irgendwo besser sein und an anderen Stellen ggf. Kompromisse machen. Und ich denke, dass es zum Angriff der Monopolstellung Microsofts notwendig ist, die unnötige Fragmentierung im Linux-Umfeld einzudämmen und endlich die Features, die der Kernel mitbringt, auch tatsächlich schlau nutzen, damit die Entwicklung konkurrenzfähiger Anwendungen und Produkte möglich und ökonomisch wird, sich mindestens in der Form von Nutzerstatistiken rentiert. Anders kann man das Microsoftmonopol nicht aufhalten.

                      Ich glaube nicht, dass ein hypertrophes Init-System nötig oder gar der Schlüssel ist, um das MS-Monopol zu brechen. Schon gar nicht im Desktopbereich. Es ist auch die Frage, ob das überhaupt die Zielsetzung sein sollte. Erfolgversprechender wäre wohl der Ansatz, Applikationen und DEs so am Nutzen für die User auszurichten, dass sie mit konkurrierenden Angeboten nicht nur auf Augenhöhe sind, sondern die Maßstäbe setzen. Und dies auch wirksam zu kommunizieren. Alles andere kommt dann schon, siehe Server. Im Desktopbereich ist das (noch) nicht überall erreicht. Aber *möglich* war es auch dort schon immer.

                      Die Fragmentierung - besser vielleicht: Vielfalt - ist IMO nicht "unnötig", sondern ergibt sich schlicht aus der Möglichkeit, eigene Wege zu gehen und eigene Vorstellungen zu realisieren. Ich sehe darin eine Stärke, aus der sich Wahlmöglichkeiten und eine gewisse Resilienz ergeben: geht ein Projekt unter, kann ein anderes übernehmen. Eine erzwungene Einschränkung auf wenige Projekte halte ich für kontraproduktiv.

                      Transparenz und die Möglichkeit, sein System frei zu gestalten und zu erweitern, sind wesentliche Vorteile von GNU/Linux, die zudem eine große Anziehungskraft ausüben - zumindest auf einen Teil der Anwender. Die Verdichtung auf ein einziges und offenbar ausuferndes Init-System (3 Mio LOC, um ein OS rauf und runter zu fahren?) schränkt diese Freiheit schon jetzt ein. Ein Beispiel ist Gnome, das nativ ohne systemd AFAIK nicht mehr zu haben ist. (Ob man es denn haben *will*, ist eine andere Sache.) Was, wenn KDE, xfce etc. auch diesen Weg gingen? Dann wären andere Initsysteme praktisch tot und aus der Wahlmöglichkeit wäre ein Zwang geworden. Und zwar ein unnötiger Zwang, denn systemd ist für ein GNU/Linux-System nicht essentiell.

                      Daher ist mein Standpunkt: systemd als Option ist völlig OK. systemd als Zwang durch die Hintertür nicht.

                      Zu den mehr philosophischen Inhalten Ihres Beitrags möchte ich mich nicht eingehend äußern. Manches kann wohl jeder unterschreiben. Aber "Friede, Freude, Eierkuchen" und Fatalismus waren noch nie Motor des Fortschritts. ;)

                      • 0
                        Von klopskind am Do, 28. November 2019 um 17:28 #

                        Ich glaube nicht, dass ein hypertrophes Init-System nötig oder gar der Schlüssel ist, um das MS-Monopol zu brechen. Schon gar nicht im Desktopbereich.
                        Der Schlüssel vermutlich nicht. Das habe ich auch nicht behauptet. Notwendig halte ich systemd oder etwas funkional Vergleichbares hingegen schon.

                        Ist der Desktop samt Office und Exchange nicht das traditionelle MS-Monopol, bevor der Geschäftsfokus auf die Software-Abos der Azure Cloud auf Basis eben jener Produkte wurde?
                        Im HPC- & Serverbereich verliert MS schon länger an Relevanz, oder irre ich mich da?
                        Im Embeddedbereich werden sie noch eingesetzt, gerade da, wo viel zertifiziert wird: Banken etc. Aber im Embeddedmarkt haben sie keine so starke Monopolstellung. Es gibt dort nicht so starke Skalen- & Synergieeffekte wie im Desktopbereich.

                        Erfolgversprechender wäre wohl der Ansatz, Applikationen und DEs so am Nutzen für die User auszurichten, dass sie mit konkurrierenden Angeboten nicht nur auf Augenhöhe sind, sondern die Maßstäbe setzen. Und dies auch wirksam zu kommunizieren. Alles andere kommt dann schon, siehe Server. Im Desktopbereich ist das (noch) nicht überall erreicht. Aber *möglich* war es auch dort schon immer.
                        Hm, das klingt so nach überholen ohne aufzuholen...

                        Ich denke, dass systemd ein wichtiger Zwischenschritt für das Linux-Desktop-Ökosystem darstellen wird, falls der Linux-Desktop je an diesen Wendepunkt, der dem MS-Monopol gefährlich werden könnte, kommen sollte. Nicht wegen systemd an sich, sondern primär wegen dessen marktpolitisch defragmentierenden Einflusses. Technische Errungenschaften oder Etablierungen halte ich für eher sekundär. Was zählt, ist die vereinheitlichende Wirkung zu einer Plattform und die Reduktion von (je nach Anwendungsfall unnötiger) Redundanz im Ökosystem.

                        Die Fragmentierung - besser vielleicht: Vielfalt - ist IMO nicht "unnötig", sondern ergibt sich schlicht aus der Möglichkeit, eigene Wege zu gehen und eigene Vorstellungen zu realisieren. Ich sehe darin eine Stärke, aus der sich Wahlmöglichkeiten und eine gewisse Resilienz ergeben: geht ein Projekt unter, kann ein anderes übernehmen. Eine erzwungene Einschränkung auf wenige Projekte halte ich für kontraproduktiv.
                        Ich habe nicht behauptet, dass "die" Fragmentierung unnötig sei. Ich habe spezifiziert, um somit zwischen unnötiger und sinnvoller (nötiger?) Fragmentierung zu unterscheiden.

                        Die von Ihnen erwähnte Stärke sehe ich auch. Nur kann sie auch durch die Sicherheit, die OSS bietet kann, aufgefangen werden (fork).

                        Wer erzwingt denn hier etwas? Und wer wird dem Zwang ausgesetzt? Und wie?
                        Eine erzwungene/künstliche Diversität halte ich für genauso gefährlich. Sie suggeriert Sicherheit und Auswahl, wo tatsächlich eigentlich gar keine ist, und behindert die Entwicklung des Ökosystems. Außerdem: Wer sollte das durchsetzen? Und mit welchem Motiv?

                        Transparenz und die Möglichkeit, sein System frei zu gestalten und zu erweitern, sind wesentliche Vorteile von GNU/Linux, die zudem eine große Anziehungskraft ausüben - zumindest auf einen Teil der Anwender.
                        Und ich denke, dass dies weiterhin gegeben ist. Beispiele gibt es ja genügend.

                        Die Verdichtung auf ein einziges und offenbar ausuferndes Init-System (3 Mio LOC, um ein OS rauf und runter zu fahren?) schränkt diese Freiheit schon jetzt ein.
                        Wen? Wie? Und warum? Alternativen existieren weiterhin.

                        Wegen der LoC verweise ich mal auf Punkte 2 und 4 dieses Kommentars. Die LoC werden nicht ausschließlich fürs Hoch- und Herunterfahren benötigt. Sie erledigen viele andere Aufgaben. Ist doch prima, wenn für ähnliche Aufgaben, der gleiche Code genutzt werden kann.

                        Ein Beispiel ist Gnome, das nativ ohne systemd AFAIK nicht mehr zu haben ist.
                        Es läuft doch sogar unter den BSDs, und die haben kein systemd. Es läuft auf Linux-Ditributionen ohne systemd. Deswegen ja auch eudev und elogind.

                        Was, wenn KDE, xfce etc. auch diesen Weg gingen? Dann wären andere Initsysteme praktisch tot und aus der Wahlmöglichkeit wäre ein Zwang geworden.
                        Wenn sie das täten, wäre es nur ein weiteres Zeichen dafür, dass nicht genügend Bereitschaft und Ressourcen da sind, die bisherige Unterstützung weiterhin zu pflegen. Das ist OSS-Kultur und gilt für viele Bereiche. Wenn sich keiner mehr drum kümmert, wird es sterben. Nichts ist für die Ewigkeit, nichts ist unendlich. Hier könnte man jetzt anknüpfen und endlos philosphieren... (Ist der menschliche Verstand unendlich?)

                        Praktisch wären sie in diesem Fall für den Einsatz dieser Desktops tot, ja. Die Meritokratie der Projekte hätte gesprochen.
                        Strenggenommen jedoch besteht die Wahlmöglichkeit weiterhin. Und seien wir doch realistisch: Am Ende muss man doch immer in eine Lösung auf die ein oder andere Art und Weise investieren. Bei den sich schneller entwickelnden Projekten wie GNOME und KDE zahlt man letztlich mit dem Risiko von Fehlern, also dem impliziten "Testen" und der Zeit, Fehlerberichte zu schreiben und auf Behebung zu warten.

                        So kann man sich bei Alternativen einmischen, mithelfen oder die Vereinigung zweier Projekte vorschlagen und vorantreiben, wie es bei LXDE und RazorQt geschehn ist, oder man gründet eine neue. Oder aber man spendet irgendwo oder engagiert jemanden, der das für einen tut. Man könnte das sogar via crowd-funding geschehen lassen. Wird auch in kleinerem Maßstab getan, aber die bisherige Größenordnung wirkt auf mich eher wie Tropfen auf den heißen Stein. Man muss es nur wollen.
                        Natürlich sollte man leiber früher als später agieren. Sonst muss man das Schwungrad erstmal wieder in Gang bringen, bevor es rund läuft und Früchte trägt.
                        Reicht diese Freiheit nicht?

                        Und zwar ein unnötiger Zwang, denn systemd ist für ein GNU/Linux-System nicht essentiell.
                        Ja, systemd ist für GNU/Linux-System nicht essentiell.

                        Ich verstehe nur immer noch nicht, woraus sich der vermeintliche Zwang ableitet. Niemand zwingt Sie einen bestimmten Desktop, eine Distribution oder systemd zu verwenden. Man hat Ihnen lediglich die Freiheit gegeben, diese kostenlos zu nutzen (Lizenz). Dazu teilweise noch eine praktische Infrastruktur.
                        Und nun bietet man mit systemd eine Neuentwicklung, die man als Ersatz nutzen darf. Die Alternativen von zuvor sind immer noch da. Woher kommt jetzt also der Zwang?

                        Kommt dieser etwa daher, dass der Großteil der Entwickler und Distributoren die von systemd gebotenen Schnittstellen und Vereinheitlichungen gutheissen? Sie haben lediglich auf die ein oder andere Art eine Entscheidung gefällt. Und das geschah auch weiß Gott nicht alles über Nacht oder mit der Pistole auf der Brust. Jedenfalls wäre mir davon nichts bekannt.
                        Dürfen die Entwickler und Distributoren solche Entscheidungen nicht fällen? Wieso? So passiert doch im Linux-Ökosystem Veränderung. Es entstehen neue Ideen und Umsetzungen, manchmal konkurrenzlos, und dann entscheidet das Ökosystem, welche sich durchsetzt. Natürlich hat hier nicht jede Partei gleiches Stimmrecht. Wer die ensprechenden Entwickler stellt, gewinnt an Einfluss. Ist das deswegen unfair? Kann man sich streiten, okay. Man muss aber auch die berechtigten Interessen und resultierenden Investitionsrisiken der Parteien berücksichtigen.

                        Wie sollte dieser "Wettbewerb" ablaufen? Soll immer erstmal ein Kommittee gebildet wird, um die "beste" Lösung zu erörtern? Ist das effizient? Ist das ökonomisch? Ist das sinnvoll? Und kommt dabei tatsächlich immer die "beste" Lösung heraus? Sie wissen sicherlich, was für abartige Monströsitäten aus solchen Prozessen entstehen können, die schon bald nicht das Papier wert sind, auf dem sie stehen. "Schöne" Lösungen sind es mitunter nicht, stattdessen schlechte Komprisse - over-engineered bis zum Gehtnichtmehr - ergo Fehlinvestition.
                        Und wer sitzt dann in so einem Kommittee? Am Ende wieder die Großen von vorher. Es ist nicht zu erwarten, dass so ein Kommittee plötzlich an die Kleinen oder die eine Nutzerminderheit mit besonderen Wünschen denkt. Auch in Kommittees wird letztlich Machtpolitik betrieben und Einfluss gekauft bis der Arzt kommt. Dann leiber halbwegs transparent innerhalb oder zwischen den Distributionen...
                        Stets die Runde Schach für "Große" zu spielen, bevor die Entwickler an einer Umsetzung arbeiten, scheint mir nicht immer zielführend.

                        Daher ist mein Standpunkt: systemd als Option ist völlig OK. systemd als Zwang durch die Hintertür nicht.
                        Welcher Zwang? Welche Hintertür?

                        Zu den mehr philosophischen Inhalten Ihres Beitrags möchte ich mich nicht eingehend äußern. Manches kann wohl jeder unterschreiben.
                        Ist doch schonmal prima. Im Streit muss man auch nach Gemeinsamkeiten suchen. Die sind oft größer als man denkt.

                        Ich vermute, dass dieser Zwang, von dem Sie hier reden, primär aus moralisch-ethische Aspekte herrührt. Könnte das sein?
                        Das lässt sich seltener zum Konsens bringen, da es hier legitimerweise komplett unterschiedliche Auffassungen gibt.

                        Lieber argumentiere ich auf der technischen Ebene. Man kann sich hier objektiver austauschen, finde ich. Manchmal halte ich es aber für notwendig abzuschweifen, um einen Konsens zu finden, von dem man dann gemeinsam dessen Grenzen erforschen kann. Nur so kann man herausfinden, an welchen Punkten man genau die Dinge anders sieht, oder individuell merkt, dass man in einem Punkte wohlmöglich falsch lag und da noch nicht zu Ende gedacht hatte. Das ist es wonach ich für mich persönlich suche. Aber ich versuche natürlich auch stets den Mehrweit für die andere(n) Seite(n) zur berücksichtigen, sonst ist die Diskussion verständlicherweise schnell am Ende.
                        Deswegen auch die Darlegung meiner etwas weiter gefassten, "mehr philosophischen" Gedanken weiter oben.

                        Aber "Friede, Freude, Eierkuchen" und Fatalismus waren noch nie Motor des Fortschritts. ;)
                        Gut möglich, aber ich möchte mir hier bitte nichts unterstellen lassen.

              0
              Von klopskind am Mi, 27. November 2019 um 16:23 #

              Ich habe nichts gegen systemd, sondern gegen Software, die nur damit läuft.
              Und was sollen Entwickler von Software tun, die auf gewisse Schnittstellen angewiesen sind, die unter anderen Systemen keine vergleichbaren Alternativen anbieten, oder falls diese existieren, deren Differenzen nur kompliziert/ineffizient/fehleranfällig und mit großem Aufwand hinreichend abstrahiert werden können?

              Sollen die nicht auf systemd setzen dürfen, allein weil Alternativen nicht aufschließen? Sollen Sie immer nur den kleinsten gemeinsamen Nenner verwenden dürfen? Wie lange soll es dauern, bis der sich weiterentwickelt? Und wann soll diese Vorgehensweise wettbewerbsfähig gegenüber der Konkurrenz sein?

              Oder sollen die alle immer wieder das Rad neu erfinden, falls möglich (denn manchmal braucht es für ein Feature eine zentrale Schnittstelle), bis sie zu einem vorzeigbaren Ergebnis kommen?

              Natürlich ist portable Software, bei deren Entwicklung möglichst wenige explizite wie implizite Annahmen über System und Laufzeitumgebung beabsichtigt und vorausgesetzt wurden, immer gern gesehen. Aber für manche Zwecke und Funktionen unter manchen System ist das einfach weder praktikabel, noch öknomisch, oder es ist schlichtweg unmöglich.

              Es muss schon einen äußerst triftigen Grund haben, wenn Sie pauschal fordern, dass Software nicht ausschließlich mit systemd lauffähig sein darf.

              • 0
                Von kamome umidori am Mi, 27. November 2019 um 22:26 #

                > Und was sollen Entwickler von Software tun, die auf gewisse Schnittstellen angewiesen sind

                Sie verwenden.
                Aber nur wenn es wirklich wichtig ist, nicht aus Faulheit/Unfähigkeit/Arroganz – mehr Kommunikation mit anderen Systemen/Entwicklern auf Augenhöhe wäre vermutlich hilfreich.

                • 0
                  Von klopskind am Do, 28. November 2019 um 09:35 #

                  Sie verwenden.
                  Gut, aber das klingt plötzlich ganz anders als zuvor.

                  Aber nur wenn es wirklich wichtig ist, nicht aus Faulheit/Unfähigkeit/Arroganz – mehr Kommunikation mit anderen Systemen/Entwicklern auf Augenhöhe wäre vermutlich hilfreich.
                  Jetzt kommt das große Aber. Wann ist etwas "wirklich wichtig" nach objektiven Maßstäben und an welche Richtlinien sollte man sich halten. Und wann sollte man sich eben nicht daran halten? Wer entscheidet das? Wer setzt es um? Und mit welchem Recht? Außerdem: Cargo culting is a thing!

                  "Faulheit/Unfähigkeit/Arroganz" ist indirekt eine pauschale Unterstellung an die Entwickler bereits existierender Software, die ausschließlich mit systemd läuft, schätze ich.
                  Nebenbemerkung: In Debian steht die Haltung des Projekts zu systemd übrigens erneut zur Debatte samt Abstimmung, denn da tun sich immer mehr Probleme mit der sinnvollen prallelen Unterstützung mehrerer Systeme auf. Wären alle Abstimmenden, die Optionen C oder D wählen demnach ebenfalls faul, unfähig oder arrogant? (Ich tippe, dass es am Ende D oder "GR is not required." wird. "Further Discussion" schließe ich aus.)

                  Überhaupt driftet das doch in eher moralische Argumentationsweise ab. Da lässt sich meist ohne Mehrwert viel streiten. Falls Sie mich darauf einladen, lehne ich dankend ab.
                  Ich dachte immer, es wären die technische Argumente, die hier in der OSS-Szene überzeugen würden.

                  Ja, mehr Kommunikation ist eigentlich immer hilfreich, bedeutet aber auch immer mehr Aufwand und weniger Zeit für den Rest und sich selbst. Man hat ja gesehen wie das ewige "Further Discussion" bei Debian vor ein paar Jahren dann endete. Langjährige Entwickler gaben öffentlichkeitswirksam auf und schmissen hin, z.B. Joey Hess & Lars Wirzenius. Der Ton, die Umgangsart, das Resultat und die verlorene Zeit sind einfach ernüchternd. In Projekten wie Debian herrscht auch heute noch zu viel unnötige Reibung (siehe auch die Aussagen von Herrn Stapelberg). Das ist bspw. einer der wesentlichen Unterschiede zur Arch-Community, auch wenn diese natürlich wesentlich kleiner wirkt.
                  Freiwilligen Entwicklern kann man soetwas nicht aufzwingen. Und das Ausdiskutieren unter ungünstigen Randbedingungen ist ebenfalls kontraproduktiv.

                  Noch dazu sind Ihre Verbesserungsvorschläge zukünftiger Maßnahmen, Prozesse oder Entwicklungen weder besonders konkret noch ausgereift. Selbst wenn Sie einen klaren Richtlinienkatalog/-algorithmus vorlegen würden, der dann à la RFC diskutiert, angepasst und ausgefeilt werden kann, werden immer noch genügend Entwickler andere Ansprüche oder Ansichten haben. Und dann ist da noch das Problem der Verbreitung und der Durchsetzung. Die Entwickler sind keine Sklaven, sie sind freiwillig "hier".
                  Keiner erwartet Respekt. Aber warum können wir das nicht wenigstens tolerieren?

        0
        Von August Meier am Mi, 27. November 2019 um 07:06 #

        >>GNOME ist ein minimalistischer Desktop,
        >>die mitgelieferten Anwendungen bieten
        >>bewusst nur grundlegende Funktionen

        Ich habe bis heute nicht verstanden, weshalb ein sogenannt minimalistischer Desktop
        einen solchen Ressourcenhunger an den Tag legt wie Gnome.

        Unter minimalistisch verstehe ich so etwas wie WindowMaker,
        auch wenn das keine Desktop-Umgebung ist, sondern eben eine
        Fensterverwaltungsanwendung.

        Gruss


        August Meier

        • 0
          Von Tamaskan am Mi, 27. November 2019 um 09:41 #

          Ich habe bis heute nicht verstanden, weshalb ein sogenannt minimalistischer Desktop
          einen solchen Ressourcenhunger an den Tag legt wie Gnome.

          Minimalistisch im Sinne vom Design, nicht im Sinne von minimalem Ressourcenverbrauch. Wenn du einen "schicken" Desktop haben willst mit hochauflösenden Grafiken, Schattenwürfen, 3D-Effekten etc. dann benötigst du eben ein bisschen mehr RAM als für einen 16-Farben-Desktop im 90er-Jahre-Stil - und eine Grafikkarte, die ein bisschen OpenGL kann. Und?

          Ich finde dieses Argument, das gegen GNOME (oder KDE) oft verwendet wird, so pauschal überhaupt nicht stichhaltig. Wenn man tatsächlich auf spezieller Hardware arbeitet, z.B Embedded, wo es auf jedes bisschen ankommt (weil das direkt die Kosten beeinflusst), dann würde ich den Einwand akzeptieren (dort benötigst du aber wahrscheinlich ohnehin keine Desktop-Umgebung).

          Aber wenn du auf einem Desktop oder Laptop arbeitest, dann kannst du dir GNOME oder KDE problemlos leisten. Ich habe auf dieser Maschine 32 GB RAM und GNOME belegt davon aktuell 216 MB. Das ist gerade mal 0,65% (!) des gesamten Arbeitsspeichers. Also fast nichts. Ich sehe das nicht als "ressourcenhungrig" an.

          • 0
            Von pointer am Mi, 27. November 2019 um 10:16 #

            Minimalistisch im Sinne vom Design, nicht im Sinne von minimalem Ressourcenverbrauch.

            Aha - frei nach dem Motto "Weniger ist mehr".

            "Schick" und "Schattenwürfe" hin oder her: höherer Ressourcenverbrauch bei weniger Funktionalität ergibt IMO keinen Sinn. Sorry, aber *mich* erinnert das Ganze eher an "gewollt und nicht gekonnt".

            • 0
              Von Minimalist am Mi, 27. November 2019 um 11:57 #

              höherer Ressourcenverbrauch bei weniger Funktionalität ergibt IMO keinen Sinn

              Höherer Resourcenverbrauch fällt gar nicht ins Gewicht.

              • 0
                Von pointer am Mi, 27. November 2019 um 12:28 #

                Kann man offenbar auch anders sehen:

                So kommt Kali 2019.4 mit Xfce als neuem Standard-Desktop. Bereits seit Monaten hat das Team mit verschiedenen Ansätzen gespielt. Einer der Hauptgründe für die Abkehr von Gnome als erstem Desktop ist dessen Ressourcenverbrauch. Laut den Entwicklern von Offensive Security benötigt eine Distribution wie Kali keine so schwergewichtige Desktop-Umgebung. [1]

                Wie dem auch sei - *IMO* ist ein "minimalistischer" Ansatz, der zu hohem Ressourcenverbrauch führt, ein Widerspruch in sich.

                [1] Kali Linux 2019.4 mit Xfce als Standard

                • 0
                  Von Minimalist am Mi, 27. November 2019 um 12:47 #

                  Weiter oben steht:

                  GTK+ wird mit und für GNOME entwickelt. Die Bibliothek ist in erster Linie für Anwendungen gedacht. Natürlich kann man GTK+ benutzen, um einen eigenen Desktop zu schreiben, aber man kann nicht erwarten, dass Upstream das berücksichtigt und z.B interne APIs stabil auf längere Zeit stabil bleiben oder dass sich Funktionalität nicht ändert.
                  Xfce basiert auf GTK+.

                0
                Von klopskind am Mi, 27. November 2019 um 17:20 #

                "Höherer Resourcenverbrauch" heißt höhere Kosten. Höhere Kosten heißt nicht jeder kann sichs leisten. Das heißt Kunden und ganze Märkte (sogenannte "emerging markets") gehen verloren.

                Aus ökonomischer Sicht ist Ihre Aussage also schlichtweg falsch.

                • 0
                  Von Minimalist am Do, 28. November 2019 um 18:12 #

                  "Höherer Resourcenverbrauch" heißt höhere Kosten. Höhere Kosten heißt nicht jeder kann sichs leisten. Das heißt Kunden und ganze Märkte (sogenannte "emerging markets") gehen verloren.

                  Leute die sich nichts leisten können sind keine Zielgruppe. "Märkte" sind nur interessant wenn etwas dabei herausspringt.

                  • 0
                    Von klopskind am Do, 28. November 2019 um 20:47 #

                    Leute die sich nichts leisten können sind keine Zielgruppe.
                    Ich habe nichts über "Leute[,] die sich nichts leisten können" (eigene Hervorhebung), gesagt.

                    Warum sollte ein Hersteller Leute als potentielle Kunden/Nutzer prinzipiell ausschließen, wenn die Zielgruppe geeignet erweitert werden kann?

                    "Märkte" sind nur interessant wenn etwas dabei herausspringt.
                    Binsenweisheit... und nun?

                    Es ist doch gang und gäbe, dass bspw. Spielehersteller ihre Spiele derart optimieren, dass sie auf möglichst viel bereits gekaufter Hardware rennt, damit möglichst viele potentielle Kunden angesprochen werden. Siehe diese ganzen F2P-Spiele mit Comicgrafik.

                0
                Von pointer am Fr, 29. November 2019 um 09:25 #

                Höherer Resourcenverbrauch fällt gar nicht ins Gewicht.

                In der Summe schon. Das gedankenlose "Mehr" führt immer offensichtlicher in die globale Katastrophe. Ein grundsätzliches Umdenken ist unumgänglich.

            0
            Von klopskind am Mi, 27. November 2019 um 17:16 #

            Wenn du einen "schicken" Desktop haben willst mit hochauflösenden Grafiken, Schattenwürfen, 3D-Effekten etc. dann benötigst du eben ein bisschen mehr RAM als für einen 16-Farben-Desktop im 90er-Jahre-Stil - und eine Grafikkarte, die ein bisschen OpenGL kann.
            KDE beweist derzeit, dass es signifikant weniger an Ressourcen als GNOME bedarf, siehe hier.

            Ich finde dieses Argument, das gegen GNOME (oder KDE) oft verwendet wird, so pauschal überhaupt nicht stichhaltig.
            Stimmt, denn auf KDE trifft dies sehr viel weniger zu als auf GNOME.

            Aber wenn du auf einem Desktop oder Laptop arbeitest, dann kannst du dir GNOME oder KDE problemlos leisten.
            Und wenn die Hardware einfach ein bisschen älter oder günstiger und deshalb leistungsschwächer ist? Ich habe hier ein ThinkPad X121e mit Intel i3 und 4GB Speicher. GNOME und KDE fühlen sich subjektiv träge an.

            Aber wenn du auf einem Desktop oder Laptop arbeitest, dann kannst du dir GNOME oder KDE problemlos leisten. Ich habe auf dieser Maschine 32 GB RAM und GNOME belegt davon aktuell 216 MB. Das ist gerade mal 0,65% (!) des gesamten Arbeitsspeichers. Also fast nichts. Ich sehe das nicht als "ressourcenhungrig" an.
            1. 216MB für GNOME 3 halte ich für sehr wenig. Da habe ich andere Zahlen von eigenen Messungen im Kopf. Was zählt zu diesen 216MB dazu? Haben Sie Ihre Sitzung händisch stark angepasst oder kastriert?

            2. 32GB sollten nicht der Maßstab sein. Es gibt auch Menschen, die sich nicht so viel leisten können, oder erst gar keinen Zugriff zu solcher Hardware haben, aber dennoch die gleichen Bedürfnisse haben.
            Sollen diese etwa prinzipiell von der Verwendung ausgeschlossen werden oder die 10 Jahre alten Entwicklungen aufgebrüht und ohne tiefgreifenderen Support nutzen müssen?

            3. Spielehersteller etwa optimieren ihre Software oft mit großem Aufwand, da Sie so eine größere Zielgruppe an potentiellen Kunden/Nutzern erreichen können.
            Warum sollte das bei DEs nicht auch so sein?

            • 0
              Von Tamaskan am Do, 28. November 2019 um 09:56 #

              KDE beweist derzeit, dass es signifikant weniger an Ressourcen als GNOME bedarf, siehe hier.

              Hier wird Ubuntu mit Kubuntu verglichen, nicht GNOME mit KDE! Die Ressourcenbelegung direkt nach dem Login hängt in erster Linie davon ab, welche Prozesse alle automatisch gestartet werden, und das ist zwischen Ubuntu und seinen Derivaten oft unterschiedlich.

              Bspw. liefert Ubuntu einige Anwendung als Snap-Paket aus, wodurch diese in einem Container laufen, der seine eigenen Abhängigkeiten mitbringt, die dann separat erst alle geladen werden müssen. Flatpak hat den gleichen Nachteil.

              Und wenn die Hardware einfach ein bisschen älter oder günstiger und deshalb leistungsschwächer ist? Ich habe hier ein ThinkPad X121e mit Intel i3 und 4GB Speicher. GNOME und KDE fühlen sich subjektiv träge an.

              Ich habe GNOME schon auf schwächerer Hardware eingesetzt. Wichtig ist es hier nur, dass die GPU vernünftig vom Grafiktreiber unterstützt wird, weil GNOME OpenGL verwendet. Falls nicht, wird OpenGL per Software emuliert und das ist tatsächlich langsam. In diesem Fall macht eine Desktop-Umgebung, die nur mit 2D-Befehlen arbeitet, mehr Sinn.

              216MB für GNOME 3 halte ich für sehr wenig. Da habe ich andere Zahlen von eigenen Messungen im Kopf. Was zählt zu diesen 216MB dazu? Haben Sie Ihre Sitzung händisch stark angepasst oder kastriert?

              Aktuell sind es sogar nur 177 MB. Das ist der Arbeitsspeicher, den die GNOME Shell belegt, also die eigentliche Desktop-Oberfläche. Anwendungen und Hintergrunddienste zähle ich nicht mit, aber du kannst noch 54 MB für GNOME Software drauf schlagen (das prüft auf Updates mittels PackageKit, das wiederum ca. 100 MB belegt, während die Prüfung läuft) und Evolution, dass sich mit meinem Exchange synchronisiert und ebenfalls permanent im Hintergrund läuft und insgesamt auch so 100 MB braucht. Lassen wir es auf 500 MB kommen.

              Sollen diese etwa prinzipiell von der Verwendung ausgeschlossen werden oder die 10 Jahre alten Entwicklungen aufgebrüht und ohne tiefgreifenderen Support nutzen müssen?

              Sollen Menschen, die aktuelle Hardware haben, keine Software benutzen dürfen, welche diese Möglichkeiten ausnutzt? Es gibt doch verschiedene Desktop-Umgebungen und es gibt Distributionen, die sich auf alte Hardware spezialisiert haben (und dann z.B die vielen Hintergrunddienste weglassen).

              Spielehersteller etwa optimieren ihre Software oft mit großem Aufwand, da Sie so eine größere Zielgruppe an potentiellen Kunden/Nutzern erreichen können.
              Warum sollte das bei DEs nicht auch so sein?

              Hier ist das Ziel eher ein anderes, es geht hauptsächlich darum, die Hardware soweit es geht auszureizen, um das beste Ergebnis zu erzielen. Oft werben die Spiele sogar damit, dass eine bestimmte Technik der neuesten Hardwaregeneration genutzt wird.

              • 0
                Von klopskind am Do, 28. November 2019 um 15:16 #

                Hier wird Ubuntu mit Kubuntu verglichen, nicht GNOME mit KDE!
                Ja, das ist korrekt!
                [...] und das ist zwischen Ubuntu und seinen Derivaten oft unterschiedlich.
                Quelle? Beispiele?

                Wie dem auch sei... Ich habe auf die Schnelle nur noch diese Zahlen (2:40 bzw. 4:28) gefunden. Ergebnis: Manjaro GNOME 936MB, Manjaro KDE 0,38GiB.
                Haben sie halbwegs aktuelle Testreihen, die belastbarer sind, vorzuliegen?

                Bspw. liefert Ubuntu einige Anwendung als Snap-Paket aus, wodurch diese in einem Container laufen, der seine eigenen Abhängigkeiten mitbringt, die dann separat erst alle geladen werden müssen. Flatpak hat den gleichen Nachteil.
                Aha, welche wären hier davon betroffen? Das betrifft doch im Wesentlichen reine Endanwendersoftware und nicht die Desktop-Umgebung und die Komponenten darunter, oder?

                Ich habe GNOME schon auf schwächerer Hardware eingesetzt. Wichtig ist es hier nur, dass die GPU vernünftig vom Grafiktreiber unterstützt wird, weil GNOME OpenGL verwendet. Falls nicht, wird OpenGL per Software emuliert und das ist tatsächlich langsam. In diesem Fall macht eine Desktop-Umgebung, die nur mit 2D-Befehlen arbeitet, mehr Sinn.
                Einsetzbar und nicht-träge sind aber nicht unbedingt vergleichbar. Ich kann ja auch etwas träges einsetzen. Nur besonders toll ist es nicht.
                Aber ja, OpenGL-Unterstützung ist für GNOME und KDE inzwischen essentiell.

                Vielleicht unterscheiden sich hier unsere Erfahrungen einfach nur diametral.

                Aktuell sind es sogar nur 177 MB. Das ist der Arbeitsspeicher, den die GNOME Shell belegt, also die eigentliche Desktop-Oberfläche.
                Aha, gut zu wissen. Wenn jemand GNOME schreibt, verstehe ich darunter entweder das Projekt oder dessen Produkt, und das ist eine gesamte Desktop-Umgebung.

                Nun gut, gnome-shell nutzt Mutter. Demnach wäre es also das Gegenstück zu plasmashell & kwin, oder?
                Hier gibt's einen Screenshot von Kubuntu 18.04 aus diesem Artikel. Summa summarum 91MB+26MB=117MB.

                Sollen Menschen, die aktuelle Hardware haben, keine Software benutzen dürfen, welche diese Möglichkeiten ausnutzt?
                Das ist ein klassisches Strohmann-Argument. Ich habe nicht suggeriert, geschweige denn behauptet, dass potente Hardware aus Rücksicht auf die anderen per se ungenutzt bleiben müsste.

                Ich argumentierte aber, es läge im Interesse der Entwickler, auch die Nutzer mit schwächerer Hardware zu berücksichtigen - einerseits aus Selbstinteresse (Nutzerzahlen, Popularität & ggf. potentieller Profit: humankapitalistisch oder rein kommerziell), andererseits ggf. aus moralisch-ethischen Gründen, aber da möchte ich ungern detaillierter einsteigen.

                Antworte auf Ihre Frage: Natürlich dürfen sie es.
                Dahingegen wäre es angemessen Sie würden meine Äußerungen hinriechend kontextualisieren. Es wäre der Diskussion dienliche, falls Sie auf den gesamten Punkt eingehen würden statt ein selektives Zitat zu verwenden.

                Es ging nicht um irgendwelche Software, sondern um GNOME.

                Sie argumentierten damit, dass es bei Ihnen mit 32GB RAM die 216MB für die GNOME-Shell doch nur im Promillebereich ("0,65%") liegt. Dann schrieb ich, dass 32GB derzeit nicht das Maß der Dinge für GNOME bzw. deren Anwender sein könne.

                Fakt ist: Ein Projekt wie GNOME möchte viele Anwender. Um erfolgreich zu sein, müssen sie daher die Zielgruppe erweitern, so gut sie können. Das beinhaltet auch, den Ressourcenbedarf zu minimieren. Ähnlich verfahren die Spielehersteller, wie ich bereits schrieb.

                Fakt ist auch, dass Ihre Wahl der 216MB statt des relevanteren Gesamtbedarfs eher willkürlich erscheint (zumal Sie erst gar nicht erwähnten wofür diese 216MB stehen), sowie dass 32GB RAM nocht ein gutes Stück vom Standard entfernt sind.

                Ergo: Diese Argumentation führt ins Nirvana.

                Hier ist das Ziel eher ein anderes, es geht hauptsächlich darum, die Hardware soweit es geht auszureizen, um das beste Ergebnis zu erzielen.
                Was ist denn bittschön das "beste Ergebnis" für einen Spielehersteller? So wie alle Unternehmen: Bestand, Profitmaximierung und manchmal auch zufriedene Kunden. Das "beste Ergebnis" hat die Maximierung der potentiellen Käufer zur Konsequenz, wenn es diese nicht schon direkt beinhaltet.

                Viele Spielehersteller/Publisher definieren das "beste Ergebnis" quasi über die Verkaufszahlen. Das ist nicht nur bei Spielen so, sondern auch bei Filmen und Büchern. Die messen sich in Kundenzahlen.

                Was meinen Sie, warum viele Speilehersteller eine empfohlene und eine minimale Hardwareanforderung angeben?

                Oft werben die Spiele sogar damit, dass eine bestimmte Technik der neuesten Hardwaregeneration genutzt wird.
                Ja, manchmal sogar nur mit Unterstützung für einen der Grafikkartenhersteller. Das ist dann aber meistens alles rein optional. Falls nicht, so erbete ich Belege (plural denn Sie schrieben "oft").

                • 0
                  Von Tamaskan am Do, 28. November 2019 um 19:38 #

                  Quelle? Beispiele?
                  Wie dem auch sei... Ich habe auf die Schnelle nur noch diese Zahlen (2:40 bzw. 4:28) gefunden. Ergebnis: Manjaro GNOME 936MB, Manjaro KDE 0,38GiB.
                  Haben sie halbwegs aktuelle Testreihen, die belastbarer sind, vorzuliegen?

                  In den Videos, wie auch in dem verlinkten Artikel, wird nicht der Speicherbedarf der Desktop-Umgebungen gemessen, sondern des gesamten laufenden Systems. Und der hängt davon ab, wie das System insgesamt konfiguriert ist. Beispielsweise bieten sowohl GNOME als auch KDE eine Desktop-Suche mit Indizierung an. Sowas frisst natürlich viel Arbeitsspeicher, weil dafür eine Datenbank im Hintergrund laufen muss. Je nachdem, ob man dieses Feature also einschaltet oder nicht (und ob gerade ein Indizierungsvorgang läuft oder nicht), beeinflusst dies das Ergebnis massiv.

                  Aha, welche wären hier davon betroffen? Das betrifft doch im Wesentlichen reine Endanwendersoftware und nicht die Desktop-Umgebung und die Komponenten darunter, oder?

                  Das betrifft zum Beispiel den Systemmonitor, welcher dir den aktuell belegten Arbeitsspeicher anzeigt. Der ist nämlich auch als Snap-Paket realisiert, läuft also in einem Ubuntu-Container und treibt daher den Speicherverbrauch nach oben, wenn er läuft.

                  Aha, gut zu wissen. Wenn jemand GNOME schreibt, verstehe ich darunter entweder das Projekt oder dessen Produkt, und das ist eine gesamte Desktop-Umgebung.
                  Nun gut, gnome-shell nutzt Mutter. Demnach wäre es also das Gegenstück zu plasmashell & kwin, oder?
                  Hier gibt's einen Screenshot von Kubuntu 18.04 aus diesem Artikel. Summa summarum 91MB+26MB=117MB.

                  Genau, dass wäre dann äquivalent. Den Speicherbedarf des Window Managers kann man noch am ehesten direkt vergleichen, da diese ja annähernd die gleiche Funktionalität haben.

                  Das ist ein klassisches Strohmann-Argument. Ich habe nicht suggeriert, geschweige denn behauptet, dass potente Hardware aus Rücksicht auf die anderen per se ungenutzt bleiben müsste.

                  Das war eine Gegenfrage auf deine rhetorische Frage, ob Menschen mit schwächerer Hardware ausgeschlossen werden sollen. Ich habe das ja ebensowenig behauptet.

                  Ich argumentierte aber, es läge im Interesse der Entwickler, auch die Nutzer mit schwächerer Hardware zu berücksichtigen - einerseits aus Selbstinteresse (Nutzerzahlen, Popularität & ggf. potentieller Profit: humankapitalistisch oder rein kommerziell), andererseits ggf. aus moralisch-ethischen Gründen, aber da möchte ich ungern detaillierter einsteigen.

                  Sicher, doch man kann nicht immer alle Ziele gleichzeitig erreichen und muss sich oft für eine Teilmenge entscheiden. Beispiel: Google Chrome, dort wird jeder Tab als eigener Prozess ausgeführt. Das erhöht die Sicherheit und die Stabilität, benötigt aber mehr Arbeitsspeicher und Rechenleistung als alles in einen Prozess zu packen.

                  Wenn man also feststellt, dass die potenziellen Benutzer mit schwacher Hardware nur eine kleine Gruppe ist, die Jahr für Jahr kleiner wird, dann will man vielleicht nicht besonders viel investieren, um seine Software auch auf schwacher Hardware anbieten zu können, oder dafür sogar Abstriche an anderer Stelle machen.

                  Was ist denn bittschön das "beste Ergebnis" für einen Spielehersteller? So wie alle Unternehmen: Bestand, Profitmaximierung und manchmal auch zufriedene Kunden. Das "beste Ergebnis" hat die Maximierung der potentiellen Käufer zur Konsequenz, wenn es diese nicht schon direkt beinhaltet.
                  Viele Spielehersteller/Publisher definieren das "beste Ergebnis" quasi über die Verkaufszahlen. Das ist nicht nur bei Spielen so, sondern auch bei Filmen und Büchern. Die messen sich in Kundenzahlen.

                  Das "beste Ergebnis" meinte ich eher produktbezogen, also dass z.B die Grafik so realistisch und detailiert aussieht wie technisch möglich. Betriebsswirtschaftlich gesehen muss ich dir widersprechen: Die Anzahl an Kunden ist nicht entscheidend, sondern der Gewinn, der mit diesen erzielt wird. Du kannst also nicht nur viel verdienen, wenn du viele Kunden hast, sondern auch, wenn du weniger Kunden hast, die aber hohe Preise bezahlen.

                  Im Spielemarkt hast du ferner viele verschiedene Zielgruppen. Wenn wir über Casual Gaming reden, besonders im mobilen Bereich, dann muss ich dir zustimmen, hier macht es tatsächlich Sinn, die Hardware-Anforderungen möglichst du drücken, weil die Kunden nicht viel Geld ausgeben wollen, weder für Spiele noch für Hardware, du musst deinen Gewinn also über die Masse machen.

                  Bei Spielen jedoch, die sich an Gaming-Enthusiasten ("Profi-Gamer") richten, da kannst du weit höhere Preise aufrufen, die Kunden haben viel eher moderne Hardware, die du möglichst ausnutzen solltest, du willst ja gegenüber den Konkurrenzspielen herausstechen und die Spieler wollen ja auch, dass ihre tolle schicke Hardware sich auch gelohnt hat.

                  Was meinen Sie, warum viele Speilehersteller eine empfohlene und eine minimale Hardwareanforderung angeben?

                  Die minimale Hardwareanforderung bedeutet in der Regel, dass man die Auflösung herunterschrauben und die meisten grafischen Details ausschalten muss. Das sieht scheiße aus, man ist frustriert und geht sich neue Hardware kaufen, damit man endlich sein Spiel genießen kann ;-)

                  Ja, manchmal sogar nur mit Unterstützung für einen der Grafikkartenhersteller. Das ist dann aber meistens alles rein optional. Falls nicht, so erbete ich Belege (plural denn Sie schrieben "oft").

                  Bei Konsolenspielen gab es das öfter mal, dass diese nur exklusiv für eine Konsole erschienen sind. Bei PC-Spielen waren es eher optionale Features, beispielsweise PhysX, dass nur auf Nvidia-Grafikkarten lief und ansonsten in Software emuliert werden musste, was natürlich langsamer ist. Es gab damals sogar den Vorwurf an Nvidia, die Software-Implementierung absichtlich langsam gemacht zu haben, damit ihre eigenen Grafikkarten noch besser dastehen.

                  • 0
                    Von klopskind am Do, 28. November 2019 um 21:47 #

                    Beispielsweise bieten sowohl GNOME als auch KDE eine Desktop-Suche mit Indizierung an.
                    Die ist bei beiden aktiv, sodass die Zahlen vergleichbar sind.

                    Sie werden nicht umhinkommen, dass Desktop-Umgebungen unterschiedliche Features unterschieldier Ausprägung bieten. Darf man deshalb plötzlich den Ressourcenbedarf von Desktop-Umgebungen nicht mehr vergleichen?

                    Das betrifft zum Beispiel den Systemmonitor, welcher dir den aktuell belegten Arbeitsspeicher anzeigt. Der ist nämlich auch als Snap-Paket realisiert, [...]
                    Gut zu wissen, aber unter Manjaro sollte das (noch?) nicht der Fall sein.

                    Genau, dass wäre dann äquivalent. [...]
                    Sind wir uns nun einig, dass KDE weniger Ressourcen als GNOME schluckt - zumindest was den Compositor und die Shell angeht?

                    Das war eine Gegenfrage auf deine rhetorische Frage, ob Menschen mit schwächerer Hardware ausgeschlossen werden sollen. Ich habe das ja ebensowenig behauptet.
                    Beantwortet haben Sie meine Frage hingegen nicht. Sie sind ausgewichen.

                    Sicher, doch man kann nicht immer alle Ziele gleichzeitig erreichen und muss sich oft für eine Teilmenge entscheiden.
                    Ja, aber KDE ist doch nun der Beweis, dass es technisch möglich ist, eine weitere Optimierung zu realisieren. Da muss man also nichts entscheiden, sonder machen.

                    Wenn man also feststellt, dass die potenziellen Benutzer mit schwacher Hardware nur eine kleine Gruppe ist, die Jahr für Jahr kleiner wird, dann [...]
                    Hätte hätte Fahrradkette... Wann soll das der Fall sein. Die Gruppe der potentiellen Benutzer mit schwacher Hardware wird in der Regel eine Mehrheit darstellen, z.B. weil es viel mehr arme Menschen als wohlhabende gibt, und weil die Geräte altern aber weiterbetrieben werden.
                    Ihr Argument gilt folglich höchstens für ganz exotische Nischen.

                    Betriebsswirtschaftlich gesehen muss ich dir widersprechen: Die Anzahl an Kunden ist nicht entscheidend, sondern der Gewinn, der mit diesen erzielt wird. Du kannst also nicht nur viel verdienen, wenn du viele Kunden hast, sondern auch, wenn du weniger Kunden hast, die aber hohe Preise bezahlen.
                    Aha, aber in der Regel machen mehr Kunden mehr Gewinn, wenn der Aufwand der selbe bleibt. Das ist gerade in der Softwarewelt so. Deswegen machen die großen populären ja so einen Zaster, weil es prima skaliert. Microsoft hat das damals quasi perfektioniert.

                    Das Rest ist eine Frage der Wahl des Produktplanung und Preisgestaltung. Ist es eine innovative Neuheit? Oder konkurriere ich in einem bestehende? Wie sieht der Markt aus? Wie funktioniert er? Ziele ich auf einen eng definierten Produktpreis ab, und profitiere über die Marge? Oder habe ich eine Preisspanne in der ich konkurrieren möchte und versuche die beste Qualität herauszuholen? Oder limitiere ich das Produkt und treibe damit künslich den Preis hoch? Oder finde ich eine Niche für hochqualitative Alternativen, die ich dann teurer verkaufen kann?

                    Casual Gaming [...] Gaming-Enthusiasten ("Profi-Gamer")
                    Also "Profi-Gamer" sind meines Wissens nach solche, die so gut sind, dass sie damit in Wettbewerben ihre Brötchen verdienen. Das geschieht meistens genau in den Free2Play-Titeln mit weniger anspruchsvoller Grafik.
                    In die Kategorie würden aber auch Gaming-Streamer fallen. Ich habe nicht den Eindruck, dass es beim Streaming primär um die Grafik des Spiels ginge. Im Stream kommt in der Regel sowieso nur komprimierter Matsch an.

                    Mit Enthusiasten assoziere ich eine andere Gruppe von Spielern - nun gut. Die Pen&Paper-Rollenspieler à la DnD würde ich auch als Enthusiasten bezeichnen, und die benötigen nichtmal einen maschinelle Rechenmaschine.
                    Auch bei den Enthusiasten an den Pixelbeschleunigergeräten denke ich nicht primär an Grafikfetischisten. Was Sie vielleicht meinen, sind die PC-Hardware-Enthusiasten. Die wollen Ihre Hardware natürlich ausreizen. Da geht es häufig aber eher um Ego und digitalen Schwanzvergleich statt um produktive Anwendung.

                    Mit "Casual" kann ich etwas anfangen.

                    Wie dem auch sei, aber das geschieht ebenfalls alles in Grenzen. 32GB RAM sind derzeit für absolut wenige Spiele tatsächlich notwendig, soweit ich da noch einen Überblick habe. Persönlich bin ich da schon mindestens 10 Jahre komplett raus. Da wäre der Vergleich von vorhin also eventuell angebracht.

                    Für GNOME sind 32GB aktuell aber wirklich völlig überdimensioniert. Darum dreht sich das Argument bzw. Gegenargument doch eigentlich.
                    Mehr RAM verhilft nicht der Schwuppsidität von GNOME etc., wenn der bisherige nicht ausgereizt wird. Meine angesprochenen 4GB wurden auch nicht von GNOME ausgereizt, trotzdem war es mir viel zu träge - mMn ohne Grund. Und wenn ich dann einen Browser mit einer einstelligen Zahl an Tabs öffne, sieht es gleich ganz anders aus. Da braucht er jedes MB, um dem swapping vorzubeugen. An dieser Stelle ist GNOME nicht besonders hilfreich.

                    Die minimale Hardwareanforderung bedeutet in der Regel, dass man die Auflösung herunterschrauben und die meisten grafischen Details ausschalten muss. Das sieht scheiße aus, man ist frustriert und geht sich neue Hardware kaufen, damit man endlich sein Spiel genießen kann
                    Ja, wenn man das Geld dafür hat. Oder man freut sich einfach, dass es irgendwie geht. Man ist eh nichts anderes gewohnt. Da wirkt es auch gar nicht so schlimm, wie es eigentlich ist, ehrlich.

                    Jeder 14-jährige Bengel & Lausbub mit so einem Spiel würde sich auf seiner Möhre trotzdem drüber freuen.

                    Außerdem ist doch dann der Punkt schon gemacht. Das Spiel wurde gekauft. Der Profit wurde gemacht. Das Argument greift.
                    Was danach passiert, ist den Spieleherstellern doch völlig Wurst. Sie haben, was sie wollten.

                    Hätte jedoch keine oder eine höhere Mindestanforderung draufgestanden, bspw. weil es nicht optimiert worden wäre, hätte sich der Lausbub das Spiel gar nicht gekauft oder vom Weihnachtsmann gewünscht.

                    Ergo: echt blödes Argument...

                    Bei Konsolenspielen gab es das öfter mal, dass diese nur exklusiv für eine Konsole erschienen sind.
                    Hui, das geht mir aber ein bisschen viel zu weit weg vom Thema jetzt. Können wir nicht wenigstens beim PC (Desktop) bleiben?

                    Bei PC-Spielen waren es eher optionale Features, beispielsweise PhysX, dass nur auf Nvidia-Grafikkarten lief und ansonsten in Software emuliert werden musste, was natürlich langsamer ist.
                    Sag ich ja, also zieht ihr obiges Argument nicht. Schließlich sind die meisten Effekte der Compositoren wie etwa Transparenz, Schatten usw. ebenfalls rein optional.

                    • 0
                      Von Tamaskan am Fr, 29. November 2019 um 09:36 #

                      Sind wir uns nun einig, dass KDE weniger Ressourcen als GNOME schluckt - zumindest was den Compositor und die Shell angeht?

                      Wir waren bei 117MB vs. 177 MB. Also ja, auch wenn die Größenordnung die gleiche ist.

                      Ja, aber KDE ist doch nun der Beweis, dass es technisch möglich ist, eine weitere Optimierung zu realisieren. Da muss man also nichts entscheiden, sonder machen.

                      Die interessante Frage ist doch, wie diese Optimierung genau aussieht, und ob diese nicht an anderer Stelle zu Nachteilen führt. Eine triviale Möglichkeit, um die Belegung von Arbeitsspeicher im Idle zu reduzieren, wäre z.B lazy loading einzusetzen und gleichzeitig alles sofort wieder freizugeben, was man nicht direkt braucht.

                      Wenn man nur wenig Arbeitsspeicher zu Verfügung hat, dann ist das sinnvoll, bei viel Arbeitsspeicher führt das nur zu unnötig viel I/O und macht das System langsamer. Ich sehe solche "Schwanzvergleiche" daher immer sehr kritisch, wenn man nur auf die Zahlen schaut.

                      Einen Kritikpunkt/Optimierungsvorschlag an GNOME hätte ich aber: Nach dem Login sollte man die GDM-Session (also den Anmeldebildschirm) komplett entladen. Der läuft aktuell stets im Hintergrund weiter und verbraucht immerhin knapp 300 MB (läuft als eigener User "gdm", darum sieht man es nicht gleich). Wenn tatsächlich jemand sich mal als anderer Benutzer anmelden sollte, dann kann man den Anmeldebildschirm ja wieder laden, kommt ja nicht so oft vor. Ich verstehe nicht, warum das nicht gemacht wird.

                      Aha, aber in der Regel machen mehr Kunden mehr Gewinn, wenn der Aufwand der selbe bleibt. Das ist gerade in der Softwarewelt so. Deswegen machen die großen populären ja so einen Zaster, weil es prima skaliert. Microsoft hat das damals quasi perfektioniert.

                      Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.

                      Also "Profi-Gamer" sind meines Wissens nach solche, die so gut sind, dass sie damit in Wettbewerben ihre Brötchen verdienen. Das geschieht meistens genau in den Free2Play-Titeln mit weniger anspruchsvoller Grafik.

                      Free2Play - Pay2Win zielt auf Casuals, dass ist für Profi-Gamer eher uninteressant. Ich habe "Profi-Gamer" aber bewusst in Anführungszeichen geschrieben, weil ich eher die privaten Hobbysten/Enthusiasten meinte, die das intensiv betreiben. Die echten Profi-Gamer kriegen sowieso ständig die allerneueste Hardware, weil die Konkurrenz diese auch hat.

                      Wie dem auch sei, aber das geschieht ebenfalls alles in Grenzen. 32GB RAM sind derzeit für absolut wenige Spiele tatsächlich notwendig, soweit ich da noch einen Überblick habe. Persönlich bin ich da schon mindestens 10 Jahre komplett raus. Da wäre der Vergleich von vorhin also eventuell angebracht.

                      8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn. Meistens nimmt man gleich 16 GB RAM, sind ja nur weitere 25 € mehr. Für ein PC, mit dem gespielt werden soll, sollte man sich aber auf jeden Fall 32 GB RAM gönnen.

                      Ja, wenn man das Geld dafür hat. Oder man freut sich einfach, dass es irgendwie geht. Man ist eh nichts anderes gewohnt. Da wirkt es auch gar nicht so schlimm, wie es eigentlich ist, ehrlich.

                      Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.

                      Jeder 14-jährige Bengel & Lausbub mit so einem Spiel würde sich auf seiner Möhre trotzdem drüber freuen.

                      Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.

                      Außerdem ist doch dann der Punkt schon gemacht. Das Spiel wurde gekauft. Der Profit wurde gemacht. Das Argument greift.
                      Was danach passiert, ist den Spieleherstellern doch völlig Wurst. Sie haben, was sie wollten.

                      Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.

                      Hätte jedoch keine oder eine höhere Mindestanforderung draufgestanden, bspw. weil es nicht optimiert worden wäre, hätte sich der Lausbub das Spiel gar nicht gekauft oder vom Weihnachtsmann gewünscht.

                      Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken. Die Hardwareanforderungen können nur eine sehr grobe Einschätzung geben, wenn man wirklich wissen will, ob das Spiel läuft und in welcher Framerate bei welchen Settings, dann muss man das recherchieren.

                      Sag ich ja, also zieht ihr obiges Argument nicht. Schließlich sind die meisten Effekte der Compositoren wie etwa Transparenz, Schatten usw. ebenfalls rein optional.

                      Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen.

                      Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.

                      Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...

                      • 0
                        Von klopskind am Fr, 29. November 2019 um 12:53 #

                        Okay, für welche These(n) argumentieren Sie hier eigentlich noch?

                        Es ging primär um Ihre Aussagen, die Sie mit der Antwort auf August Meiers Kommentar schrieben.

                        Nun haben wir schon einmal anhand des Speicherverbrauchs der Compositoren und der Shells mühsam festgestellen müssen, dass das Argument

                        Wenn du einen "schicken" Desktop haben willst mit hochauflösenden Grafiken, Schattenwürfen, 3D-Effekten etc. dann benötigst du eben ein bisschen mehr RAM als für einen 16-Farben-Desktop im 90er-Jahre-Stil - und eine Grafikkarte, die ein bisschen OpenGL kann.
                        für GNOME ein wenig fehl am Platze ist, weil die Konkurrenz (KDE) beweist, dass es auch sparsamer & effektvoller geht - zumindest mit dem Speicher.

                        Bis neulich hatte GNOME auch viele Problem mit Rucklern und der Performance, Canonicals Fabian van Vugt hat sich viel darum gekümmert. Schön, dass das nun endlich besser läuft. Vorher hat das unter der Entwicklern fast niemanden wirklich interessiert. Es lief ja...

                        Ich finde dieses Argument, das gegen GNOME (oder KDE) oft verwendet wird, so pauschal überhaupt nicht stichhaltig. Wenn man tatsächlich auf spezieller Hardware arbeitet, z.B Embedded, [...], dann würde ich den Einwand akzeptieren
                        Es wird derzeit eben mehr gegen GNOME verwendet als gegen KDE, siehe auch Ihre Kritik an der Handhabung des Login-Managers von GNOME (gdm). (Das Verhalten, welches Sie beschreiben, lässt sich, glaube ich, auf die Unterstützung von Multiseat und einer allgemein sichereren Implementierung schließen.)

                        Der Einwand Meiers ist immer berechtigt, wenn man noch alte oder günstige Hardware aktualisieren und betreiben möchte, und die Konkurrenz beweist, dass es möglich ist, ohne Einbußen optimieren zu können.

                        Dann der Vergleich mit Ihrem System samt 32GB Arbeitsspeicher. Dort waren es noch 216MB allein für die GNOME-Shell (samt Compositor). Sie machen daraus 0,65% des Speichers. Ja, Bravo! Daraus lässt sich leider nicht ableiten, wie "ressourcenhungrig" oder GNOME nun tatsächlich ist. Schon gar nicht für die gesamte Anwenderschaft. Denn erstens ist der gesamte Speicherbedarf des Desktops und der darunterliegenden Komponenten relevant. Und zweitens ist relevant, ob oben drauf noch die gewünschten Anwendungen, wie Browser, Mail etc. laufen.

                        Unter Fedora, quasi der GNOME-Referenzdistribution, hat man nach dem Start samt Login, circa 800MB belegt. Mit 4GB RAM und Fedora 29(?) waren es bei mir gut 1GB.
                        Wenn man da nun ein- bis dreihundert MB mit KDE etc. wegoptimieren kann, dass hat man auf Maschinen mit engem Speicherkapazitäten ein oder zwei Firefox-Tab mehr, die man öffnen kann, ohne dass das System angefängt zu swappen und die Performance einbricht. Das ist ein Gewinn, den der gemeine Nutzer sieht, und nachdem er einen Desktop oder sogar eine Distribution auswählen würde.

                        Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.
                        Natürlich gibt es beide Strategien. Aber Apple? Die entwerfen ein vermeintlich hochwertiges Produkt, und schaut dann, wie viel die Leute bereit wären dafür zu zahlen.

                        Das witzige an Apple ist, dass obwohl sie so horrende Preise dafür verlangen, so viele Kunden ein iPhone besitzen. Bis zum 1. November 2018 wurden insgesamt mehr als 2,2 Milliarden Geräte verkauft,
                        Quelle. Das ist schonmal eine Hausnummer.
                        Und dann gab es da bspw. auch das iPhone 5C und iPhone SE, welche explizit für den günstigeren Einsteigermarkt ausgelegt waren.
                        Wenn es also Apple nicht um jeden Kunden ginge, fress ich nen Besen. Apples Werbung suggeriert doch auch, dass es für jederman sei.

                        8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn.
                        Das ist der derzeitige Preis von 8GB Speicher. Die Speicherpreise sinken im Mittel ständig. Über die letzten 2 Jahre war RAM lag der Preis für Speicher noch sehr viel höher als heute (Schweinezyklus?) aufgrund von Produktionsengpässen.

                        Dann schauen Sie mal in die ganzen Angebote für günstige bis mittelpreisige Hardware wie Laptops, Chrombooks, etc.
                        Allein Geräte mit 4GB (teils verlötet / nicht erweiterbar) gibt es neu zuhauf, siehe etwa hier. Da können Sie Scrollen bis der Arzt kommt. Geht rauf bis 3500€ für eine Panasonic Toughbook.

                        Und dazu kommen noch die Altgeräte, die noch tadellos laufen. Und dann kommen da noch der Gebrauchtmarkt und der Markt in den Ländern, die keine ehem. Industrienation waren, hinzu.

                        Ich persönlich würde so ein Geräte heutzutage auch nicht mehr verwenden, wenn ich es geschenkt bekäme. Aber der Markt dafür ist da, und das sollte nicht überraschen, finde ich.


                        Beim Rest Ihres Kommentars kann ich leider nicht mehr ganz nachvollziehen, inwiefern das noch tatsächlich zur ursprünglichen Diskussion beiträgt.

                        Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.
                        Es ist nicht selten, dass die allerersten Trailer gar kein ingame-Rendering zeigen.

                        Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.
                        Aber das Spiel ist gekauft. Das war das Argument.

                        Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.
                        Aha, gerade weil die Spiele- und Hardwareindustrie im gegenseitigen Wettbewerb steht, müssen Sie auch mit etwaigen Optimierungen potentielle Käufer von der Konkurrenz abfischen.

                        Nicht jedes neues Spiel braucht bessere Hardware. Was war denn mit Fortnite? Das kam nach PUBG. Und die ganzen Indiegames. Es gibt unzählige Gegenbeispiele für diese Pauschalaussage.

                        Es ist auch schwierig, hier Ursache und Wirkung präzise voneinander zu trennen. Das ist marktwirtschaftlich gesehen alles noch nicht so genau beantwortet. Es gibt Modelle, die hier und dort super funktionieren, klar. Aber die sind nicht allgemeingültig. Es fängt doch allein damit an: Ist es ein dynamischer Prozess, ein stochastischer, oder ein spieltheoretischer? Das sind alles eigene Felder der Mathematik.

                        Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken.
                        Ja genau, weils sonst bei niemandem rund laufen würde, und somit keiner kaufen würde. Das ist quasi der selbe Grund oder der Grund für den Grund.

                        Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen. [...]
                        Das bestreitet niemand. Und was hat das mit Ihrer ursprünglichen Aussage zu tun?

                        Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.
                        Darum ging es, glaube ich, überhaupt nicht - jedenfalls mir nicht. OpenGL-Beschleunigung darf man inzwischen nun wirklich endlich mal voraussetzen, finde ich.

                        [...] Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...
                        Den kleinsten gemeinsamen Nenner auf OpenGL (ES?) 2 zu schrauben, finde ich im Jahr 2010 auch mit Blick auf die Effizienz angebracht. Was ist hier das Argument? Oder wollten Sie nur mal ein bisschen von früher™ schwelgen?

        0
        Von pointer am Mi, 27. November 2019 um 10:05 #

        Das ist reine Geschmackssache. GNOME ist ein minimalistischer Desktop, die mitgelieferten Anwendungen bieten bewusst nur grundlegende Funktionen.

        Und dann 800 MB Speicherbedarf? Ich sehe da einen gewissen Widerspruch. [1]


        [1] https://www.pro-linux.de/artikel/2/1986/4,gnome.html

        0
        Von kraileth am Mi, 27. November 2019 um 10:11 #

        Zuerst einmal: Danke für die sachliche Antwort! Ich kann auch einige der Positionen durchaus nachvollziehen, aber es sind schlicht nicht meine. Wie gesagt: Es ist gut, daß es Auswahl gibt - und offensichtlich mögen einige Leute das moderne GNOME auch. Denn warum sollte man sich z.B. darüber beschweren, daß es auf anderen Systemen teilweise nur schlecht läuft, wenn es einem eigentlich ziemlich egal sein kann? Insofern: Nichts für ungut.

        Aber in der Sache habe ich die gleichen Probleme, die ein anderer Kommentator hier gerade ansprach: Es gibt Leute, z.B. von FreeBSD-GNOME-Team, die nicht einfach nur fordern und meckern, sondern selbst anpacken. Und die noch ganz anders anpacken würden, wenn man ihre Interessen nicht offensichtlich immer mal wieder als "irrelevant" abtun und ihre Vorschläge blockieren würde. Es ist eine Sache, als Entwickler mit knapper Zeit zu einer Bitte um Umterstützung eines eher exotischen Systems "nein" zu sagen. Aber es ist eine andere, die Leute auszubremsen, die sich einbringen würden. Wobei ich gestehe, daß meine einzige Quelle hier Hörensagen ist; ich kenne nur eine Person aus dem GNOME-Team und mit dieser habe ich über das Thema nie gesprochen. Die Menge der FreeBSD-spezifischen Patches, die im Ports-Tree für die GNOME-Bestandteile gepflegt werden müssen, ist nach einem schnellen Blick darauf geringer, als ich erwartet hätte. Da gibt es ganz andere Software, deren Quellcode wirklich Übles angetan werden muß, damit er kompiliert...

        Von KDE weiß ich, daß es eine Zusammenarbeit mit dem FreeBSD-Projekt gibt, welches eine entsprechende CI bereitstellt und die KDE-Leute sind bereit, "don't break KDE on FreeBSD" als eine Losung zu akzeptieren. Für GNOME gab es meines Wissens ähnliche Bestrebungen, allerdings zog sich das furchtbar lange hin und ich habe es zugegebenermaßen aus den Augen verloren.

        Minimalismus: Naja... Ich bin über die Jahre von GNOME -> Xfce -> Mate -> EDE -> Openbox und schließlich Awesome gewechselt. Ich mag den minimalistischen Ansatz. Den sehe ich aber bei GNOME nur bedingt. In der Funktionalität teilweise ja, in der Konfigurierbarkeit definitiv. Aber vom Ressourcenhunger und dem allgemeinen Aufbau? Da bin ich anderer Meinung. Doch jedem Menschen sein Werkzeug.

        GTK+: Wobei GNOME das ja nicht geschaffen, sondern quasi assimilert hat. Die Ironie schlechthin ist ja, daß GIMP bis vor relativ kurzer Zeit noch Version 2 des GIMP Toolkit verwendet hat, während GNOME derzeit schon an Version 4 schraubt.

        In der Hauptsache mag ich die Einstellung einiger Entwickler nicht. die überdeutlich auf andere herabschauen. Etwa, als Mate als GNOME-2-Fork entstant und man diesen direkt für tot erklärte, weil "die Entwickler die Pflege definitiv nicht stemmen können". Trotzdem lebt Mate noch und ist sogar so brauchbar, daß das der Desktop ist, den ich üblicherweise wähle, wenn ich einem Linux-Einsteiger eine Kiste einrichte. Zugegeben: Mate hat viele Pakete aufgegeben und die moderneren Equivalente von GNOME adaptiert, womit einiges vom Pflegeaufwand des kompletten Desktops wegfällt. Aber dann war da noch die Nummer, daß man aus dem GNOME-Lager höhnte, der Mate-Desktop würde langsam verrotten und niemals den Umstieg auf GTK3 schaffen. Das ist inzwischen längst passiert und Mate hat auch eigene Features eingebaut, z.B. ein Undo in Caja, was ich in Nautilus damals immer vermißt hatte. Warum dieses Verhalten? KDE hat mit dem TDE auch einen Fork einer alten Version hervorgebracht. Auch da haben die Entwickler gesagt, daß die Macher vor einer Mammutaufgabe stehen, die sie den wenigen Leuten kaum zutrauen. Aber man blieb zumindest freundlicher. Ich weiß, daß meine Kritik wieder genau den Falschen trifft, da ich Deine Antwort - das möchte ich nochmals betonen - wunderbar fand.

        Das mit den 99% der Entwickler auf Linux stimmt höchstwahrscheinlich. Man kann hier aber einen anderen Einwand bringen: Es ist bekannt, daß Portierungen auf andere Betriebssysteme oder Prozessorarchitekturen ziemlich hilfreich dabei sind, die Qualität einer Software zu verbessern, da kleine Fehler oder Ungereimtheiten viel schneller auffallen, bevor sie sonst irgendwann schlummernd zusammen mit anderen ein größeres Problem ergeben.

        Es gibt auf die Frage Linux-only oder zumindest "Linux first" keine ultimative Antwort. Trotzdem sollte aus meiner Sicht diese Herangehensweise immer wieder in Frage gestellt werden. Aber versöhnliches zum Schluß: Bei aller Kritik - ich bin durchaus froh, daß es GNOME gibt, wodurch auch die anderen GTK-Konsumenten indirekt immer profitieren (ich kann Qt gar nichts abgewinnen und FLTK ist einfach zu wenig verbreitet). ;)

    0
    Von Leonora Tindall am Di, 26. November 2019 um 14:24 #

    Immerhin entfernt Gnome ja auch Softwarepakete:

    Ardour (too technical)
    Blender (too technical)
    Firefox (often installed by default)
    Chess (Is this good? I don't know)
    Quelle: Gnome: Expand the number of featured applications

    Wenn dieser ganze technische Mist wegkommt ist auch Platz für ein paar kommerzielle Programme, das sollte dann niemanden stören.

    • 0
      Von Josef Hahn am Di, 26. November 2019 um 16:57 #

      Die komplette Generation Z (und das sind ja die, die erstmal den Ton angeben, bis die nächst(e )dümmere Generationen übernimmt) rastet wahrscheinlich auch aus vor Euphorie!

      Deren eigene Vorschlagsliste lässt sich ja kaum noch veralbern. Da steht u.a. Slack und Steam drin. In der Gnome Softwareverwaltung. Gemessen am Hype-o-Meter fehlt da auf jeden Fall noch Microsofts komischer Javascriptwebserverbrowsertexteditor mit Telemetrie und Syntax-Highlighting.

      • 0
        Von was ist das am Di, 26. November 2019 um 22:16 #

        Du meinst den Code?

        Der ist richtig Super und Microsoft hat viel dafür gearbeitet. Ich muss auf Arbeit neben PHP auch mit C# arbeiten. Viele Features von Visual Studio sind wirklich gut und sinnvoll und wünsche mir auch für meinen PHP-Editor... und voila! Code ähnelt dem großem Bruder und ist für verschiedene Betriebssysteme zu haben.

        Du kannst natürlich trotzdem einer anderen Meinung sein :)

        • 0
          Von Josef Hahn am Mi, 27. November 2019 um 11:31 #

          Na dann haben wir ja wieder einen gefunden... :)

          Ich frage mich, wenn man schon so pragmatisch/unverkrampft ist, warum man dann nicht einfach Windows nimmt?! Ich meine das ganz ernst und sachlich. Da ist das ganze ja dann alles schon nochmal schöner integriert. Dann nimmst du einfach das Visual Studio in der Community Edition, und legst los. Alles liegt dir zu Füßen! :) Warum PHP, wenn du auch ASP.NET Core machen kannst? C# nativ; überall, wo du möchtest.

          Ich verstehe Leute, die FOSS machen, und ich verstehe Leute, die den Komfort und die volle Industrieunterstützung der kommerziellen Welt mitnehmen. Manchmal höre ich von Mischungen, die für mich daherkommen als Versuch, die Nachteile beider Welten zu vereinen... PHP in VS Code ist genau _sowas_... :D

          • 0
            Von Oiler der Borg am Mi, 27. November 2019 um 13:00 #

            Ich frage mich, wenn man schon so pragmatisch/unverkrampft ist, warum man dann nicht einfach Windows nimmt?!
            stell ich mir die letzten drei Jahre fast täglich... :shock:
            Flatpack/Snap ist da das aktuelle Beispiel, oder wenn irgendwelche Extremschwachmaten ähnliches wie MSI-Installer fordern :oops:

            Manchmal höre ich von Mischungen, die für mich daherkommen als Versuch, die Nachteile beider Welten zu vereinen
            hin und wieder gibt es auch Versuche Mischungen zu machen, welche Vorteile verbinden... Ubuntu war zum Bleistift einer davon...

            0
            Von klopskind am Mi, 27. November 2019 um 20:54 #

            Ich frage mich, wenn man schon so pragmatisch/unverkrampft ist, warum man dann nicht einfach Windows nimmt?! Ich meine das ganz ernst und sachlich.
            Da wir ja nun alle hinlänglich wissen, dass Sie das eben nicht ernst gemeint haben können, sei gesagt, dass ich diese Form der MissionierungSektiererei nichts abgewinnen kann. Da kann man gleich zu TempleOS migrieren. Nur das ist die einzig wahre Form der Reinheit und Redlichkeit, wenn es um Software geht. :angel:

            0
            Von was ist das am Mi, 27. November 2019 um 22:46 #

            Ich nehme ja bereits Windows :)

            Das ist in der Firma so vorgegeben.
            C# ist auch vorgegeben, genau so wie auch PHP.

            Nur mal so zur Erklärung, warum, weshalb und wieso :)

            Aber ASP.NET würde mich persönlich auch interessieren.

            Ich war auch mal FOSS only... Wem es Spaß macht...

    0
    Von Tasmaskan am Di, 26. November 2019 um 20:26 #

    Das ist keine Werbung. GNOME bzw. Evolution bieten die Möglichkeit, Kontakte, Kalender, Aufgaben etc. mit Google zu synchronisieren oder mit einem Microsoft Exchange Server. Ein Feature, dass eben viele Leute nutzen, im Falle von Exchange vor allem aus beruflichen Gründen.

    Freie Software sollte den Benutzer nicht "umerziehen". Wenn jemand proprietäre/kommerzielle Dienste benutzen will (oder muss...), dann sollte dies auch möglich sein. Andernfalls würden die betroffenen Anwender eben eine andere Software nutzen, z.B wieder auf Windows umsteigen. Ist das wirklich wünschenswert?

2
Von Giselher am Di, 26. November 2019 um 12:56 #

Es war ja eigentlich absehbar wofür Flatpak und Konsorten eigentlich entwickelt wurden. Freie Software konnte bisher auch ohne Flatpak über Repositories verteilt werden. Mit Flatpak geht die Reise langsam auch bei Linux zum App-Shop ala Google, Amazon oder Microsoft. Ob das gut oder schlecht ist wird der Markt zeigen.

  • 1
    Von Oiler der Borg am Mi, 27. November 2019 um 13:05 #

    diese Gülle erinnert mich sehr an die schlimmsten Zeiten von XP, wo auch .net, Java und weiss der Teufel in sechs Entwicklungsstufen und jeweils zwölf Instanzen die Platte zuklebte und da die freilich alle ungefixt vor sich hingährten und beliebte Scheunentore für Malware darstelten :cry:

    Genau diese Siff wird sich Linux mit den "neuen ach so geilen paketformaten" auch ins Haus holen

0
Von JonnyBravo1982 am Do, 28. November 2019 um 07:48 #

Wenn es dazu käme würde ein Großteil der Kunden würden wechseln. Wie ich auch...es gibt genug andere Distributionen.

Pro-Linux
Unterstützer werden
Neue Nachrichten
Werbung