Login
Newsletter
Werbung

Thema: Fedora diskutiert Werbung für proprietäre Software in »Gnome Software«

2 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von Tamaskan am Fr, 29. November 2019 um 09:36 #

Sind wir uns nun einig, dass KDE weniger Ressourcen als GNOME schluckt - zumindest was den Compositor und die Shell angeht?

Wir waren bei 117MB vs. 177 MB. Also ja, auch wenn die Größenordnung die gleiche ist.

Ja, aber KDE ist doch nun der Beweis, dass es technisch möglich ist, eine weitere Optimierung zu realisieren. Da muss man also nichts entscheiden, sonder machen.

Die interessante Frage ist doch, wie diese Optimierung genau aussieht, und ob diese nicht an anderer Stelle zu Nachteilen führt. Eine triviale Möglichkeit, um die Belegung von Arbeitsspeicher im Idle zu reduzieren, wäre z.B lazy loading einzusetzen und gleichzeitig alles sofort wieder freizugeben, was man nicht direkt braucht.

Wenn man nur wenig Arbeitsspeicher zu Verfügung hat, dann ist das sinnvoll, bei viel Arbeitsspeicher führt das nur zu unnötig viel I/O und macht das System langsamer. Ich sehe solche "Schwanzvergleiche" daher immer sehr kritisch, wenn man nur auf die Zahlen schaut.

Einen Kritikpunkt/Optimierungsvorschlag an GNOME hätte ich aber: Nach dem Login sollte man die GDM-Session (also den Anmeldebildschirm) komplett entladen. Der läuft aktuell stets im Hintergrund weiter und verbraucht immerhin knapp 300 MB (läuft als eigener User "gdm", darum sieht man es nicht gleich). Wenn tatsächlich jemand sich mal als anderer Benutzer anmelden sollte, dann kann man den Anmeldebildschirm ja wieder laden, kommt ja nicht so oft vor. Ich verstehe nicht, warum das nicht gemacht wird.

Aha, aber in der Regel machen mehr Kunden mehr Gewinn, wenn der Aufwand der selbe bleibt. Das ist gerade in der Softwarewelt so. Deswegen machen die großen populären ja so einen Zaster, weil es prima skaliert. Microsoft hat das damals quasi perfektioniert.

Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.

Also "Profi-Gamer" sind meines Wissens nach solche, die so gut sind, dass sie damit in Wettbewerben ihre Brötchen verdienen. Das geschieht meistens genau in den Free2Play-Titeln mit weniger anspruchsvoller Grafik.

Free2Play - Pay2Win zielt auf Casuals, dass ist für Profi-Gamer eher uninteressant. Ich habe "Profi-Gamer" aber bewusst in Anführungszeichen geschrieben, weil ich eher die privaten Hobbysten/Enthusiasten meinte, die das intensiv betreiben. Die echten Profi-Gamer kriegen sowieso ständig die allerneueste Hardware, weil die Konkurrenz diese auch hat.

Wie dem auch sei, aber das geschieht ebenfalls alles in Grenzen. 32GB RAM sind derzeit für absolut wenige Spiele tatsächlich notwendig, soweit ich da noch einen Überblick habe. Persönlich bin ich da schon mindestens 10 Jahre komplett raus. Da wäre der Vergleich von vorhin also eventuell angebracht.

8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn. Meistens nimmt man gleich 16 GB RAM, sind ja nur weitere 25 € mehr. Für ein PC, mit dem gespielt werden soll, sollte man sich aber auf jeden Fall 32 GB RAM gönnen.

Ja, wenn man das Geld dafür hat. Oder man freut sich einfach, dass es irgendwie geht. Man ist eh nichts anderes gewohnt. Da wirkt es auch gar nicht so schlimm, wie es eigentlich ist, ehrlich.

Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.

Jeder 14-jährige Bengel & Lausbub mit so einem Spiel würde sich auf seiner Möhre trotzdem drüber freuen.

Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.

Außerdem ist doch dann der Punkt schon gemacht. Das Spiel wurde gekauft. Der Profit wurde gemacht. Das Argument greift.
Was danach passiert, ist den Spieleherstellern doch völlig Wurst. Sie haben, was sie wollten.

Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.

Hätte jedoch keine oder eine höhere Mindestanforderung draufgestanden, bspw. weil es nicht optimiert worden wäre, hätte sich der Lausbub das Spiel gar nicht gekauft oder vom Weihnachtsmann gewünscht.

Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken. Die Hardwareanforderungen können nur eine sehr grobe Einschätzung geben, wenn man wirklich wissen will, ob das Spiel läuft und in welcher Framerate bei welchen Settings, dann muss man das recherchieren.

Sag ich ja, also zieht ihr obiges Argument nicht. Schließlich sind die meisten Effekte der Compositoren wie etwa Transparenz, Schatten usw. ebenfalls rein optional.

Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen.

Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.

Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...

[
| Versenden | Drucken ]
  • 0
    Von klopskind am Fr, 29. November 2019 um 12:53 #

    Okay, für welche These(n) argumentieren Sie hier eigentlich noch?

    Es ging primär um Ihre Aussagen, die Sie mit der Antwort auf August Meiers Kommentar schrieben.

    Nun haben wir schon einmal anhand des Speicherverbrauchs der Compositoren und der Shells mühsam festgestellen müssen, dass das Argument

    Wenn du einen "schicken" Desktop haben willst mit hochauflösenden Grafiken, Schattenwürfen, 3D-Effekten etc. dann benötigst du eben ein bisschen mehr RAM als für einen 16-Farben-Desktop im 90er-Jahre-Stil - und eine Grafikkarte, die ein bisschen OpenGL kann.
    für GNOME ein wenig fehl am Platze ist, weil die Konkurrenz (KDE) beweist, dass es auch sparsamer & effektvoller geht - zumindest mit dem Speicher.

    Bis neulich hatte GNOME auch viele Problem mit Rucklern und der Performance, Canonicals Fabian van Vugt hat sich viel darum gekümmert. Schön, dass das nun endlich besser läuft. Vorher hat das unter der Entwicklern fast niemanden wirklich interessiert. Es lief ja...

    Ich finde dieses Argument, das gegen GNOME (oder KDE) oft verwendet wird, so pauschal überhaupt nicht stichhaltig. Wenn man tatsächlich auf spezieller Hardware arbeitet, z.B Embedded, [...], dann würde ich den Einwand akzeptieren
    Es wird derzeit eben mehr gegen GNOME verwendet als gegen KDE, siehe auch Ihre Kritik an der Handhabung des Login-Managers von GNOME (gdm). (Das Verhalten, welches Sie beschreiben, lässt sich, glaube ich, auf die Unterstützung von Multiseat und einer allgemein sichereren Implementierung schließen.)

    Der Einwand Meiers ist immer berechtigt, wenn man noch alte oder günstige Hardware aktualisieren und betreiben möchte, und die Konkurrenz beweist, dass es möglich ist, ohne Einbußen optimieren zu können.

    Dann der Vergleich mit Ihrem System samt 32GB Arbeitsspeicher. Dort waren es noch 216MB allein für die GNOME-Shell (samt Compositor). Sie machen daraus 0,65% des Speichers. Ja, Bravo! Daraus lässt sich leider nicht ableiten, wie "ressourcenhungrig" oder GNOME nun tatsächlich ist. Schon gar nicht für die gesamte Anwenderschaft. Denn erstens ist der gesamte Speicherbedarf des Desktops und der darunterliegenden Komponenten relevant. Und zweitens ist relevant, ob oben drauf noch die gewünschten Anwendungen, wie Browser, Mail etc. laufen.

    Unter Fedora, quasi der GNOME-Referenzdistribution, hat man nach dem Start samt Login, circa 800MB belegt. Mit 4GB RAM und Fedora 29(?) waren es bei mir gut 1GB.
    Wenn man da nun ein- bis dreihundert MB mit KDE etc. wegoptimieren kann, dass hat man auf Maschinen mit engem Speicherkapazitäten ein oder zwei Firefox-Tab mehr, die man öffnen kann, ohne dass das System angefängt zu swappen und die Performance einbricht. Das ist ein Gewinn, den der gemeine Nutzer sieht, und nachdem er einen Desktop oder sogar eine Distribution auswählen würde.

    Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.
    Natürlich gibt es beide Strategien. Aber Apple? Die entwerfen ein vermeintlich hochwertiges Produkt, und schaut dann, wie viel die Leute bereit wären dafür zu zahlen.

    Das witzige an Apple ist, dass obwohl sie so horrende Preise dafür verlangen, so viele Kunden ein iPhone besitzen. Bis zum 1. November 2018 wurden insgesamt mehr als 2,2 Milliarden Geräte verkauft,
    Quelle. Das ist schonmal eine Hausnummer.
    Und dann gab es da bspw. auch das iPhone 5C und iPhone SE, welche explizit für den günstigeren Einsteigermarkt ausgelegt waren.
    Wenn es also Apple nicht um jeden Kunden ginge, fress ich nen Besen. Apples Werbung suggeriert doch auch, dass es für jederman sei.

    8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn.
    Das ist der derzeitige Preis von 8GB Speicher. Die Speicherpreise sinken im Mittel ständig. Über die letzten 2 Jahre war RAM lag der Preis für Speicher noch sehr viel höher als heute (Schweinezyklus?) aufgrund von Produktionsengpässen.

    Dann schauen Sie mal in die ganzen Angebote für günstige bis mittelpreisige Hardware wie Laptops, Chrombooks, etc.
    Allein Geräte mit 4GB (teils verlötet / nicht erweiterbar) gibt es neu zuhauf, siehe etwa hier. Da können Sie Scrollen bis der Arzt kommt. Geht rauf bis 3500€ für eine Panasonic Toughbook.

    Und dazu kommen noch die Altgeräte, die noch tadellos laufen. Und dann kommen da noch der Gebrauchtmarkt und der Markt in den Ländern, die keine ehem. Industrienation waren, hinzu.

    Ich persönlich würde so ein Geräte heutzutage auch nicht mehr verwenden, wenn ich es geschenkt bekäme. Aber der Markt dafür ist da, und das sollte nicht überraschen, finde ich.


    Beim Rest Ihres Kommentars kann ich leider nicht mehr ganz nachvollziehen, inwiefern das noch tatsächlich zur ursprünglichen Diskussion beiträgt.

    Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.
    Es ist nicht selten, dass die allerersten Trailer gar kein ingame-Rendering zeigen.

    Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.
    Aber das Spiel ist gekauft. Das war das Argument.

    Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.
    Aha, gerade weil die Spiele- und Hardwareindustrie im gegenseitigen Wettbewerb steht, müssen Sie auch mit etwaigen Optimierungen potentielle Käufer von der Konkurrenz abfischen.

    Nicht jedes neues Spiel braucht bessere Hardware. Was war denn mit Fortnite? Das kam nach PUBG. Und die ganzen Indiegames. Es gibt unzählige Gegenbeispiele für diese Pauschalaussage.

    Es ist auch schwierig, hier Ursache und Wirkung präzise voneinander zu trennen. Das ist marktwirtschaftlich gesehen alles noch nicht so genau beantwortet. Es gibt Modelle, die hier und dort super funktionieren, klar. Aber die sind nicht allgemeingültig. Es fängt doch allein damit an: Ist es ein dynamischer Prozess, ein stochastischer, oder ein spieltheoretischer? Das sind alles eigene Felder der Mathematik.

    Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken.
    Ja genau, weils sonst bei niemandem rund laufen würde, und somit keiner kaufen würde. Das ist quasi der selbe Grund oder der Grund für den Grund.

    Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen. [...]
    Das bestreitet niemand. Und was hat das mit Ihrer ursprünglichen Aussage zu tun?

    Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.
    Darum ging es, glaube ich, überhaupt nicht - jedenfalls mir nicht. OpenGL-Beschleunigung darf man inzwischen nun wirklich endlich mal voraussetzen, finde ich.

    [...] Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...
    Den kleinsten gemeinsamen Nenner auf OpenGL (ES?) 2 zu schrauben, finde ich im Jahr 2010 auch mit Blick auf die Effizienz angebracht. Was ist hier das Argument? Oder wollten Sie nur mal ein bisschen von früher™ schwelgen?

    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung