Login
Newsletter
Werbung

Thema: Fedora diskutiert Werbung für proprietäre Software in »Gnome Software«

3 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von klopskind am Do, 28. November 2019 um 21:47 #

Beispielsweise bieten sowohl GNOME als auch KDE eine Desktop-Suche mit Indizierung an.
Die ist bei beiden aktiv, sodass die Zahlen vergleichbar sind.

Sie werden nicht umhinkommen, dass Desktop-Umgebungen unterschiedliche Features unterschieldier Ausprägung bieten. Darf man deshalb plötzlich den Ressourcenbedarf von Desktop-Umgebungen nicht mehr vergleichen?

Das betrifft zum Beispiel den Systemmonitor, welcher dir den aktuell belegten Arbeitsspeicher anzeigt. Der ist nämlich auch als Snap-Paket realisiert, [...]
Gut zu wissen, aber unter Manjaro sollte das (noch?) nicht der Fall sein.

Genau, dass wäre dann äquivalent. [...]
Sind wir uns nun einig, dass KDE weniger Ressourcen als GNOME schluckt - zumindest was den Compositor und die Shell angeht?

Das war eine Gegenfrage auf deine rhetorische Frage, ob Menschen mit schwächerer Hardware ausgeschlossen werden sollen. Ich habe das ja ebensowenig behauptet.
Beantwortet haben Sie meine Frage hingegen nicht. Sie sind ausgewichen.

Sicher, doch man kann nicht immer alle Ziele gleichzeitig erreichen und muss sich oft für eine Teilmenge entscheiden.
Ja, aber KDE ist doch nun der Beweis, dass es technisch möglich ist, eine weitere Optimierung zu realisieren. Da muss man also nichts entscheiden, sonder machen.

Wenn man also feststellt, dass die potenziellen Benutzer mit schwacher Hardware nur eine kleine Gruppe ist, die Jahr für Jahr kleiner wird, dann [...]
Hätte hätte Fahrradkette... Wann soll das der Fall sein. Die Gruppe der potentiellen Benutzer mit schwacher Hardware wird in der Regel eine Mehrheit darstellen, z.B. weil es viel mehr arme Menschen als wohlhabende gibt, und weil die Geräte altern aber weiterbetrieben werden.
Ihr Argument gilt folglich höchstens für ganz exotische Nischen.

Betriebsswirtschaftlich gesehen muss ich dir widersprechen: Die Anzahl an Kunden ist nicht entscheidend, sondern der Gewinn, der mit diesen erzielt wird. Du kannst also nicht nur viel verdienen, wenn du viele Kunden hast, sondern auch, wenn du weniger Kunden hast, die aber hohe Preise bezahlen.
Aha, aber in der Regel machen mehr Kunden mehr Gewinn, wenn der Aufwand der selbe bleibt. Das ist gerade in der Softwarewelt so. Deswegen machen die großen populären ja so einen Zaster, weil es prima skaliert. Microsoft hat das damals quasi perfektioniert.

Das Rest ist eine Frage der Wahl des Produktplanung und Preisgestaltung. Ist es eine innovative Neuheit? Oder konkurriere ich in einem bestehende? Wie sieht der Markt aus? Wie funktioniert er? Ziele ich auf einen eng definierten Produktpreis ab, und profitiere über die Marge? Oder habe ich eine Preisspanne in der ich konkurrieren möchte und versuche die beste Qualität herauszuholen? Oder limitiere ich das Produkt und treibe damit künslich den Preis hoch? Oder finde ich eine Niche für hochqualitative Alternativen, die ich dann teurer verkaufen kann?

Casual Gaming [...] Gaming-Enthusiasten ("Profi-Gamer")
Also "Profi-Gamer" sind meines Wissens nach solche, die so gut sind, dass sie damit in Wettbewerben ihre Brötchen verdienen. Das geschieht meistens genau in den Free2Play-Titeln mit weniger anspruchsvoller Grafik.
In die Kategorie würden aber auch Gaming-Streamer fallen. Ich habe nicht den Eindruck, dass es beim Streaming primär um die Grafik des Spiels ginge. Im Stream kommt in der Regel sowieso nur komprimierter Matsch an.

Mit Enthusiasten assoziere ich eine andere Gruppe von Spielern - nun gut. Die Pen&Paper-Rollenspieler à la DnD würde ich auch als Enthusiasten bezeichnen, und die benötigen nichtmal einen maschinelle Rechenmaschine.
Auch bei den Enthusiasten an den Pixelbeschleunigergeräten denke ich nicht primär an Grafikfetischisten. Was Sie vielleicht meinen, sind die PC-Hardware-Enthusiasten. Die wollen Ihre Hardware natürlich ausreizen. Da geht es häufig aber eher um Ego und digitalen Schwanzvergleich statt um produktive Anwendung.

Mit "Casual" kann ich etwas anfangen.

Wie dem auch sei, aber das geschieht ebenfalls alles in Grenzen. 32GB RAM sind derzeit für absolut wenige Spiele tatsächlich notwendig, soweit ich da noch einen Überblick habe. Persönlich bin ich da schon mindestens 10 Jahre komplett raus. Da wäre der Vergleich von vorhin also eventuell angebracht.

Für GNOME sind 32GB aktuell aber wirklich völlig überdimensioniert. Darum dreht sich das Argument bzw. Gegenargument doch eigentlich.
Mehr RAM verhilft nicht der Schwuppsidität von GNOME etc., wenn der bisherige nicht ausgereizt wird. Meine angesprochenen 4GB wurden auch nicht von GNOME ausgereizt, trotzdem war es mir viel zu träge - mMn ohne Grund. Und wenn ich dann einen Browser mit einer einstelligen Zahl an Tabs öffne, sieht es gleich ganz anders aus. Da braucht er jedes MB, um dem swapping vorzubeugen. An dieser Stelle ist GNOME nicht besonders hilfreich.

Die minimale Hardwareanforderung bedeutet in der Regel, dass man die Auflösung herunterschrauben und die meisten grafischen Details ausschalten muss. Das sieht scheiße aus, man ist frustriert und geht sich neue Hardware kaufen, damit man endlich sein Spiel genießen kann
Ja, wenn man das Geld dafür hat. Oder man freut sich einfach, dass es irgendwie geht. Man ist eh nichts anderes gewohnt. Da wirkt es auch gar nicht so schlimm, wie es eigentlich ist, ehrlich.

Jeder 14-jährige Bengel & Lausbub mit so einem Spiel würde sich auf seiner Möhre trotzdem drüber freuen.

Außerdem ist doch dann der Punkt schon gemacht. Das Spiel wurde gekauft. Der Profit wurde gemacht. Das Argument greift.
Was danach passiert, ist den Spieleherstellern doch völlig Wurst. Sie haben, was sie wollten.

Hätte jedoch keine oder eine höhere Mindestanforderung draufgestanden, bspw. weil es nicht optimiert worden wäre, hätte sich der Lausbub das Spiel gar nicht gekauft oder vom Weihnachtsmann gewünscht.

Ergo: echt blödes Argument...

Bei Konsolenspielen gab es das öfter mal, dass diese nur exklusiv für eine Konsole erschienen sind.
Hui, das geht mir aber ein bisschen viel zu weit weg vom Thema jetzt. Können wir nicht wenigstens beim PC (Desktop) bleiben?

Bei PC-Spielen waren es eher optionale Features, beispielsweise PhysX, dass nur auf Nvidia-Grafikkarten lief und ansonsten in Software emuliert werden musste, was natürlich langsamer ist.
Sag ich ja, also zieht ihr obiges Argument nicht. Schließlich sind die meisten Effekte der Compositoren wie etwa Transparenz, Schatten usw. ebenfalls rein optional.

[
| Versenden | Drucken ]
  • 0
    Von Tamaskan am Fr, 29. November 2019 um 09:36 #

    Sind wir uns nun einig, dass KDE weniger Ressourcen als GNOME schluckt - zumindest was den Compositor und die Shell angeht?

    Wir waren bei 117MB vs. 177 MB. Also ja, auch wenn die Größenordnung die gleiche ist.

    Ja, aber KDE ist doch nun der Beweis, dass es technisch möglich ist, eine weitere Optimierung zu realisieren. Da muss man also nichts entscheiden, sonder machen.

    Die interessante Frage ist doch, wie diese Optimierung genau aussieht, und ob diese nicht an anderer Stelle zu Nachteilen führt. Eine triviale Möglichkeit, um die Belegung von Arbeitsspeicher im Idle zu reduzieren, wäre z.B lazy loading einzusetzen und gleichzeitig alles sofort wieder freizugeben, was man nicht direkt braucht.

    Wenn man nur wenig Arbeitsspeicher zu Verfügung hat, dann ist das sinnvoll, bei viel Arbeitsspeicher führt das nur zu unnötig viel I/O und macht das System langsamer. Ich sehe solche "Schwanzvergleiche" daher immer sehr kritisch, wenn man nur auf die Zahlen schaut.

    Einen Kritikpunkt/Optimierungsvorschlag an GNOME hätte ich aber: Nach dem Login sollte man die GDM-Session (also den Anmeldebildschirm) komplett entladen. Der läuft aktuell stets im Hintergrund weiter und verbraucht immerhin knapp 300 MB (läuft als eigener User "gdm", darum sieht man es nicht gleich). Wenn tatsächlich jemand sich mal als anderer Benutzer anmelden sollte, dann kann man den Anmeldebildschirm ja wieder laden, kommt ja nicht so oft vor. Ich verstehe nicht, warum das nicht gemacht wird.

    Aha, aber in der Regel machen mehr Kunden mehr Gewinn, wenn der Aufwand der selbe bleibt. Das ist gerade in der Softwarewelt so. Deswegen machen die großen populären ja so einen Zaster, weil es prima skaliert. Microsoft hat das damals quasi perfektioniert.

    Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.

    Also "Profi-Gamer" sind meines Wissens nach solche, die so gut sind, dass sie damit in Wettbewerben ihre Brötchen verdienen. Das geschieht meistens genau in den Free2Play-Titeln mit weniger anspruchsvoller Grafik.

    Free2Play - Pay2Win zielt auf Casuals, dass ist für Profi-Gamer eher uninteressant. Ich habe "Profi-Gamer" aber bewusst in Anführungszeichen geschrieben, weil ich eher die privaten Hobbysten/Enthusiasten meinte, die das intensiv betreiben. Die echten Profi-Gamer kriegen sowieso ständig die allerneueste Hardware, weil die Konkurrenz diese auch hat.

    Wie dem auch sei, aber das geschieht ebenfalls alles in Grenzen. 32GB RAM sind derzeit für absolut wenige Spiele tatsächlich notwendig, soweit ich da noch einen Überblick habe. Persönlich bin ich da schon mindestens 10 Jahre komplett raus. Da wäre der Vergleich von vorhin also eventuell angebracht.

    8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn. Meistens nimmt man gleich 16 GB RAM, sind ja nur weitere 25 € mehr. Für ein PC, mit dem gespielt werden soll, sollte man sich aber auf jeden Fall 32 GB RAM gönnen.

    Ja, wenn man das Geld dafür hat. Oder man freut sich einfach, dass es irgendwie geht. Man ist eh nichts anderes gewohnt. Da wirkt es auch gar nicht so schlimm, wie es eigentlich ist, ehrlich.

    Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.

    Jeder 14-jährige Bengel & Lausbub mit so einem Spiel würde sich auf seiner Möhre trotzdem drüber freuen.

    Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.

    Außerdem ist doch dann der Punkt schon gemacht. Das Spiel wurde gekauft. Der Profit wurde gemacht. Das Argument greift.
    Was danach passiert, ist den Spieleherstellern doch völlig Wurst. Sie haben, was sie wollten.

    Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.

    Hätte jedoch keine oder eine höhere Mindestanforderung draufgestanden, bspw. weil es nicht optimiert worden wäre, hätte sich der Lausbub das Spiel gar nicht gekauft oder vom Weihnachtsmann gewünscht.

    Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken. Die Hardwareanforderungen können nur eine sehr grobe Einschätzung geben, wenn man wirklich wissen will, ob das Spiel läuft und in welcher Framerate bei welchen Settings, dann muss man das recherchieren.

    Sag ich ja, also zieht ihr obiges Argument nicht. Schließlich sind die meisten Effekte der Compositoren wie etwa Transparenz, Schatten usw. ebenfalls rein optional.

    Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen.

    Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.

    Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...

    [
    | Versenden | Drucken ]
    • 0
      Von klopskind am Fr, 29. November 2019 um 12:53 #

      Okay, für welche These(n) argumentieren Sie hier eigentlich noch?

      Es ging primär um Ihre Aussagen, die Sie mit der Antwort auf August Meiers Kommentar schrieben.

      Nun haben wir schon einmal anhand des Speicherverbrauchs der Compositoren und der Shells mühsam festgestellen müssen, dass das Argument

      Wenn du einen "schicken" Desktop haben willst mit hochauflösenden Grafiken, Schattenwürfen, 3D-Effekten etc. dann benötigst du eben ein bisschen mehr RAM als für einen 16-Farben-Desktop im 90er-Jahre-Stil - und eine Grafikkarte, die ein bisschen OpenGL kann.
      für GNOME ein wenig fehl am Platze ist, weil die Konkurrenz (KDE) beweist, dass es auch sparsamer & effektvoller geht - zumindest mit dem Speicher.

      Bis neulich hatte GNOME auch viele Problem mit Rucklern und der Performance, Canonicals Fabian van Vugt hat sich viel darum gekümmert. Schön, dass das nun endlich besser läuft. Vorher hat das unter der Entwicklern fast niemanden wirklich interessiert. Es lief ja...

      Ich finde dieses Argument, das gegen GNOME (oder KDE) oft verwendet wird, so pauschal überhaupt nicht stichhaltig. Wenn man tatsächlich auf spezieller Hardware arbeitet, z.B Embedded, [...], dann würde ich den Einwand akzeptieren
      Es wird derzeit eben mehr gegen GNOME verwendet als gegen KDE, siehe auch Ihre Kritik an der Handhabung des Login-Managers von GNOME (gdm). (Das Verhalten, welches Sie beschreiben, lässt sich, glaube ich, auf die Unterstützung von Multiseat und einer allgemein sichereren Implementierung schließen.)

      Der Einwand Meiers ist immer berechtigt, wenn man noch alte oder günstige Hardware aktualisieren und betreiben möchte, und die Konkurrenz beweist, dass es möglich ist, ohne Einbußen optimieren zu können.

      Dann der Vergleich mit Ihrem System samt 32GB Arbeitsspeicher. Dort waren es noch 216MB allein für die GNOME-Shell (samt Compositor). Sie machen daraus 0,65% des Speichers. Ja, Bravo! Daraus lässt sich leider nicht ableiten, wie "ressourcenhungrig" oder GNOME nun tatsächlich ist. Schon gar nicht für die gesamte Anwenderschaft. Denn erstens ist der gesamte Speicherbedarf des Desktops und der darunterliegenden Komponenten relevant. Und zweitens ist relevant, ob oben drauf noch die gewünschten Anwendungen, wie Browser, Mail etc. laufen.

      Unter Fedora, quasi der GNOME-Referenzdistribution, hat man nach dem Start samt Login, circa 800MB belegt. Mit 4GB RAM und Fedora 29(?) waren es bei mir gut 1GB.
      Wenn man da nun ein- bis dreihundert MB mit KDE etc. wegoptimieren kann, dass hat man auf Maschinen mit engem Speicherkapazitäten ein oder zwei Firefox-Tab mehr, die man öffnen kann, ohne dass das System angefängt zu swappen und die Performance einbricht. Das ist ein Gewinn, den der gemeine Nutzer sieht, und nachdem er einen Desktop oder sogar eine Distribution auswählen würde.

      Und der wertvollste Konzern der Welt ist Apple, die eben bewusst nicht möglichst viele Kunden gewinnen wollen, sondern sich auf jene konzentrieren, die bereit sind, hohe Preise zu zahlen. Es gibt beide Strategien.
      Natürlich gibt es beide Strategien. Aber Apple? Die entwerfen ein vermeintlich hochwertiges Produkt, und schaut dann, wie viel die Leute bereit wären dafür zu zahlen.

      Das witzige an Apple ist, dass obwohl sie so horrende Preise dafür verlangen, so viele Kunden ein iPhone besitzen. Bis zum 1. November 2018 wurden insgesamt mehr als 2,2 Milliarden Geräte verkauft,
      Quelle. Das ist schonmal eine Hausnummer.
      Und dann gab es da bspw. auch das iPhone 5C und iPhone SE, welche explizit für den günstigeren Einsteigermarkt ausgelegt waren.
      Wenn es also Apple nicht um jeden Kunden ginge, fress ich nen Besen. Apples Werbung suggeriert doch auch, dass es für jederman sei.

      8 GB DDR4-RAM kosten derzeit ca. 25 €. Das ist heutzutage die Untergrenze, weniger RAM zu verbauen macht gar keinen Sinn.
      Das ist der derzeitige Preis von 8GB Speicher. Die Speicherpreise sinken im Mittel ständig. Über die letzten 2 Jahre war RAM lag der Preis für Speicher noch sehr viel höher als heute (Schweinezyklus?) aufgrund von Produktionsengpässen.

      Dann schauen Sie mal in die ganzen Angebote für günstige bis mittelpreisige Hardware wie Laptops, Chrombooks, etc.
      Allein Geräte mit 4GB (teils verlötet / nicht erweiterbar) gibt es neu zuhauf, siehe etwa hier. Da können Sie Scrollen bis der Arzt kommt. Geht rauf bis 3500€ für eine Panasonic Toughbook.

      Und dazu kommen noch die Altgeräte, die noch tadellos laufen. Und dann kommen da noch der Gebrauchtmarkt und der Markt in den Ländern, die keine ehem. Industrienation waren, hinzu.

      Ich persönlich würde so ein Geräte heutzutage auch nicht mehr verwenden, wenn ich es geschenkt bekäme. Aber der Markt dafür ist da, und das sollte nicht überraschen, finde ich.


      Beim Rest Ihres Kommentars kann ich leider nicht mehr ganz nachvollziehen, inwiefern das noch tatsächlich zur ursprünglichen Diskussion beiträgt.

      Vor dem Spielekauf schaut man sich in der Regel den Trailer an, und der wird natürlich mit den maximalen Grafikeinstellungen gerendert. Man weiß also schon, was man verpasst.
      Es ist nicht selten, dass die allerersten Trailer gar kein ingame-Rendering zeigen.

      Der wünscht sich dann als nächste die neueste Grafikkarte, damit das Spiel auch so geil läuft wie bei seinem Kumpel.
      Aber das Spiel ist gekauft. Das war das Argument.

      Du denkst viel zu kurzfristig. Die Spiele- und Hardwareindustrie befeuern sich doch gegenseitig. Neue Spiele brauchen bessere Hardware, die wiederum die Nachfrage nach neuen Spielen ankurbelt, welche die neue Hardware ausnutzt.
      Aha, gerade weil die Spiele- und Hardwareindustrie im gegenseitigen Wettbewerb steht, müssen Sie auch mit etwaigen Optimierungen potentielle Käufer von der Konkurrenz abfischen.

      Nicht jedes neues Spiel braucht bessere Hardware. Was war denn mit Fortnite? Das kam nach PUBG. Und die ganzen Indiegames. Es gibt unzählige Gegenbeispiele für diese Pauschalaussage.

      Es ist auch schwierig, hier Ursache und Wirkung präzise voneinander zu trennen. Das ist marktwirtschaftlich gesehen alles noch nicht so genau beantwortet. Es gibt Modelle, die hier und dort super funktionieren, klar. Aber die sind nicht allgemeingültig. Es fängt doch allein damit an: Ist es ein dynamischer Prozess, ein stochastischer, oder ein spieltheoretischer? Das sind alles eigene Felder der Mathematik.

      Die Optimierung erfolgt wie gesagt aus anderen Gründen. Bei grafikintensiven Spielen stößt man dauernd ans Limit, da will man soviel rausholen wie nur geht und nicht unnötig Performance verschenken.
      Ja genau, weils sonst bei niemandem rund laufen würde, und somit keiner kaufen würde. Das ist quasi der selbe Grund oder der Grund für den Grund.

      Beim Compositing geht es um mehr als nur Desktop-Effekte. Vielmehr ist die Kernidee, die Grafikkarte zu benutzen, um die verschiedenen Fenster und anderen Elemente als 3D-Objekte zu rendern und dann hintereinander anzuordnen. [...]
      Das bestreitet niemand. Und was hat das mit Ihrer ursprünglichen Aussage zu tun?

      Früher hat man das direkt auf der CPU in Software gemacht, was weniger effizient ist und mehr Strom verbraucht. Wenn man jetzt aber keine 3D-fähige Grafikkarte hat bzw. der Treiber nicht richtig arbeitet, dann wird die Grafikkarte auf der CPU emuliert, was langsamer ist als die alte Software-Lösung.
      Darum ging es, glaube ich, überhaupt nicht - jedenfalls mir nicht. OpenGL-Beschleunigung darf man inzwischen nun wirklich endlich mal voraussetzen, finde ich.

      [...] Ich kann mich noch an die Diskussionen erinnern, als GNOME vor 10 Jahren entschieden hat, nur noch 3D-Compositing zu verwenden und keinen 2D-Fallback mehr anzubieten...
      Den kleinsten gemeinsamen Nenner auf OpenGL (ES?) 2 zu schrauben, finde ich im Jahr 2010 auch mit Blick auf die Effizienz angebracht. Was ist hier das Argument? Oder wollten Sie nur mal ein bisschen von früher™ schwelgen?

      [
      | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung