Login
Newsletter
Werbung

Thema: Mozilla kündigt Unternehmensversion von Firefox an

60 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
1
Von Firefox - Benutzer am Mi, 11. Januar 2012 um 09:07 #

Ich werde die Unternehmensversion auch als Privater verwenden, ich habe schon seit Jahren kein neues Browser-Feature mehr gesehen, das mich interessiert.


Wahrscheinlich haben die von Mozilla solche Fork-Aufrufe gelesen und sie haben Angst gekriegt, dass sie ihre Google-Millionen verlieren könnten.


Hoffentlich können sie wieder etwas von Chrome zurückgewinnen, Google wird mir langsam unheimlich.

[
| Versenden | Drucken ]
  • 1
    Von Schrecklich am Mi, 11. Januar 2012 um 09:20 #

    Die Leute können nichts dafür dass du so ein taugenichts bist und vom Web und den neuen Technologien nicht profitierst. Die meisten nutzen die neuen Technologien.

    > Wahrscheinlich haben die von Mozilla solche Fork-Aufrufe gelesen und sie haben Angst gekriegt, dass sie ihre Google-Millionen verlieren könnten.

    Blabla... immer wieder dieser Unsinn das die Leute abwandern oder wechseln. So eine Idiotie. Die Updates regelmäßig angenommen. http://www.browser-statistik.de/statistiken/versionen/
    Bald wird sich das einfach wie bei Chrome einpendeln dass die Installation einer neuen Version Routine ist. Die LTS Versionen werden wie sonst auch üblich irgendwo auf den Servern rumgammeln oder bei Leuten die wie dir die ohnehin das Web nur benutzen um heimlich den Browser aufzumachen um ihn dann schwitzend und schreiend zu schließen weil alles so unsicher kritisch und farbenfroh ist.

    > Hoffentlich können sie wieder etwas von Chrome zurückgewinnen, Google wird mir langsam unheimlich.

    Chrome gewinnt weil sie schnell und ohne zu fragen neue Features bringen und nicht weil ist irgend einen alten Müll über Jahre hinweg für Nutzer pflegen die ohnehin in vi surfen. Das ist was die Leute wollen. Das hat Mozilla erkannt und behoben.

    [
    | Versenden | Drucken ]
    • 0
      Von Blogleser am Mi, 11. Januar 2012 um 09:29 #

      Naja... das nervige dabei ist ja nunmal, dass es bei Updates immer wieder vorkommt, dass plötzlich wieder diverse AddOns nicht funktionieren. Wäre das anders, wären die häufigen Updates wohl eher kein Problem.

      Die paar AddOns die ich im Firefox nutze tun's bei mir zum Glück meistens direkt.

      Aber sobald Thunderbird ESR da ist, werde ich zumindest den verwenden.
      Da versagen die Synch-Tools (OviSuite, MyPhoneExplorer z. B.) für's Handy
      jedesmal den Dienst, sobald sich da was ändert. Mit dem Adressbuch sieht's nicht
      anders aus. Und das nervt extremst.

      [
      | Versenden | Drucken ]
      • 0
        Von Schrecklich am Mi, 11. Januar 2012 um 09:49 #

        Weil die Hersteller deiner Plugins sich nicht bei Zeit um Updates kümmern muss jetzt der Fortschritt im Firefox stehen bleiben?

        Deswegen muss Mozilla aus eigenen Mitteln eine LTS Version stemmen anstatt sich daran zu setzen und das Programm stetig zu verbessern sollen sie den alten gammeligen Code pflegen?

        Das haben sie übrigens die ganze Zeit gemacht und sind damit gescheitert. Die Nutzerzahlen sind und damit auch die Einnahmen eingebrochen. Während Chrome mit seinem Entwicklungs-Tempo immer mehr Nutzer gewinnt.

        Regelmäßige Kompatibilitätsbrüche sind notwendig um die Software fit zu halten. Gute Plugins wie Firebug, Adblock Plus und NoScript, Ghostery, Stealthy, ... werden immer bei Zeit aktualisiert.

        [
        | Versenden | Drucken ]
        • 0
          Von nico am Mi, 11. Januar 2012 um 10:01 #

          Ständige Updates sind leider nur möglich, wenn man sich laufend mit den ständigen Änderungen auseinander setzen kann. Das ist bei den meisten kostenfreien Erweiterungen leider nicht machbar. Da ist eben kein von Mozilla bezahlter Vollzeitentwickler dahinter. Dazu frisst diese ständige Anpassung auch Teit, die in die bei der Weiterentwicklung der Erweiterung fehlt.

          [
          | Versenden | Drucken ]
          • 0
            Von Jürgen am Mi, 11. Januar 2012 um 10:05 #

            Dann lässt man es einfach sein anstatt den Browser zu blockieren.

            Es ist nicht die Schuld von Mozilla und es macht keinen Sinn auf so etwas zu achten.

            [
            | Versenden | Drucken ]
            • 0
              Von nico am Mi, 11. Januar 2012 um 10:24 #

              Dann streichen wir mal eben alle Anwendungen, deren Entwickler noch einen richtigen Job und reales Leben haben. Dann bleiben nur ein paar kommerziell nicht verwertbare OSS-Restmüllprojekte aus den Labors der Industrie und den Unis. Viel Spaß mit den Fenstern aus Redmond.

              [
              | Versenden | Drucken ]
              • 0
                Von Jürgen am Mi, 11. Januar 2012 um 10:34 #

                Ich habe absolut kein Problem damit und nutze sowieso diese "kleinen" Projekte nicht.
                Software ohne Manpower wird auf kurz oder lang scheitern / nicht gepflegt oder aufgegeben.

                Dir steht es frei so etwas zu nutzen. Nur solltest du immer im Hinterkopf behalten dass du tatsächlich gerade einmal 1% der Nutzer darstellst und damit naja ... denk es dir selber.

                [
                | Versenden | Drucken ]
          0
          Von .,-.,-., am Do, 12. Januar 2012 um 17:18 #

          Einen Sechswochenbrowser kann kaum jemand im Unternehmensumfeld gebrauchen.
          So einfach ist das.

          Es ist aber prinzipiell nicht undenkbar, dass etwa Red Hat für seine RHEL-Palette notfalls einen Fork auflegen würde. Mit einem immer noch gepflegten Seamonkey 1.0.9 haben sie das schon einmal für RHEL 2, 3 und 4 alleine durchgezogen.


          "Regelmäßige Kompatibilitätsbrüche sind notwendig um die Software fit zu halten."

          R e g e l m ä ß i g e Kompatibilitätsbrüche wären das aüßere Anzeichen vollkommen hirnverbrannter und recht planloser Softwareentwicklung.

          [
          | Versenden | Drucken ]
          • 0
            Von Schrecklich am Do, 12. Januar 2012 um 17:36 #

            Einen Sechswochenbrowser kann kaum jemand im Unternehmensumfeld gebrauchen. So einfach ist das.

            Noch einfacher: FF ist für Unternehmensumfeld nicht optimal. Gründe warum man Epiphany oder IE verwenden sollte wurden schon genannt.

            R e g e l m ä ß i g e Kompatibilitätsbrüche wären das aüßere Anzeichen vollkommen hirnverbrannter und recht planloser Softwareentwicklung.

            So wie ich das sehe setzt du Regelmäßig und "kurze Zeitabstände" gleich. Regelmäßig könnte auch jede 2 Jahre heissen. Daher solltest du zuerst dein verbranntes Hirn einschalten bevor du im Anfall eines Kurzschlusses emotional wirst.

            Tatsächlich wird es in der Softwarentwicklung so gearbeitet weil immer neue Pattern / Standards / Tools auftauchen die es erlauben den Code weiter vereinfachen und zu abstrahieren. Früher hat man gerne mit GOTO programmiert. Heute wird kein Auftragnehmer so etwas akzeptieren. Früher wurde prozedural programmiert. Heute OOP. Früher musste man sich in C++ manuell um die Speicherfreigabe und Memory Leaks kümmern. Heute hat man Smart Pointer und das Schlüsselwort delete findet sich in keinem modern geschriebenem Code wieder. Früher brauchte man ab und zu RTTI. Heute nimmt man Templates. Alleine TMP die daraus entstehenden neuen Erkenntnisse möglichst viel zur Compile Time vorauszuberechnen sorgen für regelmäßigen Bedarf an API-Anpassungen.

            Das dürfte sogar ein Hirnverbrannter wie du verstehen.

            [
            | Versenden | Drucken ]
        0
        Von mnmnmmn am Mi, 11. Januar 2012 um 18:03 #

        Thunderbird bräuchte eigentlich nur noch eine ESR-Version.
        Welcher normal verfasste Mensch aktualisiert denn alle sechs Wochen sein Emailprogramm?

        Das kommt davon, wenn man traditionell eine Art passiver Gecko-Downstreamrezipient ist.
        Man muss dann den Nutzern beibringen, dass sie wegen neuester Browserfeatures alle sechs Wochen ihr Emailprogramm aktualisieren müssen.
        Was für ein Irrsinn.

        [
        | Versenden | Drucken ]
      0
      Von nico am Mi, 11. Januar 2012 um 09:55 #

      Zeig mir die Anwender, die wirklich die tollen neuen Features bewusst nutzen. Das meiste ist alter Wein in neuen Schläuchen. Wenn ein AddOn irgendwie nachgefragt ist wird ganz schnell dessen Funktion mehr oder weniger in den FF eingebaut.

      Für Entwickler sind ständig neue Features auch nicht so relevant.

      [
      | Versenden | Drucken ]
      • 0
        Von Jürgen am Mi, 11. Januar 2012 um 10:04 #

        Gerade die Entwickler nutzen die neuen Features. HTML5, WebGL und CSS Transformationen sind mittlerweile die beliebtesten Browsereigenschaften. Nötige eine Suchmaschine um dich zu informieren.

        [
        | Versenden | Drucken ]
        • 0
          Von nico am Mi, 11. Januar 2012 um 10:20 #

          In Live und in Farbe oder nur im kleinen Bastelprojekt. Und HTML5 ist nun nicht das, was ich unter neuen Features verstehe. Das ist eher eine Grundvorraussetzung für alle aktuellen und zukünftigen Browser.

          [
          | Versenden | Drucken ]
          • 0
            Von Jürgen am Mi, 11. Januar 2012 um 10:36 #

            > Und HTML5 ist nun nicht das, was ich unter neuen Features verstehe. Das ist eher eine Grundvorraussetzung für alle aktuellen und zukünftigen Browser.

            Träum weiter. Ich lasse das mal hier. Offensichtlich solltest du dich zuerst informieren. Meine Zeit ist mir das nicht wert.

            [
            | Versenden | Drucken ]
            • 0
              Von nico am Mi, 11. Januar 2012 um 10:53 #

              Es gibt Basistechnologien des Internets, dazu zählt einfach HTML5. Diese haben rein garnichts mit den Features und den Updates eines Browsers zu tun. Die müssen unterstützt werden. Weiterentwicklungen und Optimierungen hierbei gehören zu den Aufgaben der Entwickler des Browsers. Davon bekommt weder der Anwender noch die Entwickler direkt etwas mit. Es muss einfach funktionieren wie es der Standard verlangt.

              Und es gibt Dinge die nur den Browser selbst betreffen wie UI, Templates, Interne und Externe Schnittstellen. Änderungen hierbei betreffen den User und die externen Entwickler. Wenn hier aber aller paar Wochen massive Veränderungen gemacht werden, neue unreife Funktionen, ... . Hier reisst mit jeder Mozilla mit fast jeder Version immer wieder neue Baustellen auf.

              [
              | Versenden | Drucken ]
    0
    Von Anonymous am Mi, 11. Januar 2012 um 10:05 #

    ich habe schon seit Jahren kein neues Browser-Feature mehr gesehen, das mich interessiert.

    Wie .... Du bist nicht dran interessiert, dass Dein Browser immer größer und immer langsamer wird?

    Du Sonderling!

    Kannst Dich doch nicht einfach gegen die Weisheit der Massen stellen !!1!

    [
    | Versenden | Drucken ]
    • 1
      Von Schrecklich am Mi, 11. Januar 2012 um 10:08 #

      Zu dumm dass die Masse den Browser finanziert. Das vergessen die meisten gerne.
      Surfe doch einfach weiter mit vi und sei glücklich.

      Die meisten die hier nach "alt" und "Kompatibilität" schreien haben sowieso die lahmsten Krücken und bremsen wo aus nur geht den Fortschritt aus von daher ist deren Meinung sowieso nicht relevant.

      [
      | Versenden | Drucken ]
      0
      Von Jürgen am Mi, 11. Januar 2012 um 10:17 #

      8 GB RAM 40€
      2 TB HDD 100€
      Quad CPU 160€

      Wen interessiert da noch ob der Browser 100 oder 1000 MB Benötigt. Sogar mein Notebook hat 8 GB RAM.

      Das der Browser langsamer wird kann man mit jedem beliebigen Benchmark widerlegen von daher ist es nur ein persönlicher Trug.

      [
      | Versenden | Drucken ]
      • 0
        Von Blogleser am Mi, 11. Januar 2012 um 11:49 #

        >Das der Browser langsamer wird kann man mit jedem beliebigen Benchmark widerlegen von daher ist es nur ein persönlicher Trug.

        Das stimmt :-)
        Nur die Startzeit des Browsers wirft das schöne Benchmarkergebnis aus der Bahn ;-)
        Die könnte gerne noch was kürzer sein, denn davon bekommt der User definitiv
        was mit.

        Ich denke, viele meinen mit "lahm" wohl eher die Startzeit des Browsers :-)

        [
        | Versenden | Drucken ]
        • 0
          Von i.MX515 am Mi, 11. Januar 2012 um 12:52 #

          Ich denke, viele meinen mit "lahm" wohl eher die Startzeit des Browsers :)

          Du nutzt keinen Firefox xor Linux.
          Mein Firefox startet schneller wie der Opera, und der Chrome braucht nach einiger Zeit mit seinen riesigen Datenbanken auch immer länger.

          Nö, also an der Startzeit gibt es mE unter Linux nichts zu mosern, das ist ein MS-Fenster-Problem.

          Das einzige was beim Firefox echt nervig langsam ist das sind Hintergrundtabs die sowohl die GUI als auch den aktiven Tab lahm legen. Diese Wartezeiten gibt es weder beim Opera noch mit Chrome. Solange sich daran nichts ändert werde ich die ESR-Version nutzen.

          [
          | Versenden | Drucken ]
        0
        Von Anonymous am Mi, 11. Januar 2012 um 12:54 #

        Sogar mein Notebook hat 8 GB RAM.

        Aber keine serielle und parallele Schnittstelle mehr. Aber das ist ja auch fortschrittsfeindliches legacy, mit dem USB- Scheiss kann man ja viel schöner seine Zeit vergeuden, wenn er mal nicht funktioniert und sich durch mehrere Layer kämpfen darf, die über den alten Kram nur drübergepappt wurden.

        Na ja, Hauptsache, alles zappelt schon und man hat 1000 Frazenbuch- "Freunde". Das ist wirklich wichtig.

        [
        | Versenden | Drucken ]
        • 0
          Von --- am Mi, 11. Januar 2012 um 13:54 #

          "Aber keine serielle und parallele Schnittstelle mehr."

          Der Linuxkernel spricht diese Hardware aber noch an.
          Das Problem wird aber Software wie z.B. Cups sein.
          Cups lässt ab Version 1.6 die Unterstützung für serielle und parallele Schnittstellen weg.
          Distros wie openSUSE werden aber vermutlich diese Unterstützung selbst nachrüsten.

          Fällt z.B. durch einen Bug die parallele Druckerunterstützung aus, dann hagelt es auf den Mailinglisten sofort Proteste, u.a. von Schuladmins der "Ersten Welt".
          So von wegen "reich". :-)

          Ein Notebook mit 8GB RAM ist wohl eine Hardware, die man unter Linux mit normalen Internettätigkeiten und freier Software im Hinblick auf den RAM zur Zeit nicht im Entferntesten auslasten kann.

          [
          | Versenden | Drucken ]
          0
          Von blublub am Mi, 11. Januar 2012 um 18:52 #

          Sorry das habe ich vielleicht im letzten Jahrtausend gebraucht. Genau so wie mein Modem , CF Karte , CD/DVD-Brenner.

          Mit den APIs, die Geräter über USB anzusprechen, hatte ich auch keine Probleme.. kann dir daher nicht folgen.

          Irgendwann muss man diese Platzverschwender ja aufgeben.

          [
          | Versenden | Drucken ]
        0
        Von Sogar mein Notebook hat 8GB... am Mi, 11. Januar 2012 um 13:27 #

        Wieder einmal einer, der in seiner Überheblichkeit denkt, dass die "Industrieländer", mithin Deutschland, das Mass aller Dinge seien.

        Selbst in Deutschland dürften 8 GB die Ausnahme sein. Für viele Menschen sind schon € 100.- sehr viel Geld.

        Ich versichere Dir, dass mehr als 80% der Computernutzer auf den ganzen Welt nicht mehr als 128MB RAM haben, von moderner Hardware oder aktuellen Betriebssystemen mal ganz abgesehen.

        Dass der Browser langsamer wird, ist kein falscher Eindruck. Wenn bei gleichbleibender Hardware (s.a.o.) immer die neuesten Updates oder Versionen installiert werden, bleiben, vereinfacht ausgedrückt, entsprechend weniger Ressourcen für den Browser übrig, der dann auch noch gestartet werden muss... Typisches Beispiel Upgrade von Debian Squeeze auf Debian Wheezy... Unter Squeeze startet Frirefox (Iceweasel 3.5.16) in etwa doppelt so schnell wie unter Wheezy (Iceweasel 8.0).

        Grüsse


        August Meier

        [
        | Versenden | Drucken ]
        0
        Von rabuzarus am Mi, 11. Januar 2012 um 13:39 #

        Was du da aufzählst sind 300€. Und die soll man ausgeben allein um gut im Netz sürfen zu können? Aber hallo.
        Dabei ist bei den Komponenten ja noch lange nicht Schluss. Für den PC kommt zumindest noch ein ordentliches Mainboard hinzu in welches du dann den neuen Prozessor auch einbauen kannst. Vielleicht am Rande noch ein neues Netzteil. Wenn man dann Komponenten wählt, welche nicht gerade die Billigsten aus dem Discounter sind bist du locker bei 500€ (100€ für 2TB HDD sprechen nicht gerade für die Qualität).
        Schlimmer wirds noch beim Laptop/Netbook. Da kannst du dir gleich komplett ein neues kaufen.
        Schön, dass das für dich finanziell alles kein Problem darstellt, aber diese sichtweise ist mehr als egoistisch. Es gibt mehr als genug Leute die die für so etwas ein Jahr sparen müssen. Selbst in Deutschland, in anderen Ländern mag das noch mal ganz anders aussehen.
        Und in 2 Jahren? Da geht die ganze Routine wieder von vorne los.
        Ich kauf mir doch nicht aller 2 Jahre ein neues Notebook, bloß damit ich gescheit surfen kann.
        Ein weitere Aspekt ist, dass neue (und vorallem schnellere) Komponenten fast immer auch bedeutet, dass sie mehr Strom verbrauchen. Als letzen Herbst uns als WG die Nachzahlung ins Haus flatterte, kam zum ersten mal die Idee auf unsere Rechner wieder downzugraden.

        [
        | Versenden | Drucken ]
        • 0
          Von bbb am Mi, 11. Januar 2012 um 17:20 #

          "Ein weitere Aspekt ist, dass neue (und vorallem schnellere) Komponenten fast immer auch bedeutet, dass sie mehr Strom verbrauchen."

          Man bräuchte ein modernes Notebook, das deutlich schneller ist als ein alter Pentium M-Prozessor mit z.B. 1,4GHz und dabei ebenso nur 10 bis 15W pro Stunde verbrät.
          Ein Quadcore-Notebooksystem dürfte wohl immer noch bei wenigstens etwa 70 bis 80W liegen, ein Core i7-Quadcore-Notebookprozessor z.B. braucht schon alleine 45 Watt, das ist viel zuviel. Nur zum Vergleich: Ein alter Pentium M-Prozessor benötigt etwa 10 bis 15 W (je nach Modell geht das manchmal auch maximal bis 25W). Wo ist da bei einem Hardware-Upgrade eine entsprechende Verbesserung im Hinblick auf die Energiebilanz?
          Nirgends.

          Ich sehe da schon langsam wieder alte PIV- und AthlonXP-"Heizzeiten" aufziehen. Ich dachte, das hätten wir angesichts der massiv erhöhten und sich wohl weiter erhöhenden Strompreise hinter uns.

          [
          | Versenden | Drucken ]
          • 0
            Von Hans-Dieter am Mi, 11. Januar 2012 um 18:40 #

            Sorry das ich das jetzt so sagen muss aber du hast offensichtlich keine Ahnung von moderner Hardware.

            Die letzte Grafikkarten Generation, egal für Enthusiasten oder nicht, haben einen Idle Verbrauch von < 20W. Die aktuelle AMD Generation soll sogar < 10W im Idle verbrauchen. Hier eine Crossfire (Dual GPU) Verbrauchstabelle:

            Achtung: Der Verbrauchswert gilt für das ganze System.
            http://www.computerbase.de/artikel/grafikkarten/2012/test-powercolor-hd-7970-crossfire/9/#abschnitt_leistungsaufnahme

            Bei Bedarf kann ich mit meiner alle aktuellen Spiele mit 1920x1200 und in bester Qualität spielen. Wer nicht spielt (so wie ich) muss natürlich auch nicht viel Geld für eine Grafikkarte ausgeben, der Idle Verbrauch wird aber kaum tiefer sinken und die Energiebilanz wird nur minimal höher wenn man keine hochgezüchtete Hardware kauft. Wenn da nicht OpenCL dabei wäre hätte ich mir auch keine große gekauft. Wenn man OpenCL für MATLAB etc. nutzt dann ist eine Grafikkarte in ihrer Energiebilanz kaum durch etwas anderes zu toppen,

            (Performance zur maximaler Leistungsaufnahme)
            http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i7-3820/11/#abschnitt_leistung_pro_watt

            auch wenn der Verbrauch enorm scheint. Dafür brauche ich für eine Optimierung nur 2-3 Stunden anstatt einen ganzen Tag. Aktuelle Intel Prozessoren haben eine Energiebilanz die kaum positiver sein dürfte. Das Gesamte System liegt bei einem i7-2600K im Idle Modus bei unter !!! 80W !!!

            http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i7-3820/8/#abschnitt_leistungsaufnahme

            Wenn man in 3D Max mit dem von dir zitierten Pentium-M Prozessor etwas rendern möchte

            http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i7-3820/21/#abschnitt_autodesk_3ds_max_2011

            dann landest du ruck zuck bei der 10 fachen Zeit. Je nachdem was du hinzu schaltest kannst du noch einen Faktor davor schreiben.

            Dann wären da noch die SSD Festplatten die im Moment den Computer gegenüber einer IDE Festplatte gefühlt um das 10 fache beschleunigen. 20 Sekunden bis sich der Browser öffnet nach einem Kaltstart? Kein Problem. Bei Windows naturgemäß etwas länger:

            http://www.computerbase.de/artikel/laufwerke/2011/test-samsung-serie-830-256-gb/6/#abschnitt_bootzeiten

            Ein 3GB iso entpacken in 20s kein Problem:

            http://www.computerbase.de/artikel/laufwerke/2011/test-samsung-serie-830-256-gb/8/#abschnitt_entpacken

            Die Laufzeit des Akkus ist nach dem kauf meiner Intel SSD um eine Stunde gestiegen. Genau so sieht es auch bei anderer Hardware aus. Ob Notebooks / Bildschirmen usw.

            Deswegen:
            - Wenn man Leistung braucht bekommt man sie wesentlich effizienter als mit alter Hardware.
            - Wenn man sie nicht braucht dann kostet es nur unwesentlich mehr Strom.
            - Im Gegenzug gibt es (noch) Gewährleistung

            Man muss auf keinen Spaß verzichten und (was noch schlimmer ist) hier verbittert von irgendwelcher Schrott Hardware träumen wie gut sie doch angeblich ist.

            Ich verstehe nicht wie man sich hier in einem Hochtechnologieland so disqualifizieren kann indem man Hardware nutzt die sogar ein Afrikaner nicht nutzen sondern verbrennen würde um daraus Rohstoffe wie Kupfer zu gewinnen. Was für Innovationen soll man von solchen Mitarbeitern erwarten? Da muss man sich auch nicht wundern dass die Löhne der Durchschnittsverdiener immer sinken.

            Zu meiner Studienzeit (lange ist es her) war Linux eine Software für Technikfreaks die immer die neuesten Gimmicks und technische Spieleien kannten. Heute kann ich nur noch den Kopf schütteln. Alles Neue wird hier verteufelt. Irgendwelche Long Term Scheisse die eigentlich nur für Server gedacht ist wird auf Desktops angepreist. Ancheinend ist man irgenwann in dieser Zeit stehen geblieben.

            - Oh mein Gott ich muss rebooten.
            - Oh mein Gott eine Software hat eine Sicherheitslücke oder einen Bug
            - Oh mein Gott jemand hat sich in einem Sozialen Netzwerk angemeldet
            - Oh mein Gott jemand versucht seine Softwareentwicklung zu beschleunigen

            Echt traurig ... kein Wunder dass man schief angesehen wird wenn man das Wort Linux in der Öffentlichkeit in den Mund nimmt.

            [
            | Versenden | Drucken ]
            • 0
              Von August Meier am Mi, 11. Januar 2012 um 20:21 #

              ".. die sogar ein Afrikaner nicht nutzen sondern verbrennen würde um daraus Rohstoffe wie Kupfer zu gewinnen."

              Erstens gibt es "den" Afrikaner nicht und zweitens sind die meisten Menschen, welche in Afrika leben, so arm, dass sie kaum genug Geld haben, um sich Essen zu kaufen - an den Erwerb eines Computers schon gar nicht zu denken!

              Solche diskriminierenden Äusserungen sprechen für sich!

              Pfui!

              August Meier

              [
              | Versenden | Drucken ]
              0
              Von bbb am Mi, 11. Januar 2012 um 23:19 #

              Du hast kein einziges meiner Argumente wirklich widerlegt.
              Der Energieverbaruch des Grafikchips muss natürlich noch hinzuaddiert werden, genauso wie derjenige des Mainboards, das ist natürlich richtig.

              Ich bleibe dabei:
              Gegenüber einem noch immer recht sparsamen und performanten Pentium M-System sieht auch die Energiebilanz der meisten modernen Systeme nicht besser aus.
              Und noch einmal: 80W (Notebook oder Desktop ohne Monitor?) sind im Vergleich zu meinem obigen Pentium M-Beispiel zuviel.
              Selbst ein uraltes, 10 Jahre altes Tualatin-Desktopsystem (1,13GHz, 1GB RAM) mit 64MB-Radeon bringt es (ohne Monitor) im Idlemodus auf "nur" 65W.

              Wo ist da der Fortschritt in der Energiebilanz?
              Ein Upgrade lohnt sich gerade im Hinblick auf das Pentium M-Beispiel erst, wenn das alte System defekt ist.
              Und wenn man so wie ich praktisch ausschließlich nur Office, Webbrowser und Emailprogramm benutzt, dann reicht die alte Hardware allemal.

              Eine Energieersparnis ist natürlich gegenüber den noch immer einigermaßen verbreiteten Pentium IV- und AthlonXP-Desktopsystemen in vielen Fällen bei langer Benutzung immens.
              Das bezweifle ich nicht.
              Solange man aber nur drei oder vier Stunden am Tag oder noch seltener solche "Heizer" benutzt, solange dürfte sich aber selbst hier ein Upgrade aus Gründen der Energiebilanz kaum lohnen.

              Wer natürlich per se mehr Leistung für irgendeine Software braucht, der soll nur upgraden, darum geht es hier nicht.
              Mir geht es nur darum, ob ein Rechnerneukauf aus Energie- und Stromkostensicht empfehlenswert ist oder nicht, wenn man mit einem alten Pentium M-Notebooksystem vergleicht. Kommt man mit der Leistung eines Pentium M-Notebooks aus (unter Linux ist das keinerlei Problem), dann lohnt sich ein Upgrade aus Energiebilanz- wie Kostengründen kaum.

              Pentium M-Systeme sind zumeist auch nicht mit der neuen "Schrotthardware" vergleichbar, die heutzutage nur allzuoft vertickt wird.
              Auch das hält mitunter von einem Upgrade ab.

              RHEL 6, die bekannten RHEL-Klone und auch Ubuntu 12.04 werden sämtliche Pentium M-Systeme noch bis 2017 unterstützen.
              Solange muss man also theoretisch nicht upgraden, wenn die Hardware diesen langen Nutzungszeitraum vielleicht sogar noch "überleben" sollte.

              Es gibt nun einmal Linuxanwender (und auch Nochanwender von Windows XP), die nur einmal alle zehn bis zwölf Jahre neue Rechnerhardware kaufen müssen.
              Eine erschreckende Erkenntnis für die Hardwarehersteller.
              Der langsame Windows7-Anstieg bei den üblichen Browsermarktanteilsmessungen spricht gerade in diesem Bereich Bände.

              [
              | Versenden | Drucken ]
              • 0
                Von August Meier am Do, 12. Januar 2012 um 07:31 #

                ... ich stimme Dir absolut zu...

                Die Energiebilanz kann nur dann und wirklich nur dann als Argument für den Ersatz eines funktionierenden Systems herhalten, wenn sämtliche Aspekte berücksichtigt wurden, was in der bisherigen Diskussion mitnichten der Fall war:

                Ihr ignoriert völlig, dass für die Herstellung eines neuen Systems eine nicht unerhebliche Energiemenge erforderlich ist, genauso wie für den Transport verschiedenen Komponenten von den jeweiligen Produzenten zum Händler und dann zu Dir.
                Nicht zu vergessen die Gewinnung und der Transport der für die Produktion erforderlichen Rohstoffe sowie der Energieaufwand für die Entsorgung und die Wiederverwertung sämtlicher Komponenten.

                Erst, wenn die Energiebilanz über die die durchschnittliche Benutzungsdauer eines Systems hinweg betrachtet, so gut ist, dass sie auch die externen Anteile kompensiert, kann von einer besseren Energiebilanz gesprochen werden, ansonsten betrachte ich das schlicht als faule Ausrede, um sich stets die neueste Hardware zu kaufen.

                Grüsse


                August Meier

                [
                | Versenden | Drucken ]
                • 0
                  Von Jürgen am Do, 12. Januar 2012 um 15:20 #

                  Komm August, deine Pseudo Sozialschiene ist wirklich fremd am Platz. Geradezu lächerlich.

                  Was viele von euch Heinis nicht verstehen dass die Erfahrung gute Systeme zu bauen hauptsächlich durch Masse steigt.
                  http://www.wirtschaftslexikon24.net/d/gesetz-der-massenproduktion/gesetz-der-massenproduktion.htm

                  Dadurch braucht man mit der Zeit immer weniger Rohstoffe: Vom ersten Computer der eine Halle bräuchte bis zum heutigen Notebook
                  Es werden immer weniger gefährliche Stoffe eingesetzt: RoHS, Blei
                  Die Leute können langfristig beschäftigt werden: Vielleicht auch ihr

                  Auch dein Pseudoargument von höherer Energiemenge ist auch falsch. Trotz hochgradig exponentieller Technisierung steigt die verbrauchte Energiemenge pro Kopf nicht exponentiell.
                  http://www.google.de/publicdata/explore?ds=d5bncppjof8f9_&met_y=eg_use_pcap_kg_oe&idim=country:DEU&dl=de&hl=de&q=energieverbrauch+pro+kopf#ctype=l&strail=false&bcs=d&nselm=h&met_y=eg_use_pcap_kg_oe&scale_y=lin&ind_y=false&rdim=country&idim=country:DEU&ifdim=country&tdim=true&hl=de&dl=de

                  Wie wäre es also wenn du zuerst nachdenkst oder mal recherchierst bevor du hier auf die Tränendrüse drückst.

                  Das dümmste, aber wirklich das dümmste was man machen kann, ist die Produktion zu drosseln. Tut mir leid dass ich es so hart sagen muss aber es wäre wirklich bescheuert und die Effekte würden selbst solchen Forum-Nonnen wie dir nicht gefallen.

                  Durch die geringe Menge werden die Kosten sehr stark ansteigen: Wer kann sich an die Computer-Preise vor 10-20 Jahren erinnern?
                  Dadurch das man weniger produziert hat man weniger Zeit Erfahrung für neue Technologien zu erforschen: Wer kann sich an alte Hardware erinnern? Meinen ersten RAM konnte durfte ich nicht mit bloßer Hand anfassen ohne mich vorher zu erden.
                  Es werden absolut gesehen immer kleinere Technologiesprünge gemacht während der Bedarf steigt.

                  Kosten für einen Tomograph konnten vor 10-20 Jahren ein Krankenhaus in den Ruin treiben. Heute kann die Recheneinheit des gleichen Tomographen zu 5% der Kosten hergestellt werden bei vierfacher Auflösung und gleichbleibender Auswertezeit. Man kann sich die Auswerteinheit praktisch Zuhause selber basteln. Für die Rekonstruktion eines Objektes (das damals noch nicht einmal möglich war) von 2048x2048x2048px in 14 bit hätte man mit damaligen Verfahren 100 Jahre gebraucht.

                  Und das ist der springende Punkt den ihr beide da oben nicht verstanden habt. Es geht nicht um die kurzfristige Energiemenge sondern um die Summe die verbraten wird. Und dabei stehen die alten Systeme ganz schön schlecht da.

                  Beispiel:

                  Eine ~O(n³) Aufgabe ( z. B. eine LU Zerlegung oder eine Inversion ) braucht im ersten Schritt

                  60min auf einem Computer A der bei Last 200W/h verbraucht = 200W
                  180min auf einem Computer B der bei Last 100W/h verbraucht = 300W

                  Jetzt lassen wir die zu berechenbare Menge verdoppeln. Dadurch verneunfacht sich die Zeit.

                  540min Computer A = 1800W
                  1620min Computer B == 2700W

                  Dabei ist weder das Beispiel aus der Nase gezogen. Computer B war mein Notebook der laut Spannungsmesser
                  http://www.conrad.de/ce/de/product/125331/ENERGIEKOSTENMESSGENERGY-MONITOR-3000
                  bei einer Berechnung mit CPU + GPU etwa 90W gebraucht hat.
                  Computer A mein i5-760 System nur mit CPU mit etwa 210W.

                  Auch ist die Aufgabenkomplexität nicht aus der Luft gegriffen. Eine typische Bildverarbeitung. (Bilderskalierung im Browser) ist O(n²) kommen je Bild noch Layer hinzu dann hat man O(n³). Es gibt auch viel unglücklichere (übliche) Aufgaben.

                  Dabei ist mein Notebook mit einem 2x2.8GHZ + Quadro 570M gar nicht mal so schlecht aufgestellt. Dagegen würde das oben zitierte Dingsbums locker die 10-20 fache Zeit brauchen.

                  So bratet und bratet und bratet ihr Heinis tag für Tag Sekunde für Sekunde ( behaupte ja nicht das ihr komplexe Berechnungen ausführt. ) bei eurem Browsen / Entpacken / Programme Laden / Programme schließen immer die 10 - 20 fache Zeit die ein heute aktueller Computer braucht

                  und es in Augusts Worten zu sagen: Und brennt den armen dritte Welt Kindern die Rohstoffe weg.

                  Was noch schlimmer ist dass du Heini dann ankommst, der überhaupt keine Ahnung hat wie die Dinge zusammenhängen, und willst uns mit deinem Halbwissen zurück in die Steinzeit befördern.

                  Welche Qualifikation befähigt dich dazu solchen sinnlosen Stuss von dir zu geben? Warum versuchst du Post für Post mit deiner Mutter Theresa Nummer den Leuten irgendwelchen Nonsens vorzugaukeln? Wenn ihr euch das nicht leisten könnt dann ist es doch ok. Dann sagt es auch so. Es ist ja nichts schlimmes daran dass man sein Geld irgenwo anders investieren will/muss.

                  Aber auf Teufel komm raus irgendwelchen Nonsens zu erfinden?

                  [
                  | Versenden | Drucken ]
                  • 0
                    Von Oh je... am Fr, 13. Januar 2012 um 07:59 #

                    Abgesehen von den unsachlichen und lächerlichen Versuchen, mich und meinen Meinungs-Kollegen zu beleidigen, bleibt bei nüchterner Betrachtung von Deinen Argumenten materiell nicht viel über.

                    Deine Argumentation stimmt genau so lange, als Du glaubst, immer mehr zu produzieren sei eine Notwendigkeit.
                    Das stimmt wohl - aber nur für die Wirtschaft. Für das Überleben der Menschheit trifft dies mit Sicherheit nicht zu.

                    Das Problem bei der ganzen Geschichte ist, das sich Menschen wie Du krampfhaft an den traditionellen Paradigmen der Ökonomie festhalten und sich hüten, diese in Frage zu stellen. Genauso vermeiden sie es, die Frage nach dem tatsächlichen Bedarf zu stellen, wobei ein solcher natürlich nicht gleichzustellen ist mit dem "nice to have".

                    Manchmal muss man alle sogenannten "gefestigten Erkenntnisse" in Frage stellen und neu beginnen, um wirklich weiterzukommen. Dass der bisher eingeschlagene Weg in eine zumindest ungewisse, wenn nicht katastrophale Zukunft führt, ist mittlerweile hinlänglich bekannt und auch anerkannt.

                    Leider kenne ich den ursprünglichen Autor des folgenden Zitates nicht; aber es bringt genau das zum Ausdruck, was uns das Überleben auch in Zukunft ermöglichen wird:
                    "Es ginge uns allen besser, wenn weniger Maschinen langsamer laufen würden".

                    Grüsse


                    August Meier

                    [
                    | Versenden | Drucken ]
                    • 0
                      Von blublub am Fr, 13. Januar 2012 um 13:54 #

                      Ich bin dann mal der dritte der es sagt: "Wach auf aus deiner Scheinwelt"

                      Mein erster Computer von Vobis hat 6000 Mark gekostet. Er hatte OS/2 und CD-ROM. Übersetzt in Euro wären es gefühlt 12000€.
                      Seit der Computer für die Massen angeboten wurde wurde er billiger.

                      "Dass der bisher eingeschlagene Weg in eine zumindest ungewisse, wenn nicht katastrophale Zukunft führt, ist mittlerweile hinlänglich bekannt und auch anerkannt."

                      Vielleicht in deiner Welt. Einer Welt voller Angst dass man von Maschinen ersetzt wird. Ich habe Mitleid mit dir.

                      [
                      | Versenden | Drucken ]
                      • 0
                        Von August Meier am Fr, 13. Januar 2012 um 14:51 #

                        Ich verstehe ja, dass Deutsch eine schwierige Sprache ist, aber wenn Du Dir meinen Beitrag nochmals zu Gemüte führst, wirst Du feststellen, dass ich nie behauptet habe, Angst davor zu haben, durch eine Maschine ersetzt zu werden, sondern lediglich zu objektiver Betrachtungsweise aufgerufen habe.

                        Um es auch für die etwas Unbedarften verständlich auszudrücken:

                        Fortschritt ist nicht einfach gut, sondern soll hinterfragt werden. Es ist, wie überall im Leben, immer eine Frage des Masses, ob etwas gut oder schlecht ist.

                        Gift in homöopathischen Dosen kann durchaus heilsam sein, in höheren Dosen aber tödlich.

                        Ich schliesse hier die Diskussion über Fortschrittsgläubigkeit, Ethik, Ignoranz und Deutschkenntnisse und widme mich wieder Wesentlichem.

                        Grüsse


                        August Meier

                        [
                        | Versenden | Drucken ]
                        0
                        Von bliblablubb am Di, 17. Januar 2012 um 15:45 #

                        "Übersetzt in Euro wären es gefühlt 12000€."

                        In jenen Zeiten war das aber nicht so wichtig.
                        Man hat damals gefühlt viel mehr verdient als heute.
                        Ein Durchschnittsverdiener hatte damals nach spätestens einem halben Jahr das Geld für einen gut ausgestatteten Rechner oder ein akzeptables Notebook zusammen, die beide so um die 4500 Mark kosteten.

                        [
                        | Versenden | Drucken ]
                0
                Von Jürgen am Do, 12. Januar 2012 um 14:18 #

                > Du hast kein einziges meiner Argumente wirklich widerlegt.

                Es sind auch nicht wirklich Argumente sondern deine Meinung

                > Selbst ein uraltes, 10 Jahre altes Tualatin-Desktopsystem (1,13GHz, 1GB RAM) mit 64MB-Radeon bringt es (ohne Monitor) im Idlemodus auf "nur" 65W.

                Was du offensichtlich gerne überliest ist dass du mit diesem ( ich will es nicht als Computer bezeichnen ) Dingsbums dich so gut wie nie im Idle befindest weil seine Leistung gerade mal stark genug ist. Für richtige Aufgaben muss er anstatt nur 1 Sekunde vielleicht 10 Sekunden oder sogar 20 Sekunden rechnen.

                Dadurch verbrauchst du insgesamt viel mehr. Das ist Tatsache und dazu gibt es schon unzählige Berichte. Da kannst du dir deinen Dingsbums noch so gut reden.

                [
                | Versenden | Drucken ]
              0
              Von Jürgen am Do, 12. Januar 2012 um 14:10 #

              +

              [
              | Versenden | Drucken ]
        0
        Von --- am Mi, 11. Januar 2012 um 13:40 #

        "Wen interessiert da noch ob der Browser 100 oder 1000 MB Benötigt."

        Ein recht sinnfreies Argument.
        Man schafft sich also neue Hardware für ein bisschen Firefox-Internetsurfen an?
        Und was, wenn sich Gimp, OpenOffice, Cups und Xsane genauso benehmen würden? Oder KDE4?
        Wenn schon Firefox 1GB RAM und mehr benötigt, dann kann sich KDE4 ruhig 4 oder 8 nehmen. Oder? Der FlashPlayer nimmt sich auch 2GB RAM und der Acrobat Reader am Besten auch.
        Dann würden schon jetzt 16GB RAM für ganz normale "Alltagsdinge" nicht mehr ausreichen.
        Der Linuxkernel hat natürlich einen "massiven Schaden", dass er mit 256 MB RAM locker auskommt, nicht wahr? Frechheit!!! Für was hat man sich 8GB RAM zugelegt? :-)

        Firefox ist im übrigen schnell genug, aber nur zu anfangs (da ist selbst Firefox 9 auf Systemen mit 1GHz und 1GB RAM schneller als Firefox 3.6). Nach einiger Zeit ist das System aber so "zugemüllt", dass Firefox immer träger reagiert. Er fängt tatsächlich an zu swappen, für "nichts").
        Das sind eindeutig Programmfehler, die zu fixen sind.
        Das erinnert stark an uralte, defekte Wordversionen, die ihren gefressenen RAM-Speicher nicht mehr freigegeben haben.
        Auf Systemen mit einigen virtuellen Maschinen kann man Firefox schlichtweg vergessen. Vermutlich hat er zu viele Memory Leaks.
        Chromium ist da sehr viel effektiver.
        Firefox ist schlichtweg "schlecht" geworden.
        Das kommt davon, wenn man Betas als Finals veröffentlicht.

        [
        | Versenden | Drucken ]
        • 0
          Von blublub am Mi, 11. Januar 2012 um 18:59 #

          > Für was hat man sich 8GB RAM zugelegt

          - Kein Swappen auf der Festplatte
          - Keine Gedanken mehr ob man mehr Speicher braucht
          - TMP pfad als RAMDISK -> Enpacken wird dopppelt so schnell

          Ich habe ein fast 5 Jahre altes Thinkpad mit 8GB RAM und bin glücklich. Man sollte es nur nicht direkt vom Hersteller bestellen sondern selbst einbauen und die Kosten werden sich in Grenzen halten.

          [
          | Versenden | Drucken ]
    0
    Von bbb am Mi, 11. Januar 2012 um 16:34 #

    Der Firefoxanteil ist immer noch recht hoch, so bei etwa 25%.
    Chrome kann also unmöglich alles seine Marktanteile (auch etwa 25%) nur von Firefox abgesogen haben, Chrome hat auch massiv den Internet Explorer zur Ader gelassen.

    Firefox 3.6 ist im übrigen eine gute LTS-Version. Firefox 3.6 erschien im Januar 2010 und wird bis April 2011 unterstützt werden, das sind 16 Monate Support. Nur wenige Firmen oder Organisationen würden sich weigern, das als sehr guten Erfolg zu verkaufen. Mozilla ist leider eine davon.

    [
    | Versenden | Drucken ]
    0
    Von devent am Do, 12. Januar 2012 um 16:41 #

    > Ich werde die Unternehmensversion auch als Privater verwenden, ich habe schon seit Jahren kein neues Browser-Feature mehr gesehen, das mich interessiert.

    Lustig das du das erwähnst. Ich nämlich auch nicht.
    Firefox ist eigentlich erst durch die Addons für mich benutzbar.

    * flashblock
    * ads block
    * no script
    * tree style tabs

    Webseiten sehen Heute genauso aus, wie vor 5 Jahren. Das einzige, was ich wirklich sehe als neues "Feature" ist diese Awesomebar.

    [
    | Versenden | Drucken ]
    • 0
      Von witzig am Do, 12. Januar 2012 um 17:12 #

      > Webseiten sehen Heute genauso aus, wie vor 5 Jahren.

      Natürlich, weil du JS abgeschaltet hast.

      JS nicht auf jeder Seite, nur die die ich kenne. Pauschal ohne JavaScript wird dir heute kein Webmaster eine gute Webseite gestalten können. Das No-JS Resultat wird wirklich wie vor 5 Jahren aussehen. Dazu sind die zur Verfügung stehenden Mittel einfach zu gering. Außerdem wirst du das meiste sowieso nicht erkennen solange du nicht in den Code schaust. CSS Transformationen, Schatten, Runde Ecken, Effekte, SVG, Canvas machen sich nur für den Webmaster bemerkbar der es wesentlich einfacher hat. Da sie dann im Browser implentiert sind laufen sie auch wesentlich schneller als eigener JS Code.

      Flashblock auf allen Seiten nur nicht Youtube. HTML5 Videos sind einfach noch zu lahm. Da geht meine Kiste irgendwie in die Knie wenn ich 720p oder 1080p schauen möchte.

      Adblock Plus ist grundsätzlich immer an.

      Zu den oben genannten Addons kann ich noch ghostery empfehlen.

      [
      | Versenden | Drucken ]
      • 0
        Von devent am Do, 12. Januar 2012 um 19:22 #

        Tut mir Leid dich enttäuschen zu müssen, aber bei mir erlaubt NoScript alle Scripte von der Domain der Seite (also z.B. *.xxxx.com).

        Das ist auch nötig, denn manchmal komme ich auf Seiten, da werden 20 verschiedene Server angewählt, nur um irgendwelche dämliche Scripts zu laden.

        Ich bin der festen Überzeugung, dass das Web mit JavaScript in die völlige falsche Richtung entwickelt wird. HTML und das Web ist dafür erschaffen, um Informationen zu präsentieren und zu verlinken. Nicht, um Anwendungen zu erstellen.

        Das fängt ja schon damit an, wenn man sich so ein Rich-Text-Textpanel ansieht. Ich habe bis jetzt kein so ein Textpanel angetroffen, das nicht fast unbrauchbar ist um Texte einzugeben. Ich bin ja so froh, dass auf Pro-Linux es nur ein Standard-Textpanel gibt, mit dem man vernünftig Text eingeben kann.

        Hätte sich das Web in die richtige Richtung entwickelt, dann hätten wir schon längst ein <textpanel richtext=true smilies=true spellcheck=true> Feld. Dann würde jeder Browser ein Natives-Textpanel anzeigen, für jede Seite gleich und nicht diesen Scheiß (Entschuldigung), der z.B. auf D-Zone ist.

        Aber weil wir eben JS haben und jeder Browser dafür entwickelt wird Doom3 in JS laufen zu lassen :down: , versucht jeder ein Textpanel zusammen zu hacken, und jede Seite kommt mit seiner eigenen Implementierung an, die seine eigenen Macken hat.

        Im Web will ich 3 Sachen: 1. Text lesen. 2. Video anzuschauen, 3. Bilder anzuschauen. Bitte konzentriert euch doch auf das und nicht diesen JS Blödsinn.

        Gut, dass wir wenigstens ein <video> :up: Tag bekommen. Sonst darf ich mir 50kb JS laden um ein Video mit 50% CPU Auslastung anzuschauen :down: .

        Dieser Beitrag wurde 1 mal editiert. Zuletzt am 12. Jan 2012 um 19:24.
        [
        | Versenden | Drucken ]
        • 0
          Von witzig am Do, 12. Januar 2012 um 21:09 #

          > Tut mir Leid dich enttäuschen zu müssen, aber bei mir erlaubt NoScript alle Scripte von der Domain der Seite (also z.B. *.xxxx.com).

          Ich binde immer die großen Bibliotheken jQuery, OpenStreetmaps, usw.. direkt von ihrer eigenen Webseite ein. Mit deinem Vorgehen sorgst du dafür dass diese Bibliotheken redundant doppelt und dreifach auf den Webservern rumgammeln. Es gibt kaum Leute die einen ESB einrichten oder bezahlen können. Für eine kleine Webseite wäre es sogar kontraproduktiv.

          > Ich bin der festen Überzeugung, dass das Web mit JavaScript in die völlige falsche Richtung entwickelt wird. HTML und das Web ist dafür erschaffen, um Informationen zu präsentieren und zu verlinken. Nicht, um Anwendungen zu erstellen.

          Damit stehst du alleine da. Nahezu jede Webseite ist heute eher eine Applikation anstatt ein Markup Text. Beginnend mit PHP und dynamischen Datenbankabfragen wie die ganzen Blogs endend mit auf Application-Server basierenden Webangeboten wie Google Maps, Youtube, (x)Mail, usw. Die klassischen Webseiten will heute keiner sehen. Es beginnt schon damit das du noch nicht einmal deinen Text vernünftig formatieren kannst. Formeln kannst du vernünftig auch heute noch nur mit einem Tex publizieren. Reines HTML ist für das Web unbrauchbar.

          > Das fängt ja schon damit an, wenn man sich so ein Rich-Text-Textpanel ansieht. Ich habe bis jetzt kein so ein Textpanel angetroffen, das nicht fast unbrauchbar ist um Texte einzugeben. Ich bin ja so froh, dass auf Pro-Linux es nur ein Standard-Textpanel gibt, mit dem man vernünftig Text eingeben kann. Hätte sich das Web in die richtige Richtung entwickelt, dann hätten wir schon längst ein Feld. Dann würde jeder Browser ein Natives-Textpanel anzeigen, für jede Seite gleich und nicht diesen Scheiß (Entschuldigung), der z.B. auf D-Zone ist.

          Das ist jetzt aber ein Vergehen des Webmasters.

          > Aber weil wir eben JS haben und jeder Browser dafür entwickelt wird Doom3 in JS laufen zu lassen :down: , versucht jeder ein Textpanel zusammen zu hacken, und jede Seite kommt mit seiner eigenen Implementierung an, die seine eigenen Macken hat.

          Wenn Jemand bezahlt um im Browser Doom3 zu spielen dann soll er das bekommen. Das ist dann eine Plattformunabhängige Applikation.

          > Im Web will ich 3 Sachen: 1. Text lesen. 2. Video anzuschauen, 3. Bilder anzuschauen. Bitte konzentriert euch doch auf das und nicht diesen JS Blödsinn.

          Wenn du das Web nur für drei Sachen nutzt also praktisch 0.000000000000000001% aller Möglichkeiten dann kannst du doch nicht verlangen dass alles andere aufgegeben wird.

          Reine Texte will heute wie gesagt keiner mehr haben. Ob es dir gefällt oder nicht.
          Videos kannst du auch ohne JS anschauen. Allerdings sehr langsam ( noch ).
          Niemand will heute Bilder ansehen die in einem Neuen Tab auffliegen und dann ein einzelnes Fenster nur mit dem Bild beanspruchen. Das man auch noch selber schließen muss um dann auf ein neues Bild zu klicken. 99% Wollen eine Bildvorschau und eine Bildergalerie die man im Bild weiter schalten kann und beim Schließen immer noch auf dergleichen Seite ist. Das geht ohne JS definitiv nicht.

          >Gut, dass wir wenigstens ein video :up: Tag bekommen. Sonst darf ich mir 50kb JS laden um ein Video mit 50% CPU Auslastung anzuschauen :down: .

          JS und Tag sind Disjunkt. Das eine hat nichts mit dem anderen zu tun.

          [
          | Versenden | Drucken ]
          • 0
            Von devent am Fr, 13. Januar 2012 um 10:35 #

            > Damit stehst du alleine da. Nahezu jede Webseite ist heute eher eine Applikation anstatt ein Markup Text. Beginnend mit PHP und dynamischen Datenbankabfragen wie die ganzen Blogs endend mit auf Application-Server basierenden Webangeboten wie Google Maps, Youtube, (x)Mail, usw.

            Das hat aber nichts mit mir als den Seiten-Besucher zu tun. Ich sehe nur das Html präsentiert.

            > Es beginnt schon damit das du noch nicht einmal deinen Text vernünftig formatieren kannst. Formeln kannst du vernünftig auch heute noch nur mit einem Tex publizieren. Reines HTML ist für das Web unbrauchbar.
            > Niemand will heute Bilder ansehen die in einem Neuen Tab auffliegen und dann ein einzelnes Fenster nur mit dem Bild beanspruchen. Das man auch noch selber schließen muss um dann auf ein neues Bild zu klicken. 99% Wollen eine Bildvorschau und eine Bildergalerie die man im Bild weiter schalten kann und beim Schließen immer noch auf dergleichen Seite ist. Das geht ohne JS definitiv nicht.

            Das meine ich ja, dass sich das Web in die falsche Richtung entwickelt. Doch, dass alles würde ohne JS funktionieren, wäre das W3C von ihrem Schlaf früher aufgewacht und hätte Html weiter entwickelt. Bilder weiter schalten z.B. würde durch das link-tag gehen (siehe http://de.selfhtml.org/html/kopfdaten/beziehungen.htm).

            > Reine Texte will heute wie gesagt keiner mehr haben.

            Klar. Deswegen bestehen auch so ca. 99,99% der Webseiten aus Text und Bildern.

            Man kann auch an Google sehen, wohin dieser JS-Hype führt. Früher war Google einfach bedienbar und stand nicht im Weg. Dann haben sie erst den genialen Einfall gehabt, schon während ich Tippe irgendwas suchen zu müssen. Das ergibt überhaupt keinen Sinn und verlangsamt mir ihre Seite erheblich.

            (Wieso macht es keinen Sinn: Z.B. ich suche nach "Windows viren linux vergleich". Nun muss Google erst nach Windows suchen, was mich überhaupt nicht interessiert, dann nach "Windows viren" und zeigt mir duzen weise Anti-Viren-Lösungen für Windows an, dann nach "Window viren linux", nun sucht es nach Anti-Viren-Lösungen für Linux, und dann schließlich, nach dem es 3 mal nutzlos meine CPU und Bandbreite ausgenutzt hat, such es endlich das Richtige.)

            Dann geht der Blödsinn noch weiter und sie haben eine Art "Vorschau" eingebaut. Diese Vorschau geht einfach auf ohne gefragt zu sein, nur weil ich zufällig meine Maus dort geparkt habe.

            > JS und Tag sind Disjunkt. Das eine hat nichts mit dem anderen zu tun.

            Nein, aber wenn wir von dem W3C endlich vernünftige Tags bekommen (wie das video Tag), dann müssen es alle Browser native unterstützen und wir können auf CPU-Lastige und zusammen gehackte JS verzichten.

            > Mit deinem Vorgehen sorgst du dafür dass diese Bibliotheken redundant doppelt und dreifach auf den Webservern rumgammeln. Es gibt kaum Leute die einen ESB einrichten oder bezahlen können. Für eine kleine Webseite wäre es sogar kontraproduktiv.

            Besser, als wenn Google, Facebook etc. meine Bewegungen im Web aufzeichnen können. Da hatte ja Facebook schon eine menge Ärger wegen dem Like-Button. Jedesmal, wenn eine Seite eine JS-Bibliothek von einem drittem Server herunter laden muss, weiß der dritte Server welche Seite ich aufgerufen habe.

            [
            | Versenden | Drucken ]
0
Von i.MX515 am Mi, 11. Januar 2012 um 09:37 #

Die ESR-Version von Firefox ... wird von Mozilla auch nicht aktiv »beworben«. Nach den ersten beiden ESR-Versionen will Mozilla den Erfolg bewerten und dann entscheiden, ob es auch von Firefox 24 eine ESR-Version geben soll.

Da wird etwas nicht "aktiv beworben" und man will anhand des "Erfolgs" entscheiden ob es weitere ESR geben wird...?

[
| Versenden | Drucken ]
  • 0
    Von catdog2 am Mi, 11. Januar 2012 um 12:12 #

    Ich Prophezeie mal, dass es so laufen wird:
    "Wie ihr findet nicht gut, dass wir das Eingestellt haben? Hat doch eh keiner Benutzt! Was da wusste keiner was davon, kann ja gar nicht sein."

    [
    | Versenden | Drucken ]
    0
    Von DingDong am Mi, 11. Januar 2012 um 12:27 #

    Man muss schon mächtig naiv sein um bei diesem Vorhaben einen "Erfolg" zu erwarten. Es wird genau so angenommen wie alle andere LTS Software.

    Die nicht Fremd-Administrierten Nutzer werden auch weiterhin automatisch aktualisieren.
    Auf Servern macht es überhaupt keinen Sinn einen Browser zu installieren weil die Default Browser schon längst alles notwendige können und damit bleibt es Epiphany, IE, Safari.
    Unter administrierten Windows Umgebungen wird weiterhin der IE eingesetzt weil der FF keine AD und keine policies kann.

    Damit bleiben nur noch etwa 1%, alte gammelige Hardware von Paranoiden Technikverweigerern die sich beschweren das dass Installationsfile mit seinen 15 MB bald die Sandbox Festplatte füllt und um zu starten um ein vielfaches mehr des verfügbaren Arbeitsspeichers frisst so dass zusätzliche IDE Festplatten und Disketten eingebaut werden müssen um mit dem Swappen hinterherzukommen.

    [
    | Versenden | Drucken ]
    • 0
      Von paranoiden Technikverweigerern am Mi, 11. Januar 2012 um 13:34 #

      Noch einer, der nicht mitbekommen hat, dass die Mehrheit der Computerbesitzer/-innen der Welt NICHT in Deutschland lebt und die "alte, gammelige Hardware" schlicht mangels Geld nicht ersetzen kann.

      und:
      "... und Disketten eingebaut..." keine Ahnung, wie das funktionieren soll - wo sind denn da die Schraubenlöcher? Du meinst wohl, das Laufwerk - aber wer auf Floppies swappt, hat eh einen Schuss weg.
      Falls Du "CD-Laufwerke" gemeint haben solltest - die sind auch nicht viel schneller, da CD-RW verwendet werden müssten, falls das überhaupt möglich sein sollte.

      Was genau wolltest Du mit "Disketten" sagen? Ich verstehe das nicht...

      Grüsse


      August Meier

      [
      | Versenden | Drucken ]
      • 0
        Von blublub am Mi, 11. Januar 2012 um 19:42 #

        > Noch einer, der nicht mitbekommen hat, dass die Mehrheit der Computerbesitzer/-innen der Welt NICHT in Deutschland lebt und die "alte, gammelige Hardware" schlicht mangels Geld nicht ersetzen kann.

        Das dümmste was man deswegen machen kann ist jetzt den Fortschritt wegen solchen Leuten zu bremsen. Irgendwann werden wir dann auf demselben Niveau stehen.

        [
        | Versenden | Drucken ]
        • 0
          Von August Meier am Do, 12. Januar 2012 um 07:42 #

          Ich kann Dir nicht folgen. Seit wann bedeutet "Fortschritt bremsen" "technologischer Rückschritt"?
          Wenn Du langsamer fährst, bewegst Du Dich deswegen automatisch rückwärts?

          Man könnte im Übrigen Deine Aussage auch so interpretieren, dass Du all die Bemühungen Derjenigen verhöhnst, welche den Menschen in sog. Drittwelt-Ländern den Anschluss an die technologische Entwicklung ermöglichen möchten, letztlich also ein aktiver Förderer des immer grösseren Nord-Süd-Gefälles in Bezug auf die Entwicklung und den Wohlstand bist.

          Grüsse


          August Meier

          [
          | Versenden | Drucken ]
      0
      Von bbb am Mi, 11. Januar 2012 um 18:28 #

      "Damit bleiben nur noch etwa 1%, alte gammelige Hardware von Paranoiden Technikverweigerern die sich beschweren (...)."

      Das sind gerade keine Technikverweigerer, sondern oftmals Leute, die sich mit Hardware und Betriebssystemen ganz gut auskennen, also auch z.B. wissen, wie sie gezielt aufrüsten müssen, um tatsächlich mehr Leistung zu erhalten.
      Selbst wenn Geld vorhanden ist, kaufen diese Leute nur dann etwas Neues, wenn sie sich dabei nicht verschlechtern.
      Bei solchen Leuten findest Du keinen alten PIV mit 256MB RAM, einer 20GB-Festplatte und USB 1.1, sondern einen PIV mit 1 oder 2GB RAM, zusätzlichen PCI-Karten für USB 2.0-Schnittstellen und einen Extra-IDE-/SATA-Controller für wirklich große Festplatten.

      Ein gängiges Phänomen ist zur Zeit, auch bei Normalnutzern (die z.B. noch WinXP einsetzen), dass sie ihren älteren Desktop-PC zunächst behalten, weil er noch schnell genug ist und sich lieber etws "Mobiles" neu dazukaufen.
      Das ist ganz vernünftig.

      [
      | Versenden | Drucken ]
      • 0
        Von blublub am Mi, 11. Januar 2012 um 19:37 #

        > Das sind gerade keine Technikverweigerer, sondern oftmals Leute, die sich mit Hardware und Betriebssystemen ganz gut auskennen, also auch z.B. wissen, wie sie gezielt aufrüsten müssen, um tatsächlich mehr Leistung zu erhalten.

        Und dann lieferst du solche Beispiele?

        Ein Umstieg von USB 1.1 auf 2.0 ist praktisch ein Witz. Eigentlich würde man 3.0 erwarten. Und ja es hat einen Mehrwert. Vielleicht nicht bei der Krücke die du da oben auflistest aber real gesehen schon. Bei gleichem Preis.

        Erweiterungskarten für IDE ? Hardware aus dem letzten Jahrtausend. Würde ich keinem empfehlen. IDE Festplatten sind ein akutes Risiko für jegliche Datenbestände. Sowas kauft man heute nicht mehr.

        PCI Erweiterungskarten für SATA? Sinnlos wegen 133MB/s Grenze. Da verlierst du bei jeder SSD 75% der sequentiellen Schreibrate. Für die IOPS die eine gute SSD liefert ist die zitierte Krücke viel zu schwach.

        Genau so wie du es geschildert hast macht man es nicht weil man insgesamt nur kleine Performancebeträge zu unverhältnismäßig großen Preis bekommt.

        Hier 30 € da 30€ da mal 100€ für ne neue Festplatte. Lieber spart man sich das Geld und kauft alle in 5 Jahre neue Hardware. Da hat man ruck zuck mehr als die doppelte Rechen- und Grafikleistung.

        [
        | Versenden | Drucken ]
        • 0
          Von Affenkopp am Do, 12. Januar 2012 um 15:16 #

          »Hier 30 € da 30€ da mal 100€ für ne neue Festplatte. Lieber spart man sich das Geld und kauft alle in 5 Jahre neue Hardware. Da hat man ruck zuck mehr als die doppelte Rechen- und Grafikleistung.«

          Und ’nen riesen-Haufen Müll.

          [
          | Versenden | Drucken ]
          • 0
            Von blublub am Do, 12. Januar 2012 um 15:37 #

            > Und ’nen riesen-Haufen Müll.

            Nicht mehr als du in die Restmülltonne schmeisst. Gehäuse behalte ich grundsätzlich bis es nicht mehr geht. Das letzte mal war es der Umstieg von AT auf ATX. Meine Microsoft Intelli Mouse Explorer 3.0 ist 7 Jahre alt und guter Dinge 10 zu werden. Auf meiner Tastatur ist noch das IBM Logo zu sehen und funktionieren tut sie bis auf den leider sterbenden PS/2 Anschluss tadellos. Ein heute aktuelles gutes Netzteil mit ~500W kann man noch die nächsten 5 Jahre verwenden weil der Trend eher zu weniger Verbrauch geht. Da man heute SSD Festplatten verwendet und diese viel seltener sterben hat man auch weniger Müll.

            Das einzige was bei mir alle 5-7 Jahre anfällt ist:

            Ein Lüfter weil bewegliche Teile gerne kaputtgehen. RAM, Mainboard,CPU, Grafikkarte weil Sockel meistens nicht kompatibel, spielen kann man unter Linux sowieso nur die alten Schinken. Festplatte aus Angst vor einem Datenverlust. Damit bin ich mit meinem Müll gar nicht so schlecht aufgestellt weil ich mein Handy auch ziemlich lange behalte, kein Fleisch esse, nicht rauche und trotz Auto mit ÖPNV zur Arbeit fahre und mich in in einem thailändischen Verein für bedürftige Kinder engagiere. Deswegen kann ich auch ruhig schlafen auch wenn ich mir ab und zu etwas Technik gönne.

            [
            | Versenden | Drucken ]
          0
          Von .-,-,, am Fr, 13. Januar 2012 um 01:30 #

          USB 3.0 über PCI-Steckplätze?
          Einen sinnloseren Einwand gibt es wohl nicht.

          Im übrigen schrieb ich IDE-SATA-Controller.
          Was soll an SATA-Festplatten im Hinblick auf die Lebensdauer zuverlässiger sein als an IDE-Festplatten?
          Das hängt im Privatbereich von ganz anderen Faktoren ab, nicht vom "Festplatten-Typ".


          "PCI Erweiterungskarten für SATA? Sinnlos wegen 133MB/s Grenze."

          Theoretische 133MB/Sek. auf solchen alten IDE-Systemen sind genug.
          SATA-Festplatten erreichen im übrigen genauso wenig die beworbenen Traumwerte wie alte IDE- oder SCSI-Festplatten.
          Den SATA-Controller muss man auch nicht benutzen, wenn man mit IDE selbst vom Speicherplatz her noch zufrieden ist. Auch ein Anschließen über USB 2.0 ist über entsprechende Hardware ja möglich. Das ist zwar nicht so schnell, funktioniert aber meist.


          "Da hat man ruck zuck mehr als die doppelte Rechen- und Grafikleistung."

          Unter Linux, bei den Grafiktreibern?
          Ich musste auf einem nagelneuen PC sogar Dri deaktivieren, um das Xorg-Einfrieren zu unterbinden. Ein Bug halt.
          Na ja, wenigstens kann man einen nagelneuen Quadcore vernünftig mit der Llvmpipe traktieren.
          So gesehen ... mein hier noch herumstehender PIV kann zur Zeit grafikmäßig unter Linux mehr als diese neue Gurke. Unter Linux dauert das mit der neuen Hardware halt immer ein bisschen länger. Noch ein Jahr und ich kann ruhigen Gewissens auch mit Linux auf die neue Mühle umsteigen. :-)

          [
          | Versenden | Drucken ]
0
Von KackNoob2012blablabla am Mi, 11. Januar 2012 um 17:39 #

über ihren Schatten springen, ganze 3 Stellen in der Versionierung.

Und von wegen gute Entscheidung, das war keine Entscheidung das war Druck. So etwas ist doch schon im vornherein klar gewesen das es so nicht funktionieren kann.

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung