1GB allein für das OS, und mind. 2GB um gescheit spielen zu können....find ich ganz schön happig, ich glaube die "optimieren" ihren Code darauf, möglichst viel Speicher zu fressen. In der News steht, dass Beobachter davon aus gehen, dass Vista in sachen Funktionalität an ein Linux-Desktop rankommen wird... mag sein, aber für einen Linux Desktop braucht man kein GB Arbeitsspeicher ^^ Mit RAM und Swap hab ich 1GB und stoße da nur in Extremsituationen an die Grenze.
Windows Vista: Die Massenverarsche geht weiter....
Das das kein Aprilscherz ist meine ich wohl auch... schon vor Jahren (1-2) kündigte MS an, dass Vista viel Ressourcen fressen wird... von daher ist die News hier keine wirklich neue, und auch kein Aprilscherz, sondern eine Bestätigung auf etwas vor vor geraumer Zeit "prophezeit" wurde.
"...you need 1GB memory just to work in Word or Paint using vista. [...] It works slow even with 2GB." Das kann doch wohl nicht wahr sein ! Mag sein, dass die Privatanwender bereit sind, mit einem Windows-Update gleich ihre Hardware auszustauschen oder zumindest aufzurüsten. Für Firmen oder gar öffentliche Forschungseinrichungen wie bei uns ist es völlig ausgeschlossen, einen Großteil der PC-Arbeitsplätze in kurzer Zeit zu erneuern. Gibt es mit jeder Vista-Lizenz dann auch einen Gutschein für neue Hardware, oder wie stellt sich Microsoft die Zukunft ihres Betriebssystems vor ?
P.S. Auf meinen privaten 5 Jahre alten Rechner läuft Arch-Linux mit WindowMaker. Egal ob OpenOffice, Internet oder Video, er rennt wie Schmidts Katze und bisher ohne jegliche Abstüze. Das nenne ich Inovation in der Betriebssystementwicklung.
Ist doch geil! Warum? nun, alle DAUs kaufen alle neuen Systeme mit Vista, die Systeme müssen dann auch genügend Ram haben, Ram muss billig sein, sonst kauft es niemand. Also wird Ram noch billiger. Wir Pragmatiker, die eh wissen, dass man ein OS nicht benützt mag, sondern DIE SOFTWARE die drauf läuft, benützen weiterhin XP oder Linux. Also kriegen wir dann Ram viel billiger und können das in XP und Linux auch noch viel besser nutzen, da das OS nicht so unnötig fett Speicher frisst. Games werden auch weiterhin, bis in 5 Jahren auf XP laufen, weil viele Leute nicht upgraden werden. XP ist einfach zu "gute genug", womit MS ja dauernd arbeitet. (nicht wie bei Windows 98 wo man schreiend in die Arme von XP rannte, weil es sooooo scheissverdammt schrottig und instabil war)
Schreibt Windows Vista meine Dokumente von alleine und beantwortet meine E-Mails?
Prokuktivitätszuwachs klingt ja ganz toll, wie aus einer Hochglanzbroschüre. Und niemand wird sagen: so etwas will ich nicht. Aber wo soll denn der Produktivitätszuwachs bei Vista stattfinden?
Wenn mein Rechner langsam wird und ich warten muss, dann bremst das zunächst einmal meine Produktivität.
Ich würde mir wünschen, dass es für Vista erst gar keinen RAM geben würde... ;-) Aber leider wäre dann auch die Weiterentwicklung für andere Systeme nicht gegeben. Vista ist ein Witz!
Ganz genau eine Touringmaschine. Die Sache ist die, dass die theoretische Definition einer Touringmaschine ein endloses Band als Speicher besitzt, also theoretisch unendlich viel Speicher zur verfügung hat. Und genau das ist das mit VistaTM
Kleine Korrektur: Die Turingmaschine hat kein unendlich langes Band zur verfügung. Die länge des Bandes ist unbeschränkt. Das ist schon ein wesentlicher Unterschied
Versteh ich nicht ganz, das mit dem unbeschränkt ist doch da, dass ein Algorithmus für eine Touringmaschine nicht in die Situation ich eines ich nenne es mal "Speicherüberlauf" kommen kann. Es ist aber ein leichtes einen Algorithmus für eine Touringmaschine zu entwerfen, der das unbeschränkte Band tatsächlich benutzt und somit auch "unendlich viel Speicher braucht". Meines wissens ist nicht verlangt, dass ein Algorithmus einer Touringmaschine terminieren muss. Im gegenteil häufig verwendete Beweise beruhen ja auf der Definiton, ob eine Touringmaschine terminiert oder nicht, dafür muss man das Band dann unbeschränkt machen, was doch aber darauf hinausläuft, dass auch der Speicher unbeschränkt also unednlich groß ist. Oder wie siehst du das? Ohne, dass ich das ganze hier unnötig vertiefen möchte.
du siehst das schon nicht ganz falsch... Wenn du einen Algorithmus verwendest, der nicht terminiert und dessen Speicherverbrauch mit der Zeit kontinuierlich wächst, dann kanst du zu jedem Zeitpunkt genau sagen, wie viele Felder gerade verwendet werden. Diese Zahl kann zwar sehr gross werden, aber nie unendlich. Ist nicht ganz einfach zu erklären und ich bin auch kein TI-Spezialist (Theoretische Informatik haben wir erst im nächsten Semester). http://de.wikipedia.org/wiki/Turingmaschine wird das auch noch erläutert - Zitat: "Unbeschränkt heißt hier, das Band darf stets endlich lang sein, es ist aber für die aktuelle Rechnung ausreichend groß zu wählen.". Aber du hast schon recht: In dieser Diskussion ist das wohl eher Haarspalterei...
Ok, ich glaube ich weiss vorauf du hinaus willst. Gott sei dank hab ich Theoretische Informatik schon hinter mir! War bei uns die mit Abstand schwerste Prüfung, für die ich zwei Anläufe gebraucht habe. Man stelle sich eine Turingmaschine vor, die in jedem Rechenschritt ein "a" schreibt und dann um eine Stelle nach links springt. (oder auch rechts völlig egal) Dann hast du per Definition eine unberechenbare Funktion, da die Turingmaschine bei Eingabe dieses Algorithmuses nicht terminiert. In jedem Schritt kann man nun den Speicherverbrauch berechnen und in jedem Schritt ist er auch endlich groß. Der Knackpunkt ist der, dass du jetzt nicht mehr im Vorraus sagen kannst, was du für eine Bandlänge Du brauchst. Es wäre völlig aussichtslos eine ausreichend großes Band zu suchen. Betrachtet man den Algorithmus, dann stellt man fest, dass man tatsächlich ein abzählbar unendlich langes Band brauchen würde um diesen Algorithmus ohne Speicherüberlauf auszuführen. (Alles natürlich eine sehr theoretische Betrachtung). Sprich dieser von mir gewählte Algorithmus ist auf einer klassischen Turingmschine gar nicht ausfürhbar. Die Forderung einer Turingmaschine ein beschränktes Band zu geben muss man aber tatsächlich nur deshalb machen, weil sonst ja die Turingmaschine ein viel mächtigerer Rechner, als jeder reale Rechner wäre und das wäre fatal, da sonst einer der Kernbeweise nicht mehr greifen würde, nämlich der Beweis, dass eine Turingmaschine tatsächlich gleichmächtig wie jeder verfügbare realer Rechner ist.
Sorry an alle, hat natürlich gar nichts mit diesem Thread zu tun.
Nur um das zu komplettieren und im Sinne der Aktion auch die Gegenseite zu beleuchten:
http://de.wikiquote.org/wiki/Bill_Gates
Fälschlich zugeschrieben "640 kB sollten eigentlich genug für jeden sein." - angeblich 1981. Bill Gates dementiert z.B. in http://www.usnews.com/usnews/biztech/gatesivu.htm * (Original engl.: "640 kB ought to be enough for anybody.")
Dass er es dementiert, ist natürlich klar. Es ist ebenso natürlich sehr schwer zu beweisen, sowohl, ob er es gesagt halt, als auch das Gegenteil, denn immerhin soll das Gesagte in seiner Entwicklergemeinde gefallen sein, wo nun mal keine Kamera oder etwas ähnliches beglaubigendes mitlief, also wird es wohl auf Ewig ein Gerücht bleiben.
Aber dass er so eine Äusserung wirklich getätigt haben könnte, ist durchaus glaubwürdig, denn das, was bei diesem Zitat immer nur falsch ausgelegt wurde, waren der Zeitrahmen und das Ziel. Billy hätte damit nämlich nicht gemeint, dass 640k für alle Ewigkeit ausreichen würde, sondern er hätte sich nur auf die damalige Situation des frühen PSs (für die Dank des 8086 eh 1MB die absolute Obergrenze darstellte) und des ebenso frischen MS-DOS bezogen. Denn damals gab es tatsächlich keinen Grund, die für die damaligen Verhältnisse überaus grossen und darüber hinaus auch sündhaft teuren Speicher für den PC noch weiter aufzustocken. Das Verlangen kam erst auf, als es auch für den PC mit dem 286 möglich wurde, mehr Speicher zu bestücken, der dann auch endlich im Preis gefallen war.
Zumindest in einer Hinsicht jedoch stimmte mein Beitrag: die frühen Versionen von DOS konnten nun mal wirklich nicht mehr als 640k Programmspeicher anbieten, und da mein Beitrag schiesslich als Umkehrung der typischen Anti-Linux-Trolle gedacht ist, die auch fest davon überzeugt sind, dass Linux sich seit dem Ur-Unix Ende der 60er nicht im geringsten weiterentwickelt hätte, darf ich natürlich das selbe von MS-Produkten annehmen. Fertig :-)
Übrigens, wenn du was hören willst, was er selber zwar ebenfalls fleissig dementiert, dafür aber in aller Öffentlichkeit gesagt hat, dann nimm mal seine Prophezeiung, als er in der ersten Hälfte der 90er immer wieder betonte, dass das Internet nur eine kurzzeitige Modeerscheinung sei
...und selbst, wenn es dafür keinen Beleg geben sollte: Allein das Datum des Erscheinens des ersten Internet-Explorer zeigt, dass Microsoft das Internet komplett verschlafen hatte. Von den gravierenden technischen Mängeln der MS-Browser bis zum heutigen Tag mal ganz abgesehen.
Wenn Pro-Linux schon am Samstag mal eine NAchricht rausbringt und die dann auch noch auf heute fällt, so ist sie sicherlich unter einem lustigem Stern zu lesen.
Da hast du wahrscheinlich recht, finde diesen Aprilscherz aber trotzdem sehr nett, weil er zum jetztigen Zeitpunkt von Vista der Realität entspricht. Die Ironie von der Geschichte ist wohl, dass der Kern dieses Aprilscherzes wahr ist.
Ob es ein Scherz ist oder nicht, heute werden schon Rechner mit 1 bis 2GB ausgestattet, von Normalbenutzern! Es stellt sich fuer mich die Frage, wie das Windows fuer die Zukunft behandeln will? 32bit CPUs wie der CoreDuo oder aktuelle P4 koennen typisch nur 4GB adressieren. Windows64 kann zwar mehr, aber meines Wissens nur 3GB pro Prozess. - In meinen Augen wird's da fuer das OS in spaetestens zwei Jahren eng!
Dann kommt eine Workarround übelster Art hinzu, der nach 911-maligem Abklopfen einer genau definierten IOPortsequenz die MMU in einen anderen Modus schaltet... weil: muß ja abwärtskompatibel bleiben...
Braucht latürnich auch ne neue MMU, also neue Mamabretter...
Das schafft Arbeitsplätze!
Verneige Dich drei mal Richtung Sitz der WTO ubnd zitiere die Regeln der Ferengi dabei!
Was erwartest du? Win98 konnte auch nicht mehr als 512MB adressieren und selbst die ersten Versuche von XP hatten Probleme mit Intels Hyperthreading. Vernünftige Hardwareunterstützung und Windows war schon immer ein Widerspruch in sich selbst.
Von ich, wer sonst am Sa, 1. April 2006 um 19:04 #
Windoof-Vista wird auch eine highend Grafikkarte (DirectX-9, Pixel Shader 2.0, DirectX VA 2.0, AGP-8X) vorraussetzen. Für Leute, die ihren Rechner nicht zum Spielen benutzen und deshalb keine Grafikkarte für ein paar 100EUR haben, ist also erst mal Aufrüsten angesagt. Und da sag einer, Windows wäre preiswert.
Aber freut euch nicht zu früh, KDE und GNOME werden mit den Hardwareanforderungen bald gleichziehen.
jedoch sollte man beachten, dass man bei KDE und GNOME auch mit älteren versionen einen neuen kernel benutzen kann, bzw in der opensource gemeinde alte und weniger anspruchsvolle versionen oft noch aktuell gehalten werden. sprich ich kann auch mit altem outfit neue programme starten
Und zudem wurde zumindest KDE in den letzten Versionen nicht speicherfressender. Teilweise wohl auch, weil der gcc erst in den letzten Jahren effizient C++-übersetzen lernte.
Ich meine so KDE 3.0 bis 3.2 . Ich las irgendwo mal, dass das mit den Grund hätte, dass der gcc C++-Quelltexte vorher ineffizienter übersetzte. Wenn du meine Aussage widerlegen kannst, tue es doch.
Bei sind momentan unter KDE mit kmail, knode und konqueror ohne cache nur 162 MB verbraucht. Das ist nicht mehr als IIRC KDE 3.0 bei meinem Nutzverhalten brauchte. Es kann natürlich auch andere Gründe haben.
Natürlich wird KDE mit Vista-Hardwareanforderungen n i c h t gleichziehen, das ist echt geblubber. Mit Qt 4.0 oder 4.1 wird KDE vielmehr nochmals flotter - wie jede Major Release seit KDE 3.2. Und daran wird auch GLX-Schnickschnack nix ändern, denn das läuft hier auf einer Geforce3 MX absolut klasse.
Und du glaubst ernsthaft, die dann aktuellen Linuxdistries werden dem User die Wahl bieten, eine ältere KDE-Version zu installieren? Du glaubst weiterhin, dass die dann aktuellen KDE-Programme noch mit einer alten KDE-Version laufen werden?
Hallo, die RAM-Hersteller sind doch kleine Fische.
In Wirklichkeit können doch jetzt schon alle Fachzeitschriften von Computer-Bild bis ct die Veröffentlichung von Vista kaum mehr erwarten. Nachdem es schon auffällt wenn zum 25. Mal der Artikel "So verschlimmbessern auch sie garantiert jedes XP" im Heft erscheint kann nur mehr Vista die Auflagenhöhe wieder erhöhen.
In vertrauenswürdigen Quellen war zu lesen das die Verlage sogar planen wegen der dabei befürchteten Papierknappheit die ersten 3 "Vista-Auflagen" mit aus Regenwaldbäumen erzeugtem Papier ausliefern.
Da sieht man wieder welchen Schaden die monopolartige Marktbeherrschung von M$ verursacht. Mit Gentoo würde so was nicht passieren!!!
vor paar jahren gab es mal eine tiersendung - da hat ein hund o.ä. versucht sich mit nem stinktier anzulegen. das stinktier hat sich gewehrt und dem hundi eine ladung stinkedrüsensekret mitten in die fresse gespritzt - woraufhin sich der hund dann im dreck gewältzt und mit den pfoten versucht hat den gestank abzustreifen. also man hat richtig gemerkt wie verzweifelt er war "wähhhh - DAS STINKT - MACH DAS ES WEGGEHT!!! ICH WERD NOCH BLÖD SO STINKT DAS"
so ähnlich gehts meinem hirn nachdem ich das gelesen hab... auslösende faktoren: "..beflügelt die Produzenten." "Geht man davon aus, dass neben Windows auch mal eine Applikation gestartet wird...." "in der Overclocking-Szene für seine leistungsfähigen Speichermodule bekannte Firma" "Bundles mit 2 und 4 GB die Nutzer der neuen Generation von Windows beliefern"
ich kann mir nur vorstellen das da ein anderer markt gemeint ist - einer der sich zwar auch um rechner dreht, aber eine ganz andere zielgruppe bedient. grotesk.
In der News steht, dass Beobachter davon aus gehen, dass Vista in sachen Funktionalität an ein Linux-Desktop rankommen wird... mag sein, aber für einen Linux Desktop braucht man kein GB Arbeitsspeicher ^^ Mit RAM und Swap hab ich 1GB und stoße da nur in Extremsituationen an die Grenze.
Windows Vista: Die Massenverarsche geht weiter....
http://www.theinquirer.net/?article=30503
http://www.theinquirer.net/?article=30537
P.S.
Auf meinen privaten 5 Jahre alten Rechner läuft Arch-Linux mit WindowMaker. Egal ob OpenOffice, Internet oder Video, er rennt wie Schmidts Katze und bisher ohne jegliche Abstüze. Das nenne ich Inovation in der Betriebssystementwicklung.
Arch ist wirklich ne sehr schoene Distri... Bekommt nur leider nicht die Aufmerksamkeit, die es eigentlich verdient...
ArchLinux ist im Moment die Distri meiner Wahl.
Ist doch geil! Warum? nun, alle DAUs kaufen alle neuen Systeme mit Vista, die Systeme müssen dann auch genügend Ram haben, Ram muss billig sein, sonst kauft es niemand. Also wird Ram noch billiger.
Wir Pragmatiker, die eh wissen, dass man ein OS nicht benützt mag, sondern DIE SOFTWARE die drauf läuft, benützen weiterhin XP oder Linux.
Also kriegen wir dann Ram viel billiger und können das in XP und Linux auch noch viel besser nutzen, da das OS nicht so unnötig fett Speicher frisst.
Games werden auch weiterhin, bis in 5 Jahren auf XP laufen, weil viele Leute nicht upgraden werden. XP ist einfach zu "gute genug", womit MS ja dauernd arbeitet. (nicht wie bei Windows 98 wo man schreiend in die Arme von XP rannte, weil es sooooo scheissverdammt schrottig und instabil war)
Verneige dich dreimal mit Blick auf den Sitz der WTO und zitiere alle Regeln der Ferengi dabei!
Plöt nur, daß die Mehrzahl der Abbeizplötze nicht in (D) sein wird...
Aber geblesst sei die Globalisierung!
Prokuktivitätszuwachs klingt ja ganz toll, wie aus einer Hochglanzbroschüre. Und niemand wird sagen: so etwas will ich nicht. Aber wo soll denn der Produktivitätszuwachs bei Vista stattfinden?
Wenn mein Rechner langsam wird und ich warten muss, dann bremst das zunächst einmal meine Produktivität.
:)
das Wort "unter" ist definitiv fehl am Platz.
Aber leider wäre dann auch die Weiterentwicklung für andere Systeme nicht gegeben.
Vista ist ein Witz!
lim(RAMVerbrauch(Vista)) --------> unendlich
Ist nicht ganz einfach zu erklären und ich bin auch kein TI-Spezialist (Theoretische Informatik haben wir erst im nächsten Semester). http://de.wikipedia.org/wiki/Turingmaschine wird das auch noch erläutert - Zitat: "Unbeschränkt heißt hier, das Band darf stets endlich lang sein, es ist aber für die aktuelle Rechnung ausreichend groß zu wählen.". Aber du hast schon recht: In dieser Diskussion ist das wohl eher Haarspalterei...
Man stelle sich eine Turingmaschine vor, die in jedem Rechenschritt ein "a" schreibt und dann um eine Stelle nach links springt. (oder auch rechts völlig egal) Dann hast du per Definition eine unberechenbare Funktion, da die Turingmaschine bei Eingabe dieses Algorithmuses nicht terminiert. In jedem Schritt kann man nun den Speicherverbrauch berechnen und in jedem Schritt ist er auch endlich groß. Der Knackpunkt ist der, dass du jetzt nicht mehr im Vorraus sagen kannst, was du für eine Bandlänge Du brauchst. Es wäre völlig aussichtslos eine ausreichend großes Band zu suchen. Betrachtet man den Algorithmus, dann stellt man fest, dass man tatsächlich ein abzählbar unendlich langes Band brauchen würde um diesen Algorithmus ohne Speicherüberlauf auszuführen. (Alles natürlich eine sehr theoretische Betrachtung).
Sprich dieser von mir gewählte Algorithmus ist auf einer klassischen Turingmschine gar nicht ausfürhbar.
Die Forderung einer Turingmaschine ein beschränktes Band zu geben muss man aber tatsächlich nur deshalb machen, weil sonst ja die Turingmaschine ein viel mächtigerer Rechner, als jeder reale Rechner wäre und das wäre fatal, da sonst einer der Kernbeweise nicht mehr greifen würde, nämlich der Beweis, dass eine Turingmaschine tatsächlich gleichmächtig wie jeder verfügbare realer Rechner ist.
Sorry an alle, hat natürlich gar nichts mit diesem Thread zu tun.
Gruß und noch viel Spaß nächstes Semester bei TI
Lirpa tsi se
http://de.wikiquote.org/wiki/Bill_Gates
Fälschlich zugeschrieben
"640 kB sollten eigentlich genug für jeden sein." - angeblich 1981. Bill Gates dementiert z.B. in http://www.usnews.com/usnews/biztech/gatesivu.htm
* (Original engl.: "640 kB ought to be enough for anybody.")
;)
Aber dass er so eine Äusserung wirklich getätigt haben könnte, ist durchaus glaubwürdig, denn das, was bei diesem Zitat immer nur falsch ausgelegt wurde, waren der Zeitrahmen und das Ziel. Billy hätte damit nämlich nicht gemeint, dass 640k für alle Ewigkeit ausreichen würde, sondern er hätte sich nur auf die damalige Situation des frühen PSs (für die Dank des 8086 eh 1MB die absolute Obergrenze darstellte) und des ebenso frischen MS-DOS bezogen. Denn damals gab es tatsächlich keinen Grund, die für die damaligen Verhältnisse überaus grossen und darüber hinaus auch sündhaft teuren Speicher für den PC noch weiter aufzustocken. Das Verlangen kam erst auf, als es auch für den PC mit dem 286 möglich wurde, mehr Speicher zu bestücken, der dann auch endlich im Preis gefallen war.
Zumindest in einer Hinsicht jedoch stimmte mein Beitrag: die frühen Versionen von DOS konnten nun mal wirklich nicht mehr als 640k Programmspeicher anbieten, und da mein Beitrag schiesslich als Umkehrung der typischen Anti-Linux-Trolle gedacht ist, die auch fest davon überzeugt sind, dass Linux sich seit dem Ur-Unix Ende der 60er nicht im geringsten weiterentwickelt hätte, darf ich natürlich das selbe von MS-Produkten annehmen. Fertig :-)
Übrigens, wenn du was hören willst, was er selber zwar ebenfalls fleissig dementiert, dafür aber in aller Öffentlichkeit gesagt hat, dann nimm mal seine Prophezeiung, als er in der ersten Hälfte der 90er immer wieder betonte, dass das Internet nur eine kurzzeitige Modeerscheinung sei
Es stellt sich fuer mich die Frage, wie das Windows fuer die Zukunft behandeln will? 32bit CPUs wie der CoreDuo oder aktuelle P4 koennen typisch nur 4GB adressieren. Windows64 kann zwar mehr, aber meines Wissens nur 3GB pro Prozess. - In meinen Augen wird's da fuer das OS in spaetestens zwei Jahren eng!
Braucht latürnich auch ne neue MMU, also neue Mamabretter...
Das schafft Arbeitsplätze!
Verneige Dich drei mal Richtung Sitz der WTO ubnd zitiere die Regeln der Ferengi dabei!
Aber freut euch nicht zu früh, KDE und GNOME werden mit den Hardwareanforderungen bald gleichziehen.
http://www.heise.de/newsticker/meldung/67892
NikN
Sind denn hier nur Halbwissende Blubberer unterwegs?
Bei sind momentan unter KDE mit kmail, knode und konqueror ohne cache nur 162 MB verbraucht. Das ist nicht mehr als IIRC KDE 3.0 bei meinem Nutzverhalten brauchte. Es kann natürlich auch andere Gründe haben.
NikN
Sicher wird KDE dies tun. Selbstverständlich nicht sofort nach Erscheinen von Vista, sondern vielleicht ein Jahr später!
die RAM-Hersteller sind doch kleine Fische.
In Wirklichkeit können doch jetzt schon alle Fachzeitschriften von Computer-Bild bis ct die Veröffentlichung von Vista kaum mehr erwarten. Nachdem es schon auffällt wenn zum 25. Mal der Artikel "So verschlimmbessern auch sie garantiert jedes XP" im Heft erscheint kann nur mehr Vista die Auflagenhöhe wieder erhöhen.
In vertrauenswürdigen Quellen war zu lesen das die Verlage sogar planen wegen der dabei befürchteten Papierknappheit die ersten 3 "Vista-Auflagen" mit aus Regenwaldbäumen erzeugtem Papier ausliefern.
Da sieht man wieder welchen Schaden die monopolartige Marktbeherrschung von M$ verursacht. Mit Gentoo würde so was nicht passieren!!!
Gruß
santiago
so ähnlich gehts meinem hirn nachdem ich das gelesen hab... auslösende faktoren:
"..beflügelt die Produzenten."
"Geht man davon aus, dass neben Windows auch mal eine Applikation gestartet wird...."
"in der Overclocking-Szene für seine leistungsfähigen Speichermodule bekannte Firma"
"Bundles mit 2 und 4 GB die Nutzer der neuen Generation von Windows beliefern"
ich kann mir nur vorstellen das da ein anderer markt gemeint ist - einer der sich zwar auch um rechner dreht, aber eine ganz andere zielgruppe bedient. grotesk.