Klar das Linux statt IRIX auf den kisten im Gesamtpreis der Anlage einen deutlichen ruck nach unten macht ist die wirtschaftliche Seite.
Das die Anlage an sich saumässig schnell ist (im vergleich zu SOHO installationen) steht schon per Definition fest.
Das aber Linux statt IRIX o.ä. da einen solchen "vorteil" in der Geschwindigkeit rausholt halte ich doch für überzogen mein lieber Herr Anonymous... Schliesslich gab es vor Linux für Rechner/Clusteranlagen in der dimension (und aufwärts) bereits hochoptimierte Unixe .. ;))
Aber klasse finde ich es trotzdem..
Sollte sich das als trend durchsetzen, das Rechneranlagen mit mehr als 2 CPU's (ob Cluster oder 8x Xeons) statt mit NT oder eigenen Unixen mit Linux ausgeliefert werden (können) dann bringt uns das ein weiteres feld in dem Linux die breite Masse von OSS überzeugen -WIRD- (nicht -kann-;)
Letzten endes meine lieben mitstreiter sieht es real betrachtet ja so aus, das jeder von uns dann in der Lage ist eine applikation in welchem bereaich auch immer zu entwickeln und mit ein wenig vorsicht beliebig hochskalieren zu können, so das diese applikation prinzipiell auch auf dem weltweit grössten existierendem supercomuter eigesetzt werden kann. Lediglich einmal neu kompillieren muss mensch es...
Überlegt mal, früher musste mensch sich zwangsweise in die hände einer XBeliebigen firma begeben um für AS/400 o.ä. Systeme entwickeln zu können.
Mit eben beschriebenem szenario kann jeder hobbybastler auf seinem betagten 386er etwas entwickeln und auch den grössten kunden noch anbieten.
Früher mussten wir teller waschen. Heute nurnoch (evtl) Studieren und Programieren;)
Was die Optimierung und die Performance angeht: bei solchen rechenintensiven Programmen wie Rendering-Software hat das Betriebssystem auf die Performance praktisch keinen Einfluss, weil die meiste Zeit das User-Programm und nicht der Systemkern aktiv ist. Nur wenns um Disk- oder Netzwerk-I/O geht, kommt das Betriebssystem zum Tragen. Ich nehme an, dass hier Preis, Stabilität und die einfache Serieninstallation (bei 200 Rechnern macht die Installation ziemlich viel Arbeit) für Linux sprechen.
Ich will um gotteswillen keinen Krieg anzetteln, aber seit wann ist Linux hochverfuegbar? Oder habe ich da vielleicht etwas verpasst?
ReiserFS ist immer noch umstritten (auch wenn ich selber sehr zufrieden damit bin), hotplug fuer Festplatten kann man vielleicht noch hinbekommen, aber wie steht es mit Proz. und Speicherwechsel im laufenden Betrieb? mhhhh... dauert sicherlich noch einige Jahre, bis das mal so weit sein koennte... Aber immerhin... im Cluster ist sowas vielleicht nicht das entscheidenste...
Von Christoph Helwig am Mi, 30. August 2000 um 20:54 #
Hotplug fuer platten (und den pci bus) ist in Linux 2.4, Hot-Plug CPUs behauptet motorola anzubieten (sollte ich mal genauer anschauen ...) und von Hot-Plug Speicher ist mir noch nichts bekannt.
Chrisstoph
P.S. dass soll ne Rendering-Farm werden - also it Hochverfuegbarkeit egal
Ja, Linux ist schon hochverfügbar. Unter LINUX läuft das HP Service-Guard, es ist aber noch nicht freigegeben. Das kann noch ca. 6Monate dauern, leider aber kein GPL...man kann eben nicht alles haben
Junge, Junge, kann man wieder nur den Kopf schütteln zum frühen Morgen, also ehrlich mal. Ist Linux nun im Hochverfügbarkeitssektor? Antwort: NATÜRLICH!!!! Kernel 2.4 hat das!! Siehe oben!! Zum Ko....der Kernel ist noch gar nicht raus!!! Den gibts nur als x-te Beta oder so - aber der da oben labbert rum, "jaja das ist alles schon fertig, prima, prima". Hotplug-Platten? "ja, die gibts da glaube ich schon..." siehe oben!!! "Aber nichts Genaues weiss ich wie immer nicht - wird wohl noch 6 Monate dauern...."
Hochverfügbarkeit: Damit ist gemeint, daß ein Rechner nicht so oft ausfällt wie ein normaler PC bzw. wenn etwas kaputtgeht darf es den laufenden Betrieb nicht stören. Man kann z.B. zwei Festplatten nehmen und auf beiden das gleiche speichern. Fällt eine aus, dann sind die Daten trotzdem noch verfügbar.
Skalierbarkeit: Wenn man eine Aufgabe auf mehrere Prozessoren oder Computer veteilt, dann wird das Gesamtsystem z.B. bei vier Prozessoren nicht automatisch 4x schneller. Je nach Aufgabe kann es auch erheblich langsamer sein, im Extremfall sogar langsamer als eine Ein-Prozessor-Maschine. Je besser ein System skaliert, umso schneller wird es wenn man mehrere Prozessoren/Computer hinzufügt.
>
>Linux-Lösungen ... ermöglicht >..wirtschaftliche >Implementierung einer stabilen >und leistungsstarken Rendering->Umgebung
So schöne Gründe für Linux :).
Lemontree
Natürlich, wenn das Teil unter Linux läuft
Klar das Linux statt IRIX auf den kisten im Gesamtpreis der Anlage einen deutlichen ruck nach unten macht ist die wirtschaftliche Seite.
Das die Anlage an sich saumässig schnell ist (im vergleich zu SOHO installationen) steht schon per Definition fest.
Das aber Linux statt IRIX o.ä. da einen solchen "vorteil" in der Geschwindigkeit rausholt halte ich doch für überzogen mein lieber Herr Anonymous... Schliesslich gab es vor Linux für Rechner/Clusteranlagen in der dimension (und aufwärts) bereits hochoptimierte Unixe .. ;))
Aber klasse finde ich es trotzdem..
Sollte sich das als trend durchsetzen, das Rechneranlagen mit mehr als 2 CPU's (ob Cluster oder 8x Xeons) statt mit NT oder eigenen Unixen mit Linux ausgeliefert werden (können) dann bringt uns das ein weiteres feld in dem Linux die breite Masse von OSS überzeugen -WIRD- (nicht -kann-;)
Letzten endes meine lieben mitstreiter sieht es real betrachtet ja so aus, das jeder von uns dann in der Lage ist eine applikation in welchem bereaich auch immer zu entwickeln und mit ein wenig vorsicht beliebig hochskalieren zu können, so das diese applikation prinzipiell auch auf dem weltweit grössten existierendem supercomuter eigesetzt werden kann.
Lediglich einmal neu kompillieren muss mensch es...
Überlegt mal, früher musste mensch sich zwangsweise in die hände einer XBeliebigen firma begeben um für AS/400 o.ä. Systeme entwickeln zu können.
Mit eben beschriebenem szenario kann jeder hobbybastler auf seinem betagten 386er etwas entwickeln und auch den grössten kunden noch anbieten.
Früher mussten wir teller waschen.
Heute nurnoch (evtl) Studieren und Programieren;)
Life is easy with linux in our mind;)
Hacky - demsein tag heute nicht ist .. glgl
Oder habe ich da vielleicht etwas verpasst?
ReiserFS ist immer noch umstritten (auch wenn ich selber sehr zufrieden damit bin), hotplug fuer Festplatten kann man vielleicht noch hinbekommen, aber wie steht es mit Proz. und Speicherwechsel im laufenden Betrieb?
mhhhh... dauert sicherlich noch einige Jahre, bis das mal so weit sein koennte...
Aber immerhin... im Cluster ist sowas vielleicht nicht das entscheidenste...
Chrisstoph
P.S. dass soll ne Rendering-Farm werden - also it Hochverfuegbarkeit egal
Ist Linux nun im Hochverfügbarkeitssektor?
Antwort: NATÜRLICH!!!! Kernel 2.4 hat das!!
Siehe oben!! Zum Ko....der Kernel ist noch gar nicht raus!!! Den gibts nur als x-te Beta oder so - aber der da oben labbert rum, "jaja das ist alles schon fertig, prima, prima".
Hotplug-Platten? "ja, die gibts da glaube ich schon..." siehe oben!!! "Aber nichts Genaues weiss ich wie immer nicht - wird wohl noch 6 Monate dauern...."
MfG
Danke im Voraus
Damit ist gemeint, daß ein Rechner nicht so
oft ausfällt wie ein normaler PC bzw. wenn
etwas kaputtgeht darf es den laufenden
Betrieb nicht stören. Man kann z.B. zwei
Festplatten nehmen und auf beiden das gleiche
speichern. Fällt eine aus, dann sind die Daten trotzdem noch verfügbar.
Skalierbarkeit:
Wenn man eine Aufgabe auf mehrere Prozessoren oder Computer veteilt, dann wird das Gesamtsystem z.B. bei vier Prozessoren nicht automatisch 4x schneller. Je nach Aufgabe kann es auch erheblich langsamer sein, im Extremfall sogar langsamer als eine Ein-Prozessor-Maschine.
Je besser ein System skaliert, umso schneller
wird es wenn man mehrere Prozessoren/Computer hinzufügt.