Die Distro-Wahl hat mich auch etwas überrascht. Mir würden einige andere Distros einfallen, die ich eher auf einem Server einsetzen würde (Ubuntu LTS war übrigens nicht dabei ;). Mich wunderts aber vor allem, dass die Amis auf die Idee kommen Suse zu verwenden. Ich dachte immer Suse sei dort drüben nicht so bekannt.
Von Paranoiker am Mo, 17. November 2008 um 00:08 #
Wie alle gute Software und Hardware in USA konzentriert wird: - Stardivision (StarOffice, Openoffice) wurde von Sun gekauft. - SuSE von Novell aufgekauft. - ATI (Kanada) von AMD gekauft. - Innotek (VirtualBox) wird von Sun gekauft.
Nur SAP scheint in ihrer "Nische" weiterhin überleben zu dürfen. Nur noch VIA bastelt an einem außeramerikanischen Prozessordesign. (China bastelt da auch noch was und ARM darf man natürlich nicht vergessen, aber es lebe die pauschale Verallgemeinerung...)
Von marc anton am Mi, 12. November 2008 um 17:58 #
Dir ist auch schon klar das dieses Suse hier massiv angepasst ist? Bei derartigen Grössenordnungen interessiert man sich nicht für die "Rechnerfarmen" der Kiddies oder von ISP Huber aus dem Oberfuffingen. Da sind andere Qualitäten gefragt die viele Community-Schrauber-Editionen nicht einmal ansatzweise befriedigen können. Und die benötigen halt nur die saubere Basis, der Rest ist Handarbeit.
Ein Hochleistungsrechner ist ein ganz anderes Kaliber als ein z.B. Webserver. Der große Vorteil von Ubuntu - seine Benutzerfreundlichkeit und die langen Wartungszyklen der LTS - sind in diesem Bereich irrelevant. Suse erzielt hier leistungsmäßig einfach bessere Werte als z.B. Red Hat auf selber Hardware.
Kannst du begründen wo hier der Leistungsunterschied zBsp zu einer Redhat liegen soll?
Alles was hier noch verwendet wird ist das Paketmanagement der Distro. Der Rest wird so massiv mit dem Hersteller angepasst, dass von der original Distribution fast nichts mehr uebrig bleibt.
Es ist ein nationales Forschungsinstitut, bei dem Wissenschaftler Rechenkapazitäten bekommen können. Laut Webseite decken die Themenfelder die komplette Wissenschaft ab. Darüber hinaus geht es wohl auch darum, die Technologie für Großrechner weiter zu entwickeln und die Führungsrolle nicht zu verlieren.
Angesichts der Geschichte dieser Forschungseinrichtung (siehe Wikipedia) und der Tatsache, daß sie fast komplett vom Energieministerium finanziert werden, würde ich mal vermuten, daß die da hauptsächlich Atomexplosionen simulieren (das Energieministerium beschäftigt sich nicht nur mit der zivilen Seite der Atomkraft).
Beim Linpack Benchmark wird im Prinzip ein großes lineares Gleichungssystem mit einem (modifizierten) Gauß-Algorithmus gelöst. Hinterher teilt man die Anzahl der benötigten Rechenoperationen (floating point operations) durch die benötigte Zeit und hat den Linpack-Wert des Rechners in FLOP/s. Dieser Algorithmus ist effizienter, wenn das Gleichungssystem möglichst groß ist, aber immer noch in den Arbeitsspeicher passt. Der benötigte Speicherplatz bei N Gleichungen mit N Unbegkannten ist etwa N^2 (doppelt so viele Gleichungen -> vier mal so viel benötigter Speicherplatz), der Rechenaufwand etwa N^3 (N doppelt so groß -> sogar acht mal mehr Aufwand). Und genau das ist das Problem: Bei einem neuen Rechner, der der Einfachkeit halber vier mal so viel Arbeitsspeicher wie ein anderer Rechner hat, wird man mit 8-facher Arbeit bestraft. Das dauert allerdings nicht 8 mal so lange, weil der neue Rechner hoffentlich schneller ist. Der Aufwand wächst überproportional an. Bei gleicher Problemgröße wird der neue Rechner auch schneller sein, aber optimal ist halt die volle Auslastung des Arbeitsspeichers. Mal Zahlwerte: Der Spitzenreiter der Liste vom Juni erreicht eine Leistung von 1026*10^12 FLOP/s bei einem Gleichungssystem mit 2236927 Unbekannten.
Ich nehme mal an, weil das Linpack zum Test schon jeher Matrizen multilplizier. Die fallen bei größeren Maschinen auch größer aus, weil immer gemessen wird, bis der Speicher voll ist.
Von kartoffel200 am Mi, 12. November 2008 um 15:11 #
Huj AMD mal wieder vorne. Zwar nicht bei Desktops aber in Sachen Supercomputer. Naja, eigentlich komisch warum Suse als OS eingesetzt wird, denn da sie ja eh einen modifizierten Kernel Smith vom A-Team nehmen. Man kann so weit ich weiß bei der Kernelkompilierung ja auch angeben für wie viel CPUs man hat, dann würde ja auch Debian oder RED HAT gehen.
AMD liegt nicht wirklich vorn, ist im Gegenteil sogar der letzte unter den großen Herstellern gemessen an der Anzahl der Systeme: http://www.top500.org/stats/list/31/procfam
Jaguar besteht nicht aus einem Computer mit Tausenden CPUs, sondern aus Tausenden Computern, die zusammenarbeiten, mit jeweils wenigen CPUs. Man kann hier also problemlos jede beliebige Distri einsetzen. Nur kann man nicht jede Distri so einfach an die besonderen Anforderungen im HPC anpassen. Außerdem schneidet Suse in den Benchmarks auf Kisten dieser Größe aktuell besser ab als RedHat.
SL wäre deutlich besser geeignet und wird auch öfter als Suse eingesetzt... nein, SUSE schneidet nirgends besser ab... zumal wie zu lesen vom "suse" nicht viel übrig geblieben ist.
Von schlaumaier am So, 16. November 2008 um 10:02 #
Vielleicht sind die alle einfach nur dumm und kenne sich nicht aus. Schick ihnen doch einfach mal ne email und biete Dich an. Mit Dir an der Entscheidungsspitze würde es solche extremen Fehlentscheidungen nicht mehr geben und würden noch ein Petaflop mehr rausholen.
Ich finde das unverantwortlich. Wieso wird nicht Ubuntu fuer diesen Rechner eingesetzt, schliesslich gibt es Ubuntu LTS.
Auf meinen Servern habe ich nur Ubuntu installiert
Kay
- Stardivision (StarOffice, Openoffice) wurde von Sun gekauft.
- SuSE von Novell aufgekauft.
- ATI (Kanada) von AMD gekauft.
- Innotek (VirtualBox) wird von Sun gekauft.
Nur SAP scheint in ihrer "Nische" weiterhin überleben zu dürfen.
Nur noch VIA bastelt an einem außeramerikanischen Prozessordesign. (China bastelt da auch noch was und ARM darf man natürlich nicht vergessen, aber es lebe die pauschale Verallgemeinerung...)
drauf laufen lassen. Wieso eine, wenn man auch alle haben kann ?!?
Alles was hier noch verwendet wird ist das Paketmanagement der Distro. Der Rest wird so massiv mit dem Hersteller
angepasst, dass von der original Distribution fast nichts mehr uebrig bleibt.
Wie welches Detailchen was bewirkt zu ergründen wäre müßig. Am Ende entscheiden einfach die Benchmarks.
Leute, sieht hier wirklich keiner die Ironie in diesem Posting?!
Aber ich frage mich ehrlich gesagt auch wieso die Suse nutzen, und warum überhaupt Linux...
Linux ist im Supercomputerbereich absolut führend. Wahrscheinlich weil es sich leichter anpassen lässt als proprietäre Systeme.
In-Boeser-Mann
http://www.nccs.gov/jaguar/
im Bereich Science wirst du fündig...
Dieser Algorithmus ist effizienter, wenn das Gleichungssystem möglichst groß ist, aber immer noch in den Arbeitsspeicher passt. Der benötigte Speicherplatz bei N Gleichungen mit N Unbegkannten ist etwa N^2 (doppelt so viele Gleichungen -> vier mal so viel benötigter Speicherplatz), der Rechenaufwand etwa N^3 (N doppelt so groß -> sogar acht mal mehr Aufwand). Und genau das ist das Problem: Bei einem neuen Rechner, der der Einfachkeit halber vier mal so viel Arbeitsspeicher wie ein anderer Rechner hat, wird man mit 8-facher Arbeit bestraft. Das dauert allerdings nicht 8 mal so lange, weil der neue Rechner hoffentlich schneller ist. Der Aufwand wächst überproportional an. Bei gleicher Problemgröße wird der neue Rechner auch schneller sein, aber optimal ist halt die volle Auslastung des Arbeitsspeichers.
Mal Zahlwerte: Der Spitzenreiter der Liste vom Juni erreicht eine Leistung von 1026*10^12 FLOP/s bei einem Gleichungssystem mit 2236927 Unbekannten.
http://netlib.org/benchmark/hpl/
Naja, eigentlich komisch warum Suse als OS eingesetzt wird, denn da sie ja eh einen modifizierten Kernel Smith vom A-Team nehmen.
Man kann so weit ich weiß bei der Kernelkompilierung ja auch angeben für wie viel CPUs man hat, dann würde ja auch Debian oder RED HAT gehen.
Jaguar besteht nicht aus einem Computer mit Tausenden CPUs, sondern aus Tausenden Computern, die zusammenarbeiten, mit jeweils wenigen CPUs. Man kann hier also problemlos jede beliebige Distri einsetzen. Nur kann man nicht jede Distri so einfach an die besonderen Anforderungen im HPC anpassen. Außerdem schneidet Suse in den Benchmarks auf Kisten dieser Größe aktuell besser ab als RedHat.