Login
Newsletter
Werbung

Thema: IBM baut weltgrößten Grid-Computer mit Linux

30 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von Booty am Mo, 13. August 2001 um 22:23 #
YEAH, jetzt noch Halflife für Linux auf diesem Rechner und ich bin zufrieden...

aber wahrscheinlich sollte man das Ding doch lieber für Sinnvolle zwecke nutzen..

schön für die Linuxgemeinde :-)

[
| Versenden | Drucken ]
0
Von Oliver am Mo, 13. August 2001 um 22:49 #
Wie schön, daß jemand am nächsten Internet arbeitet, nachdem Microsoft dabei ist, das bestehende zu monopolisieren und zu zerstören, während die OSS-Community zusieht.
[
| Versenden | Drucken ]
0
Von Christian am Mo, 13. August 2001 um 22:53 #
Was sagt eigentlich die Größeneinheit TFLOPS aus und wie schnell kann man mit der Maschinen eien Kernel kompilieren?
[
| Versenden | Drucken ]
0
Von Arni am Mo, 13. August 2001 um 23:53 #
Nicht schlecht! Wer weis in 20-30 Jahren hat vielleicht jeder "PC" so eine Leistung ;)
[
| Versenden | Drucken ]
  • 0
    Von Steffen am Di, 14. August 2001 um 00:49 #
    So etwas würde ich doch stark bezweifeln, daß die Leistungssteigerung bei den PC weiterhin so stark zunimmt. In der nächsten Zeit sind ein paar große Probleme in der Chipproduktion zu lösen. Alleine die Wärme die bei ein paar Milliarden Transistoren entsteht ist enorm. Auch die Kontakte am Transistor kann man nicht unendlich klein machen. Schon jetzt ist man in atomaren Größen in der Forschung. Bei den kleinsten Kondensatoren der Welt kann man sogar die Ladungssprünge sehen wenn ein Elektron auf den Kondensator fließt.
    Ich könnte mir nur vorstellen, daß Dual-Prozessor-Systeme billiger werden. Auch wenn diese nicht immer wirklich schneller sind hätte ich doch gerne so ein System. Gerade bei Visualisierungsprogramm die in der Industrie eingesetzt werden könnte man noch mehr Leistung gebrauchen. Hier an der Uni habe ich bereits ganze simulierte Industriehallen am Rechner gesehen. Echt beeindruckend. So im Visualisierungsbereich, CAD usw. kann man gar nicht genug Leistung bekommen.
    Ich wollte jetzt Deine Begeisterung aber nicht bremsen - auf solche Rechenleistung daheim darf man wenigstens träumen.
    [
    | Versenden | Drucken ]
    0
    Von BufferOverflow am Di, 14. August 2001 um 03:11 #
    Vieleicht braucht man keine Chips mehr in 20-30 Jahren.
    Stichwort: Quantenrechner, wenn die bis dahin einsetzbar sind.
    [
    | Versenden | Drucken ]
    0
    Von Steffen am Di, 14. August 2001 um 06:19 #
    Sorry, auch da muß ich Dich enttäuschen. Als normaler PC ist der Quantenrechner wohl nie zu gebrauchen.
    Unterhalte Dich bei diesem Thema einmal mit einem Physiker (ich bin leider keiner - bei mir hat es nur zum angehenden Elektrotechniker gereicht). Alle Physiker mit denen ich gesprochen habe bezweifeln stark das der Quantenrechner jemals zuverlässig funktioniert und als PC-Ersatz ist er sowieso nicht gedacht, da die Prinzipien wie er funktioniert grundlegend verschieden sind.
    [
    | Versenden | Drucken ]
    0
    Von Spack am Di, 14. August 2001 um 08:19 #
    @Steffen:
    Totgesagte leben bekanntlich laenger. Und das Moore'sche Gesetz ist noch ausserordentlich lebendig. Ich habe auch keine Ahnung, wie die bisherige Leistungssteigerung aufrecht erhalten werden kann. Aber bisher hat es noch immer wenn die aktuelle Technologie ausgereizt war rechtzeitig Verbesserungen und kleine "Revolutionen" in den Fertigungsmethoden und Designs fuer Chips gegeben. Ich halte es fuer gewagt, dem Moore'schen Gesetz ein baldiges Ende vorauszusagen...
    [
    | Versenden | Drucken ]
    0
    Von hjb am Di, 14. August 2001 um 08:43 #
    Das mit den 20 Jahren könnte hinkommen, so weit sind Supercomputer den normalen Computern voraus. Der Unterschied in Leistung und Speicherausbau ist ca. Faktor 10000. Bei einer Verdoppelung der Leistung jedes Jahr wäre dieser Faktor in 13-14 Jahren erreicht. Wahrscheinlich werden die PCs dann eine große Zahl von CPUs auf einem Chip enthalten.
    [
    | Versenden | Drucken ]
    0
    Von hook am Di, 14. August 2001 um 08:44 #
    Jaja, der Quantenrechner mit seinen dritten Zustand. Damit kann er die logischen Zustände "Ja", "Nein" und "Weiß nicht" belegen. Das macht ihn irgendwie menschlicher, oder :-)
    [
    | Versenden | Drucken ]
    0
    Von Steffen am Di, 14. August 2001 um 09:47 #
    Was die Geschwindigkeit der Supercomputer angeht ist diese relativ. Die Supercomputer setzen alle auf parallele Rechnung von komplexen Vorgängen. Da könnte ich Euch zustimmen, da wären auch beim PC Steigerungsmöglichkeiten da (siehe Dual-Prozessor-Systeme etc.). Eine kleine Rechenaufgabe um Euch meinen Standpunkt zu erklären: Kein Signal kann schnell als die Lichtgeschwindigkeit übermittelt werden. Da stimmt mir doch jeder zu, oder nicht? Ein heutiger PC erreicht ohne Probleme 1 GHz (1e^(9) 1/s), das macht also eine Zeitdauer eines Taktsignals von 1e^(-9) s. Das macht wiederum 1^(-9) * Lichtgeschwindigkeit = 0.30 (großzügig gerundet). Die Information konnte innerhalb eines Taktsignals also nur 30 cm weit kommen!!! So jetzt komm Du mir mal mit Deinem Moorschen Gesetz. In 20 Jahren wären es dann nicht einmal mehr Zentimeter, sonder schon Millimeter in denen wir uns dann bewegen würden. Klar ist das alles kein direkter Beweis, daß wir uns bald an die Leistungsgrenze heranbewegen, aber das läßt ein schon nachdenken, oder nicht?
    Aus diesem Grund denke ich, daß die Prozessoren der Zukunft wohl sehr viel mehr in Richtung parallele Datenverarbeitung gehen als bisher.
    [
    | Versenden | Drucken ]
    0
    Von Max am Di, 14. August 2001 um 10:00 #
    Ich glaube das einfach nur die bisherige Technik am Ende ist.
    Aber was ist mit diesen Experimenten wo Elemtarteilchen "gedoppelt" werden und Zustände _sofort_ übertragen sind?
    Vielleicht sollte sich mal wirklich hier ein Physiker einschalten.
    Bis jetzt wurde schon so oft gesagt das das Ende der Leistungssteigerung erreicht ist.
    Bei 100 MHz bei 1 GHz usw...bis jetzt ging es immer noch weiter.
    In der Forschung haben sie Transistoren die schon mit einzelnen Elektronen schalten. Sowas reduziert natürlich auch die Wärmeentwicklung.
    Was wäre wenn es Prozessoren gibt die sich nicht nur in 2 Dimensionen erstrecken sondern in 3? Warum nicht in die Höhe streben??
    Vielleicht kramen sie ja dazu passend wieder die alten Pläne mit flüssigkeitsgekühlten Chips raus...
    Wer will den hier wirklich behaupten das _jetzt_ das Ende der Fahnenstange erreicht ist? Oder überhaupt wo das Ende liegt??
    Will nur sagen bis heute gab es keins und wir werden es erst erfahren wenn es soweit ist...

    Gruss Max

    [
    | Versenden | Drucken ]
    0
    Von Arni am Di, 14. August 2001 um 10:23 #
    Deswegen der PC auch in Gänsefüsschen ;) Die Architektur wird natürlich ganz anders aussehen. Ob da nun die Optik ("Licht -schalter/leiter") oder die "Quantenmechanik" ins Spiel kommt weis heut noch keiner. Vielleicht wirds ja auch was ganz anderes?

    Auf jedenfall werden die meisten von uns den nächsten grossen Spung noch erleben: Die Ablösung der IBM-PC Architektur - und damit wieder StarTrek ein Stückchen näher ;)

    [
    | Versenden | Drucken ]
    0
    Von Steffen am Di, 14. August 2001 um 11:53 #
    @Max
    Ich habe nicht behauptet, daß jetzt bei 2 GHz oder so das Ende erreicht ist. Ich meine nur, daß das Moorsche Gesetz keine 20 Jahre mehr durchhält. Übrigens das mit Teilchen doppeln ist nicht haltbar. Wenn Du es schaffen würdest Informationen mit mehr als Lichtgeschwindigkeit zu transportieren wäre Dir der Nobelpreis sicher, da dies die Relativitästheorie über den Haufen werfen würde.
    Das mit der Bauweise in die 3. Dimension ist ein netter Vorschlag und so etwas könnte ich mir auch vorstellen, jedoch gäbe es Probleme mit der Wärmeentwicklung und soweit ich weiß ist nicht die Laufzeit auf den Leiterbanen das Problem, sondern die Schaltzeit der Transistoren.
    Meine These ist vielmehr, daß wir versuchen müssen die Verschaltung "intelligenter" zu machen. Das Gehirn kann bis heute sehr viel mehr leisten als alle bekannten Softwaresysteme und ich denke nicht, daß die Neuronen schneller schalten als unsere Transistoren. Im Grunde arbeitet das Gehirn mit sehr vielen parallel geschalteten Prozessen und schaut Euch nur an was dabei herauskommt!
    [
    | Versenden | Drucken ]
    0
    Von Steffen am Di, 14. August 2001 um 11:59 #
    peinlich, peinlich,.... vielleicht helfen mir dann die zukünftigen Prozessoren auch Rechtschreibfehler zu vermeiden. Es soll natürlich "Leiterbahnen" heißen.
    [
    | Versenden | Drucken ]
    0
    Von BufferOverflow am Di, 14. August 2001 um 12:25 #
    @ Steffen:

    Okay, Deine Bedenken beziehen sich aber nur auf den jetzigen Stand des Wissens, oder? Ich meine, so bescheuert sich das anhoert, aber die Erde war auch mal flach - weil es die Menschen nicht besser wussten.
    Wenn ich mir mal die ganzen Sendungen anschaue, die sich mit dem Weltall auseinandersetzen und saemtliche Physiker die Vorgaenge im All nicht mit dem jetzigen Stand der Technik erklaeren koennen, kommt mir der Gedanke, dass wir noch sehr viel NICHT wissen, was die Physik zu leisten vermag.

    Die einfachste Loesung waere allerdings wirklich massiv parallel rechnen zu lassen, natuerlich alles in einem Chip, sodass man nicht den ganzen Raum mit CPUs pflastern muss.

    [
    | Versenden | Drucken ]
    0
    Von Max Moritz am Di, 14. August 2001 um 14:23 #
    Die verschränkten Quanten haben immer den selben Zustand. Wenn man das eine beeinflusst, beeinflusst man das andere auch. Die Information wird also ohne Zeitverlust übertragen (also schneller als die Lichtgeschwindigkeit im Vakuum). Dafür wurde glaube ich auch der Nobelpreis vergeben. Die Relativitätstheorie wird allerdings immer noch als wahr angenommen, da ja nur etwas virtuelles übertragen wird, sich aber nichts so schnell bewegt. Es könnte auch sein, dass es ansich nur ein Quant ist, der in einer andere Dimension ist und in unseren 4 Dimensionen an zwei Stellen auftaucht. Wir können uns soetwas zwar ansich nicht vorstellen, aber das ist ungefähr so wie mit dem 2-D Mann (ansich 3-D wegen der Zeit), der sich nicht erklären kann, wie man seinen Kollegen weggezaubert hat, wenn man ihn in der dritten Raumdimension heraus geholt hat.


    Nun zum Thema Fortschritt:
    Opticom hätte schon vor Jahren den Prozessoren- und Speichermarkt revolutionieren können, doch dann wurde es auf einmal still und als die Firma wieder auftauchte, hatte Intel sie aufgekauft. Nun dauert es noch mehrere Jahre bis Jahrzehnte bis die Technologie auf den Markt kommt.
    http://www.enddeluxe.de/opticom_de.html

    [
    | Versenden | Drucken ]
    0
    Von Arni am Di, 14. August 2001 um 14:48 #
    @Max Moritz
    Ich vermute auch das wir technisch schon weiter sind als man aktuell denkt. Vieles aus den Laboren wird bewusst nicht öffentlich gemacht und wenn es halt eine Firma ist wird sie aufgekauft. Das Beispiel Opticom mit ihrem "bio-Chip" im Terrabyte Bereich zeigt das deutlich. Der gesamte Hardwaremarkt würde von heute auf Morgen einbrechen weil keiner mehr dann diese "mittelalterlichen Silizium-Chips" kaufen würde.

    Ich möchte nicht Wissen an was für Sachen im Hardwarebereich schon in irgendwelchen Labors gebastelt, was dann aber die Menschheit nie zu Gesicht bekommen wird, Geschweige das es sich mal in einem kaufbaren Stück widerfindet.

    [
    | Versenden | Drucken ]
0
Von tman am Di, 14. August 2001 um 09:32 #
@Steffen
und wie sieht es mit optischen System aus?
AFAIK würden die doch mehr Leistung bringen und dabei einige Grundsätzliche Probleme Lösen. Außerdem sollten die dann doch sogar im Weltraum stabil funktionieren, da Licht sich ja für die Umbgebung eigentlich eher weniger Interessiert...


tman

[
| Versenden | Drucken ]
  • 0
    Von Steffen am Di, 14. August 2001 um 11:41 #
    Ich wüßte nicht wie man so etwas komplexes wie einen Prozessor auf Lichtbasis (mit Glasfaser etc.) bauen könnte, aber wer weiß was die Zukunft bringt. Auf dem Gebiet kenne ich mich aber auch nicht so gut aus. Nur bedenke die Glasfaser hat auch so seine Probleme. Auf langen Strecken "verlaufen" z.B. die Signale, da manche Wellenlängen länger brauchen als andere und das gibt am Leitungsende einen Wellenbrei. Es gibt da noch eine Reihe andere Phanomene, auf die man als Laie gar nicht kommt.
    [
    | Versenden | Drucken ]
    0
    Von BufferOverflow am Di, 14. August 2001 um 12:29 #
    Hab mal mit nem Bekannten gesprochen, der bei ner Tochterfirma von HP arbeitet (er macht da irgendwas mit Optik). Er hat mir mal nen Hinweis gegeben, dass man bei den grossen Firmen schon lange an optischen Systemen arbeitet und man doch staunen muss, wie weit die sind. Er hat nix Konkretes gesagt, wuerde aber auch nicht einfach "so rumlabern".

    Nur ist das meiste vieleicht schon tot, bevor es das Labor verlaesst.

    [
    | Versenden | Drucken ]
0
Von Pierre am Di, 14. August 2001 um 10:23 #
Um schon einen Vorredner aufzugreifen:

Es geht tatsaechlich im Grid nicht darum, einen einzigen Supercomputer zu bauen, sondern die Rechenleistung vieler Computer fuer noch viel mehr kleinere Rechnungen auszunutzen.
Ich weiss leider selber auch nicht die genauen Details des Grid, aber aus der Erfahrung weiss ich, dass bei vielen physikalischen Simulationen nicht nur hohe Rechnenleistung sondern auch hohe Speicherkapazitaet benoetigt wird. Ein Rechencluster mit zentraler Datenspeicherung ist deshalb nicht gerade effizient. Das Grid - wie auch immer das technisch realisiert ist - verteilt sowohl Rechnenzeit als auch Speicher.
Aber ich werde mich wohl mal erst noch genauer einlesen muessen um das Design genauer zu vestehen....
gruss Pierre

[
| Versenden | Drucken ]
0
Von Steffen am Di, 14. August 2001 um 22:00 #
Als Elektrotechniker möchte ich mich jetzt auch auf dem Gebiet der Quantentechnik nicht blamieren, da ich schließlich eine solche Vorlesung nicht höre. Ich kann mich aber noch einmal erkundigen wie es da ausschaut (mein Bruder hat Physik studiert, der wir mir das genauer erklären können).
Ich wollte nur noch einmal sagen, daß es eine tolle Diskussion war. Nicht nur immer der Streit von Schüler ob KDE oder Gnome besser ist - schon erstaunlich, daß man sich über dieses Thema nach mehreren Tausend Postings zu diesem Thema immer noch streiten kann.
[
| Versenden | Drucken ]
0
Von MS Master am Mi, 15. August 2001 um 20:21 #
@Steffen

Hi, du schreibst weiter oben, das es Unmöglich ist, "etwas" schneller als das Licht zu transportieren.

Tja, dann hast du wohl noch nie was von "Tunnelung" gehört, nämlich genau dafür haben 1998 3 Forschungsgruppen ( Deutschland, Schweiz und USA ) in Angewandter Physik den Nobelpreis bekommen, weil Sie es geschafft hatten Daten zwischen 1,5 und 4,8 Facher Lichtgeschwindigkeit zu übermitteln !!!!

Von daher erst Informieren, bevor du behauptest, Einstein sei GOTT gewesen.

Auch Einstein war nur ein Mensch, und Quantenphysiker können über Lichgeschwindigkeit nur milde "lächeln" , da die quasi "jeden Tag" Elementarteilchen schneller als das Licht bewegen.

mfg

MS Master

[
| Versenden | Drucken ]
0
Von Steffen am Sa, 18. August 2001 um 15:39 #
@MS Master
Auf Quantenebene herrschen teilweise andere Gesetze als in der "klassischen" Physik. Auf Quantenebene kann man tatsächlich Informationen schneller übermitteln, jedoch auf
den Leiterbahnen der Mikrochips muß man die Lichtgeschwindigkeit als höchste
mögliche Geschwindigkeit annehmen. Ob man jetzt Elektronen nimmt oder Licht als
Informationsträger macht da keinen Unterschied. Ich kenne den Tunneleffekt, jedoch wird man
diesen Effekt wohl kaum auf den Leiterbahnen benutzen können. Wenn man ein Elektron auf
Lichtgeschwindigkeit beschleunigen könnte würde es eine unendlich große Masse bekommen und eine
unendlich große Energie wäre dafür nötig.

Ich habe übrigens nicht behauptet Einstein sei Gott gewesen, nur das seine Relativitätstheorie
als bewiesen gilt (man beachte aber das man immer noch von einer "Theorie" spricht). Nur
habe ich mich bei meinen Überlegungen nicht auf die Quantenmechanik bezogen. Wie ich schon
oben geschrieben habe denke ich das auf den Leiterbahnen die Quantenmechanik nicht zu gebrauchen
ist und deswegen meine Argumentation mit Einstein sehr wohl Sinn macht.

[
| Versenden | Drucken ]
  • 0
    Von Feynman am So, 19. August 2001 um 18:31 #
    Die Quantenmechanik ist eine Theorie der kleinen Dimensionen. Noch sind die Leiterbahnen so gross, dass "klassische" elektronische Leitung stattfindet. Unterhalb einer bestimmten Groesse koennen Elektronen dann von einer Leiterbahn in eine andere "tunneln", das bedeutet, sie verlassen das Potential des Leiterbahn mit einer sehr kleinen Wahrscheinlichkeit -- also nicht verhinder- und nicht induzierbar -- und bewegen sich in eine benachbarte hinein. Damit wird der Leitungsprozess natuerlich gestoert und das Bit kommt nicht da an, wo es soll. Zudem koennen solche Kurzschlussstroeme kleine Gebiete des Chip zerstoeren.
    Das Tunneln hat nichts mit Ueberlichtgeschwindigkeit zu tun.
    Nach den aktuellesten Erkenntnissen ist jegliche Materie den Beschraenkungen der speziellen Relativitaetstheorie unterworfen, wie Steffen richtig formuliert hat.

    Der Nobelpreis 1998 und die vielen aehnlichen Experimente der Optik haben sogenannte "verschraenkte Zustaende" zum Thema, die sich bisher am einfachsten mit Photonen realisieren lassen, aber auch mehrere Atome sind schon in verschraenkte Zustaende gebracht worden. Verschraenkte Zustaende beruhen auf dem Wahrscheinlichkeitscharakter der Quantenmechanik. Wenn man ein System aus zwei Teilchen mit Gesamtspin Null hat, zum Beispiel Spin up und Spin down und trennt diese Teilchen unter bestimmten Bedingungen, bei denen ihre Spineinstellung erhalten bleibt, und misst dann den Spin des einen Teilchens, so ist auch der andere bekannt (wegen des Gesamtspin Null).

    Mit verschraenkten Photonen kann jedoch keine Information von einem zum anderen Teilchen uebertragen werden. Der Informationsuebertrag ist damit weiterhin durch die Lichtgeschwindigkeit begrenzt.

    Quellen: Spektrum, Bild der Wissenschaft, Physikalische Blätter und die Homepage von Anton Zeilinger an der Uni Wien.

    P.S.: Ich halte mich nicht fuer Feynman. Ich bin nur von seiner Art zu denken und zu erklaeren begeistert.

    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung