> Das Unternehmen hat 451 Mitarbeiter, davon sind 300 Programmierer.
Das ist aber viel. Normalerweise hat man doch nur ein Viertel Programmierer, zehn Prozent Verwaltungskräfte und Sekretärinnen und der Rest sind Anwälte und Notare. Warum ist das hier anders?
Soll das heißen, man hatte hunderte gut ausgebildete und erprobte Anwälte in die freie Wildbahn entlassen? Wer soll das denn verantworten, man stelle sich nur vor, was schon einer von denen anrichten kann!
Indien / Sri Lanka -- die haben generell hoehere Entwicklerdichte. Die Kompetenz und Fluktuation ist dort aber auch breiter gestreut als in Europa oder US... schwarze Schafe gibt's aber ueberall.
Naja, auf Solaris zu setzen würde ich in der jetzigen unklaren Situation mit der Übernahme von Sun durch Oracle für etwas riskant halten. Niemand weiß, was Oracle mit Solaris tun wird. OK, es gibt zwar das Versprechen von Oracle, mehr in Solaris zu investieren, es wurde aber nur gesagt, dass mehr in den Verkauf und den Service investiert wird - nicht in die Entwicklung.
Die Linux-Entwicklung ist viel weiter verbreitet und nicht von einem einzelnen Hersteller abhängig.
Solaris rockt einfach. Nun ja, hab ehrlich zwar noch nicht so viel Erfahrung damit, aber habs mir letztens installiert. Allein schon was man mit DTrace reißen kann ist unglaublich. Viele Programme, zB postgres, liefern DTrace-Probes (im Prinzip Einstichstellen im Programm). Da kannste dann gucken, wie oft eine bestimmte Funktion mit welchem Argument aufgerufen wird. (Schon immer gefragt, warum Programm XY so lahm ist bzw. wie du es optimal tunen kannst ohne die Nadel im Heuhaufen zu suchen?) Oder ZFS... Das ist wie Timemachine unter Apple, nur Rocksolid im System integriert, du kannst sogar im Bootmanager Savepoints booten.
Und du kannst mit SunStudio mit ein paar Mausklicks einen Dummy-Gerätetreiber erstellen und auf eine Solaris-Installations-CD brennen... ;-)
Denke dass Solaris durchaus seine Berechtigung hat, insbesondere auch in Bezug auf Datenbanksysteme. Abgesehen davon hat es vernünftiges Multithreading und läuft auch auf Viel-Kernsystemen gut. (Linux hatte bei 2.4 nichtmal echtes Multithreading, sondern hat für jeden Thread einen neuen Prozess aufgemacht.)
Abgesehen davon... Linux hat auch durchaus seine nervigen Seiten, ist also mit Sicherheit nicht der Weisheit letzter Schluss...
Wir reden aneinander vorbei. Ich bezweifle nicht die großartigen technischen Möglichkeiten unter Solaris. Ich frage nur nach der Zukunftssicherheit. Was passiert, wenn Oracle Solaris fallen lässt?
Das ist ja gerade mein Argument. Oracle versucht schnelle Datenbankkomplettlösungen zu verkaufen, da bietet Solaris sehr viele Möglichkeiten. Mit Sicherheit wird Linux diese Features auf die eine oder andere Weise mit der Zeit nachahmen. Die Frage ist allerdings, wie lange das dauert, ob das genug Stabilität für ein Produktionssystem ist und ob Solaris in der Zeit nicht schon wieder weitere tolle Features hat. Denke dass daher die Zukunftssicherheit gegeben ist.
Jetzt stellt sich natürlich die Frage ist Multiprocessing oder Multithrading besser?
Die Threads sind sicher für den Programmierer leichter zu handhaben, jedoch wenn ein Thread abstürzt, reißt er den ganzen process mit sich.
Richtung Performance sind doch aber die Prozesse auch besser, oder nicht? Mehrere Threads laufen in einem Prozess und werden abwechselnd behandelt also kommen nicht bei jedem Prozess-Durchlauf dran. oder lieg ich da jetzt falsch???
Ist tatsächlich schneller. Das Scheduling geht übrigens genau wie bei Prozessen auf verschiedene Art und Weisen. Mag sein dass die rein theoretisch nicht bei jedem Prozessdurchlauf drankommen. Aber wenn du überlegst, dass ein normaler Prozessor 1 Milliarde Taktzyklen hat, ist sicher auch bei vielen Prozessen noch genug Platz noch einmal den Thread zu wechseln.
> Die Ausführung einer Order mit TradElect und .Net dauert 2,7 Millisekunden, das Linux-basierte Chi-X (anderes System) braucht 0,4 Millisekunden.
Das sagt jetzt aber nichts über die Geschwindigkeit von MillenniumIT oder eines anderen, beliebigen Systems aus, welches unter Linux läuft. Für einen solchen Test braucht man Produkt A auf Plattform D und Plattform E, und nicht Produkt A auf Plattform D und Produkt B auf Plattform E. Wenn man nur wissen will, ob die Kombination (A,D) oder (B,E) schneller ist, dann darf man nicht (A,D) und (C,E) heranziehen.
Das geht doch .NET, dass man in solchen Umgebungen derart unflexible crappy Software wie Windows und .NET einsetzt. Da muss man sich nicht wundern, wenn die Kosten explodieren und die Leistung in den Keller geht. Siehe dazu auch Hilti... mit Lösungen von Red Hat auf einmal nur noch die Hälfte der Kosten bei einer um 100 Prozent gesteigerten Leistung.
Endlich kommen die Firmen drauf, dass dieser .NET Müll nur elend langsam ist und extrem viel Ressourcen verbraucht. M$ hat es geschafft ein Toolkit zu bauen das noch langsamer ist als Java.
Den Eindruck bekommt man auch, wenn man einfach nur Java-Software benutzt. Mir über den Weg gelaufen sind in den letzten Jahren: Eclipse, Netbeans, Pauker, jDownloader, zwei Filmsammlungsverwaltungsprogramme, und noch ein paar Alle hatten drei Sachen gemeinsam: Sie sind in Java geschrieben, träge und stechen optisch sehr aus dem restlichen System heraus. Hast du Gegenbeispiele? Würde mich wirklich mal interessieren.
Mit .NET ist Microsoft ein ganz großer Wurf gelungen. Eine damit erstellte Applikation ist "Rock Solid". Sicherheitstechnisch sind mir bisher bei der CLR keine großartigen Schreckensmeldungen bekannt. Java hat zwar nachgezogen, trotzdem halte ich (subjektiv) den Garbage Collector von .NET wesentlich leistungsfähiger. Java 7 wird es aber mit dem "Garbage-First" schon richten.
Schade das .NET sich in den letzten 2-3 Jahren in die falsche Richtung entwickelt. Alles mögliche wird reingestopft und es bläht sich langsam auf und wird unübersichtlich. Bei Real-Time-Applikationen und deren (langsame) Reaktionszeiten würde ich viel mehr das Betriebssystem verantwortlich machen.
Interessant finde ich auch, daß sie die IT wieder insourcen. Da haben wohl ein paar BDL- Dummbacken gemerkt, daß sie am absolut falschen Ende sparen wollten.
Hoffentlich fallen sie nun ein zweites mal auf die Schnauze, weil sie ihre IT- Truppe für ein paar Sack Reis in der 3. Welt eingekauft haben (nicht, daß die nicht programmieren könnten, aber da wird es wohl beträchtliche kulturelle Unterschiede geben; beginnend bei der Verständigung auf Englisch ;-)
Das ist bei den Engländern in England auch so. Und wenn ich an meinen letzten Aufenthalt in Bayern denke... Der war zu kurz, das hat zum Einhören nicht gelangt.
Das ist aber viel. Normalerweise hat man doch nur ein Viertel Programmierer, zehn Prozent Verwaltungskräfte und Sekretärinnen und der Rest sind Anwälte und Notare. Warum ist das hier anders?
Weil sie gekauft wurden.
Grüße aus dem FF2.0
Die Linux-Entwicklung ist viel weiter verbreitet und nicht von einem einzelnen Hersteller abhängig.
Und du kannst mit SunStudio mit ein paar Mausklicks einen Dummy-Gerätetreiber erstellen und auf eine Solaris-Installations-CD brennen... ;-)
Denke dass Solaris durchaus seine Berechtigung hat, insbesondere auch in Bezug auf Datenbanksysteme. Abgesehen davon hat es vernünftiges Multithreading und läuft auch auf Viel-Kernsystemen gut. (Linux hatte bei 2.4 nichtmal echtes Multithreading, sondern hat für jeden Thread einen neuen Prozess aufgemacht.)
Abgesehen davon... Linux hat auch durchaus seine nervigen Seiten, ist also mit Sicherheit nicht der Weisheit letzter Schluss...
ist Multiprocessing oder Multithrading besser?
Die Threads sind sicher für den Programmierer leichter zu handhaben,
jedoch wenn ein Thread abstürzt, reißt er den ganzen process mit sich.
Richtung Performance sind doch aber die Prozesse auch besser, oder nicht?
Mehrere Threads laufen in einem Prozess und werden abwechselnd behandelt
also kommen nicht bei jedem Prozess-Durchlauf dran.
oder lieg ich da jetzt falsch???
Das sagt jetzt aber nichts über die Geschwindigkeit von MillenniumIT oder eines anderen, beliebigen Systems aus, welches unter Linux läuft. Für einen solchen Test braucht man Produkt A auf Plattform D und Plattform E, und nicht Produkt A auf Plattform D und Produkt B auf Plattform E. Wenn man nur wissen will, ob die Kombination (A,D) oder (B,E) schneller ist, dann darf man nicht (A,D) und (C,E) heranziehen.
SCNR
Ein Glück wachen immer mehr Unternehmen auf.
Ansonsten natürlich:
++
Besonders lustig:
Benefits
Substantially faster for trades than previous system
One hundred per cent reliable on high-volume trading days
siehe dazu:
http://news.cnet.com/8301-13846_3-10036286-62.html
Der Jupp
Eclipse, Netbeans, Pauker, jDownloader, zwei Filmsammlungsverwaltungsprogramme, und noch ein paar
Alle hatten drei Sachen gemeinsam: Sie sind in Java geschrieben, träge und stechen optisch sehr aus dem restlichen System heraus.
Hast du Gegenbeispiele? Würde mich wirklich mal interessieren.
Speicherbedarf von zB Eclipse.
Aber: Es kann halt nicht sein, was nicht sein darf.
Der Omega13.
Sicherheitstechnisch sind mir bisher bei der CLR keine großartigen Schreckensmeldungen bekannt.
Java hat zwar nachgezogen, trotzdem halte ich (subjektiv) den Garbage Collector von .NET wesentlich leistungsfähiger.
Java 7 wird es aber mit dem "Garbage-First" schon richten.
Schade das .NET sich in den letzten 2-3 Jahren in die falsche Richtung entwickelt. Alles mögliche wird reingestopft und es bläht sich langsam auf und wird unübersichtlich.
Bei Real-Time-Applikationen und deren (langsame) Reaktionszeiten würde ich viel mehr das Betriebssystem verantwortlich machen.
Gruß vom Schlitzer
Hoffentlich fallen sie nun ein zweites mal auf die Schnauze, weil sie ihre IT- Truppe für ein paar Sack Reis in der 3. Welt eingekauft haben (nicht, daß die nicht programmieren könnten, aber da wird es wohl beträchtliche kulturelle Unterschiede geben; beginnend bei der Verständigung auf Englisch ;-)
http://de.wikipedia.org/wiki/Sri_Lanka