Von pusteblume am Di, 11. November 2003 um 20:15 #
Entschuldige das ich einfach mal so Frage ohne KTFL "Klick the fucking Link" oder so ;) Ich denke Leute die sich damit auskennen, können das in einfachen Worten und präziser erklären als das Marketinggeblubber was man sicherlich dort vorfindet.
Nene, war ja auch kein Vorwurf. Aber ich meinte die andere prolinux Nachricht: http://www.pro-linux.de/news/2003/6105.html Da stand das schon mal. Aber klar kannste fragen
das ist genau der trick: vmware emuliert keine hardware. vmware emuliert auch keine software. vmware stellt virtuelle hardware in pseudogeräten innehalb einer sandbox zur verfügung.
vpc dagegen emuliert hardware (deswegen ist es auch diese apple/mac geschichte möglich). nachteil: die emulation eines befehls veranschlagt bei der real-cpu mind. 3 rechenschritte um ein angenähertes ergebniss zu erziehlen, während bei einer virtualisierung mit einem rechenschritt ein richtiges ergebniss erzielt wird. den tierischen geschwindigkeitsnachteil verringert vpc dadurch, daß einige befehle nicht innehalb der sandbox bleiben, sondern vom hostsystem übernommen werden. meiner meinung nach ein durch und durch 'lückenhaftes' konzept...
Das wäre dann ähnlich wie Win4Lin? Dort werden eigentlich alle Befehle direkt vom Host emuliert und Win4Lin bastelt sich da per Patch tief in den Linuxkernel ein. Win4Lin reisst dann auch schnell mal das gesamte Hostsystem in den Keller (mir selbst passiert). Wenn VMware abkackt interessiert das Linux wenig, da es nur normale Userprozesse darstellen.
Von Matthias Bläsing am Di, 11. November 2003 um 21:58 #
Einspruch euer Ehren!
Aber bei der Masse an Kernelmodulen die vmware braucht (vmnet, vmmon, ...) möchte ich nicht wissen, was das Ding an Strukturen das Ding im Kernel beim Abstüren versemmeln kann....
> Win4Lin bastelt sich da per Patch tief in den Linuxkernel ein.
Nein, da werden ein paar grundlegende Patches für die Speicherverwaltung gemacht (das ist notwendig, damit Windows parallel ablaufen kann) und eine Treiberschicht eingezogen, über die die Merge-Treiber dann mit dem Kernel kommunizieren. Viel was anderes als z.B. der Nvidia-Treiber ist das auch nicht.
Meiner Erfahrung nach ist das alles sehr stabil, Du kannst problemlos 10 oder mehr parallele Sessions auf einer Kiste fahren und es stürzt über Monate nicht ab. Die Technik basiert auf dem alten DOS/Merge, das es früher auf SCO Unix gab (als das noch jemand eingesetzt hat) und ist wohl mehrere 100.000 mal im Einsatz weltweit (hauptsächlich Behörden und große Firmen). Wenn das so instabil wäre, wie Du behauptest, wäre es schon schlimm.
Meiner Ansicht nach ist weder der Patch noch der Treiber Schuld an evt. auftretenden Abstürzen sondern das Flickwerk an Patches der Distributoren, die alle wieder Auswirkungen auf Win4Lin haben. Mit den Standard-Kernels ist mir jedenfalls noch nie was passiert. Ich hatte einmal ein Problem mit dem 2.4.18-Kernel und es hat sich im Nachhinein herausgestellt, dass schlechter Speicher (DDR 2100) der Grund war. Die Bausteine haben manchmal das Timing nicht hingekriegt und schon stand die Kiste.
Es gab arge Probleme mit der Netzwerkimplementierung und der Winsock2. Abstürze und Freezes etc. Netraverse hat dann ein Script/Hilfetext herausgebracht um über NAT das Netzwerk des Hosts zu nutzen. Win4Lin war durchaus mal eine ziemlich instabile Angelegenheit. Die Technologie des DOS-Merge ist zwar ziemlich ausgereift, aber die Implementierung bei Win4Lin war/ist es nicht unbedingt.
währe auch ein wunder, nachdem ms das teil ja als "migrationshilfe" zu windows verkaufen will. und sicher denken sie nicht in erster linie an migration von w2k auf wxp, sondern an fremd-betriebssysteme.
schade, daß es mit emulatoren für linux nicht so toll aussieht. vmware ist zu teuer und mit bochs ist zwar ein anfang gemacht, aber leider habe ich es noch nicht geschafft dort eine suse 8.0, 8.1, 8.2 oder 9.0 zu installieren. das debian-image hatte ich auch schonmal versucht, daß es dort zum download gibt. bootet zwar prima, man kann auch damit arbeiten. doch wenn man ca 30 sek. nichts tut, hängt das teil und man kann nichts mehr eingeben. oder wenn man kurz mit alt+tab zu einem anderen fenster wechselt und zurück das selbe problem (das aber nur manchmal). aber was hilft mir ein virtueller pc, den man keine 30 sek unangetastet lassen kann, damit er geht. irgendjemand ideen, tips,...?
Klar, fast 300 Dollar ist nicht wenig Geld. Dafür ist das Teil aber ziemlich ausgereift. Für einen Zweit bzw. Dritt-PC ist das wiederum auch wenig Geld Fehlt nur noch bessere Unterstützung für Midi und kleinere Latenzen für ASIO-Kram, dann würde ich meine Windows-Partition sofort löschen :)) Win4Lin ist noch recht schnell und erheblich billiger. Dafür patcht es den Kernel und ist nur für bestimmte Windows-Versionen gedacht. Mir hats nicht zugesagt, aber ich denke das es trotz allem eher als Bochs geeignet ist.
Und was ist mit plex86? Dafür gibt's schon einen ebuild, für faumachine nicht. Was allerdings nichts heißen soll. http://savannah.nongnu.org/projects/plex86/ Lars.
Von Tinky Winky, Dipsy, Laa-Laa un am Mi, 12. November 2003 um 10:18 #
Also irgendwie sieht es mir so aus, als ist deren Ziel eine VM für Linux (und OpenBSD) zu entwickeln, auf der dann Linux läuft.
Sinn macht das vor allem, wenn man ein Programm installieren möchte, daß root-Rechte braucht und man selber nur user-Rechte hat, denn FauMachine istalliert man schließlich auch bloß mit user-Rechten.
Aber der Spezialfall wird nur bei sehr wenigen Usern eintreffen. Gewöhnlich möchte man doch auf seinem Linux eine VM haben, in der eben nicht Linux läuft, sondern MS-Windows, DOS, QNX, OS/2 oder was auch immer. Programme die auf Linux laufen, kann man doch (sofern man auch root-Rechte hat) immer auch auf seinem Host-System installieren, da braucht man doch nicht noch mal Linux als Gast-System.
Um das etwas zu präzisieren: FAUmachine braucht einen angepaßten Linuxkernel, den es fertig nur für ein paar Distributionen gibt. Auf der mit suse9 gelieferten FAUmachine konnte ich jedenfalls nur suse82 booten. Während CPU-lastige Prozesse mit angemessener Geschwindigkeit abzulaufen scheinen, ist das Display/Tastatur/Maus-seitig nicht der Fall. Schon der Bootlader-Splashscreen der suse-Installations-CD präsentierte das Problem, daß die Auswahl einer Bootoption länger dauerte als die Wartezeit...nach mehreren, durch derartige Komplikationen verursachten Anläufen habe ich jetzt ein funktionierendes suse82 in der FAUmachine am Laufen, inklusiver KDE. Aber eben unakzeptabel lange Startzeiten für KDE-Programme, ruckelige Mauscursorbewegung, was bei der Auswahl von Menüpunkten nervt, merkliche Verzögerung, bis ein Tastaturanschlag auf dem Display erscheint, verhindern ein gewohnt flüssiges Arbeiten. Die Kiste, in der das läuft, hat einen Athlon 2000+, 640M RAM; vorher war ein Duron800/128MB Ram drin, aber auch damit lief KDE ordentlich. Der Performance-Vergleich virtueller Maschinen im FAUmachine-Artikel des aktuellen Linux-Magazins ist insofern irreführend, als eben die Dauer einer Kernelkompilation nicht das ausschlaggebende Kriterium ist. Daß die FAUmachine da praktisch gleichauf mit vmware ist, glaube ich durchaus, aber in der Benutzerinteraktion ist sie es bei weitem nicht.
Von sputnik1969 am Di, 11. November 2003 um 22:16 #
> Klar, fast 300 Dollar ist nicht wenig Geld. Dafür ist das Teil aber ziemlich ausgereift. > Für einen Zweit bzw. Dritt-PC ist das wiederum auch wenig Geld
Sorry, wenn ich dir sagen muss, das ich für 300 eine PC zusammenbauen kann, auf dem die meiste (wenn nicht sogar jede) Software schneller läuft als auf einer VirtualPC-Emulation auf einem aktuellen Rechner. Davon abgesehen, das der Rechner, den man zum Emulieren benutzen würde damit auch "frei" ist und nicht wertvolle Resourcen verschwendet werden. Für Leute mit wenig Platz mag es ja eine Alternative sein, für alle anderen würde ich empfehlen für 'nen Appel und ein Ei eine "alte Kiste" zu kaufen und sie zu vernetzen oder besser einen billigen Rechner aus "veralteten" Teilen zu kaufen (einen kleinen Duron baue ich dir für weniger als 250 neu zusammen). Das ist allemal besser als M$ sein Geld in den Rachen zu schmeissen
Die CPU dreht doch bei den meisten modernen Rechnern sowieso die grösste Zeit Däumchen So ein Emulator wie VMware klaut da kaum wertvolle Resourcen die irgendwo dann fehlen. Zudem läuft Windows SUbjektiv mit nahezu nativer Geschwindigkeit - die meisten können zumindest im Vollbildmodus keinen merklichen Unterschied feststellen. Grade wenn man auch mal was unter Windows entwickelt oder mal kurz sein Steuerprogramm unter Windows nutzen muss etc. wäre ein zweiter Rechner einfach Unsinn :)
Ne alte Kiste fürn Server, der dann möglichst ohne grossen Krach und viel Stromverbrauch den ganzen Tag läuft ist natürlich was anderes. Auf Windows nen Emulator in dem dann ein Linux-Server läuft... nee, das wäre dann schon wie Perlen vor die Säue werfen :)
Von Jörg W Mittag am Mi, 12. November 2003 um 22:56 #
Von Hardware-Virtualisierung spricht man, wenn vorhandene Hardware virtualisiert, das heißt in einer oder mehreren virtuellen Maschinen zur Verfügung gestellt wird. Das macht z.B. VMWare, plex86 oder bspw. die LPAR-Technologie auf IBM eServer.
Von Emulation spricht man, äh, ja, wenn eben die Hardware vollständig emuliert wird. Das machen z.B. Bochs und Connectix, äh ich meine Microsoft Virtual PC.
Vielleicht wird das an einem Beispiel klarer: Virtual PC läuft auf dem Macintosh, weil es einen Intel-kompatiblen Prozessor emuliert. VMWare läuft nicht auf dem Macintosh, weil es auf dem Macintosh keinen Intel-kompatiblen Prozessor gibt, den man virtualisieren könnte.
Natürlich emuliert VMWare auch einen Teil, z.B. muss es ja den Protected Mode des Prozessors emulieren, weil sonst das Betriebssystem aus der virtuellen Maschine ausbrechen könnte. Grafikkarte, Netzwerkkarte und Festplatten werden auch emuliert. Aber die CPU wird eben nicht emuliert, daher läuft VMWare potenziell schneller, braucht aber dafür eine Intel-kompatible CPU. Reine Emulatoren wie z.B. Bochs laufen dafür prinzipiell auf jedem Betriebssystem auf jeder Prozessorplattform, sofern es einen C-Compiler dafür gibt. Im Handbuch von Bochs steht z.B. dass es erfolgreich auf Windows/x86, Linux/x86, FreeBSD/x86, OpenBSD/x86, BeOS/x86, Solaris/Sparc, Linux/PowerPC, Linux/Alpha, MacOS/PowerPC, IRIX/MIPS, BeOS/PowerPC, Digital UNIX/Alpha und AIX/PowerPC getestet wurde.
Und wenn ich mehr als ein anderes OS (oder ein anderes OS mehrmals) gleichzeitig benötige? Stelle ich mir dann 2, 3, 4 viele alte Kisten hin? Ich finde VMware genial. Mit genügend RAM simuliere ich ein heterogenes Netz und kann wunderbar "spielen" bevor ich mich an das Richtige wage. Mir hat das jedenfalls schon des öfteren sehr geholfen.
Für Professionells sind die 300 USD nicht zu viel. Bei dem, was geboten wird.
Von Fluffy Clouds am Mi, 12. November 2003 um 14:26 #
Versuche mal bei deinen physikalischen Rechnern eine Session einzufrieren bzw. einen Snapshot zu machen um dann genau an dieser Stelle weiterzumachen? Bei VMware reicht dazu ein Knopfdruck! Wenn ich mir einen Snapshot eines frisch installierten Windows gemacht habe, kann ich jederzeit dahin zurückkehren... Ideal zum Testen von Software, Installationsroutinen etc.
VMware ist mehr als nur ein popelige virtuelle Maschine und sein Geld allemal Wert.
Von spellchecker am Di, 11. November 2003 um 21:40 #
er wollte auf den tippfehler Virutal anstelle von Virtual hinweisen. ist endweder schon gefixt oder nie vorhanden gewesen ^^ (oder findet ihn wer? ich nit 0o)
Besser wäre es Virtual PC würde LINUX nicht unterstützen, denn so sind gewollte bzw. gezielt manipulierte Abstürze von LINUX in der BOX doch vorprogrammiert oder wie sehr ihr das!
mittlerweile weiss doch jeder das linux sehr stabil ist. abstürze würde man dann doch sofort dem Virtual PC zuordnen und nicht Linux. wenn vmware bei win2k als gast ständig abstürzen würde, würde man das auch sofort vmware in die schuhe schieben, weil die meisten schon wissen wie win2k nativ läuft.
Als Host läuft das nur unter Windows oder?
Ich kann den Virtual PC irgendwie nicht richtig einordnen bzw. wo er Vor/Nachteile zu den anderen Lösungen hat.
Ich denke Leute die sich damit auskennen, können das in einfachen Worten und präziser erklären als das Marketinggeblubber was man sicherlich dort vorfindet.
Da stand das schon mal. Aber klar kannste fragen
vpc dagegen emuliert hardware (deswegen ist es auch diese apple/mac geschichte möglich). nachteil: die emulation eines befehls veranschlagt bei der real-cpu mind. 3 rechenschritte um ein angenähertes ergebniss zu erziehlen, während bei einer virtualisierung mit einem rechenschritt ein richtiges ergebniss erzielt wird. den tierischen geschwindigkeitsnachteil verringert vpc dadurch, daß einige befehle nicht innehalb der sandbox bleiben, sondern vom hostsystem übernommen werden. meiner meinung nach ein durch und durch 'lückenhaftes' konzept...
mfg
banane
Aber bei der Masse an Kernelmodulen die vmware braucht (vmnet, vmmon, ...) möchte ich nicht wissen, was das Ding an Strukturen das Ding im Kernel beim Abstüren versemmeln kann....
Mfg
Matthias
vmnet wird für die Netzwerkbrücke zwischen VMware und eth+ benötigt. vmmon fürs Monitoring.
Bei Win4Lin dagegen muss der Kernel gepatcht werden. Versuch das mal mit nem 2.6.0-test.
Nein, da werden ein paar grundlegende Patches für die Speicherverwaltung gemacht (das ist notwendig, damit Windows parallel ablaufen kann) und eine Treiberschicht eingezogen, über die die Merge-Treiber dann mit dem Kernel kommunizieren. Viel was anderes als z.B. der Nvidia-Treiber ist das auch nicht.
Meiner Erfahrung nach ist das alles sehr stabil, Du kannst problemlos 10 oder mehr parallele Sessions auf einer Kiste fahren und es stürzt über Monate nicht ab. Die Technik basiert auf dem alten DOS/Merge, das es früher auf SCO Unix gab (als das noch jemand eingesetzt hat) und ist wohl mehrere 100.000 mal im Einsatz weltweit (hauptsächlich Behörden und große Firmen). Wenn das so instabil wäre, wie Du behauptest, wäre es schon schlimm.
Meiner Ansicht nach ist weder der Patch noch der Treiber Schuld an evt. auftretenden Abstürzen sondern das Flickwerk an Patches der Distributoren, die alle wieder Auswirkungen auf Win4Lin haben. Mit den Standard-Kernels ist mir jedenfalls noch nie was passiert. Ich hatte einmal ein Problem mit dem 2.4.18-Kernel und es hat sich im Nachhinein herausgestellt, dass schlechter Speicher (DDR 2100) der Grund war. Die Bausteine haben manchmal das Timing nicht hingekriegt und schon stand die Kiste.
PS: Ich brauchs nicht, bin mit meinem Linux vollkommen zufrieden. Und VMWare macht so einiges mit.
und sicher denken sie nicht in erster linie an migration von w2k auf wxp, sondern an fremd-betriebssysteme.
schade, daß es mit emulatoren für linux nicht so toll aussieht. vmware ist zu teuer und mit bochs ist zwar ein anfang gemacht, aber leider habe ich es noch nicht geschafft dort eine suse 8.0, 8.1, 8.2 oder 9.0 zu installieren. das debian-image hatte ich auch schonmal versucht, daß es dort zum download gibt. bootet zwar prima, man kann auch damit arbeiten. doch wenn man ca 30 sek. nichts tut, hängt das teil und man kann nichts mehr eingeben. oder wenn man kurz mit alt+tab zu einem anderen fenster wechselt und zurück das selbe problem (das aber nur manchmal). aber was hilft mir ein virtueller pc, den man keine 30 sek unangetastet lassen kann, damit er geht. irgendjemand ideen, tips,...?
gruß
marc
Für einen Zweit bzw. Dritt-PC ist das wiederum auch wenig Geld
Fehlt nur noch bessere Unterstützung für Midi und kleinere Latenzen für ASIO-Kram, dann würde ich meine Windows-Partition sofort löschen :))
Win4Lin ist noch recht schnell und erheblich billiger. Dafür patcht es den Kernel und ist nur für bestimmte Windows-Versionen gedacht. Mir hats nicht zugesagt, aber ich denke das es trotz allem eher als Bochs geeignet ist.
Is das keine Alternative?!
Sowas ist eine Menge Arbeit, die haben sich aber viel vorgenommen.
Machst du da mit?
Gruß Timothy
noch nicht wirklich
Dafür gibt's schon einen ebuild, für faumachine nicht. Was allerdings nichts heißen soll.
http://savannah.nongnu.org/projects/plex86/
Lars.
Sinn macht das vor allem, wenn man ein Programm installieren möchte, daß root-Rechte braucht und man selber nur user-Rechte hat, denn FauMachine istalliert man schließlich auch bloß mit user-Rechten.
Aber der Spezialfall wird nur bei sehr wenigen Usern eintreffen. Gewöhnlich möchte man doch auf seinem Linux eine VM haben, in der eben nicht Linux läuft, sondern MS-Windows, DOS, QNX, OS/2 oder was auch immer. Programme die auf Linux laufen, kann man doch (sofern man auch root-Rechte hat) immer auch auf seinem Host-System installieren, da braucht man doch nicht noch mal Linux als Gast-System.
Tinky Winky, Dipsy, Laa-Laa und Po
> Für einen Zweit bzw. Dritt-PC ist das wiederum auch wenig Geld
Sorry, wenn ich dir sagen muss, das ich für 300 eine PC zusammenbauen kann, auf dem die meiste (wenn nicht sogar jede) Software schneller läuft als auf einer VirtualPC-Emulation auf einem aktuellen Rechner. Davon abgesehen, das der Rechner, den man zum Emulieren benutzen würde damit auch "frei" ist und nicht wertvolle Resourcen verschwendet werden. Für Leute mit wenig Platz mag es ja eine Alternative sein, für alle anderen würde ich empfehlen für 'nen Appel und ein Ei eine "alte Kiste" zu kaufen und sie zu vernetzen oder besser einen billigen Rechner aus "veralteten" Teilen zu kaufen (einen kleinen Duron baue ich dir für weniger als 250 neu zusammen).
Das ist allemal besser als M$ sein Geld in den Rachen zu schmeissen
Grade wenn man auch mal was unter Windows entwickelt oder mal kurz sein Steuerprogramm unter Windows nutzen muss etc. wäre ein zweiter Rechner einfach Unsinn :)
Ne alte Kiste fürn Server, der dann möglichst ohne grossen Krach und viel Stromverbrauch den ganzen Tag läuft ist natürlich was anderes. Auf Windows nen Emulator in dem dann ein Linux-Server läuft... nee, das wäre dann schon wie Perlen vor die Säue werfen :)
VMWare ist kein Emulator sondern ein Virtualisierer. Virtual PC ist ein Emulator.
> Zudem läuft Windows SUbjektiv mit nahezu nativer Geschwindigkeit
Das liegt daran, dass VMWare kein Emulator ist.
jwm
Klaus.
Von Emulation spricht man, äh, ja, wenn eben die Hardware vollständig emuliert wird. Das machen z.B. Bochs und Connectix, äh ich meine Microsoft Virtual PC.
Vielleicht wird das an einem Beispiel klarer: Virtual PC läuft auf dem Macintosh, weil es einen Intel-kompatiblen Prozessor emuliert. VMWare läuft nicht auf dem Macintosh, weil es auf dem Macintosh keinen Intel-kompatiblen Prozessor gibt, den man virtualisieren könnte.
Natürlich emuliert VMWare auch einen Teil, z.B. muss es ja den Protected Mode des Prozessors emulieren, weil sonst das Betriebssystem aus der virtuellen Maschine ausbrechen könnte. Grafikkarte, Netzwerkkarte und Festplatten werden auch emuliert. Aber die CPU wird eben nicht emuliert, daher läuft VMWare potenziell schneller, braucht aber dafür eine Intel-kompatible CPU. Reine Emulatoren wie z.B. Bochs laufen dafür prinzipiell auf jedem Betriebssystem auf jeder Prozessorplattform, sofern es einen C-Compiler dafür gibt. Im Handbuch von Bochs steht z.B. dass es erfolgreich auf Windows/x86, Linux/x86, FreeBSD/x86, OpenBSD/x86, BeOS/x86, Solaris/Sparc, Linux/PowerPC, Linux/Alpha, MacOS/PowerPC, IRIX/MIPS, BeOS/PowerPC, Digital UNIX/Alpha und AIX/PowerPC getestet wurde.
jwm
Ich finde VMware genial. Mit genügend RAM simuliere ich ein heterogenes Netz und kann wunderbar "spielen" bevor ich mich an das Richtige wage.
Mir hat das jedenfalls schon des öfteren sehr geholfen.
Für Professionells sind die 300 USD nicht zu viel. Bei dem, was geboten wird.
Gruß
Timothy
VMware ist mehr als nur ein popelige virtuelle Maschine und sein Geld allemal Wert.
Klasse "typo" - Hut ab!
ein nichtswissender
fast so schön wie waldo suchen ...
wenn vmware bei win2k als gast ständig abstürzen würde, würde man das auch sofort vmware in die schuhe schieben, weil die meisten schon wissen wie win2k nativ läuft.