Von Korrekturenmann am Fr, 15. Januar 2010 um 12:59 #
Über ein Monat nach der ersten Alphaversion von Ubuntu 9.10 stellt die Entwicklergemeinde eine neue Testvariante der Distribution allen Interessenten zum Test bereit.
Naja, ich brauch die jetzt nicht mehr. Nach der Diskussion hier um den von mir gerne verwendeten FF2.0 und den Hinweis von jemanden in diesem Forum auf die Sicherheitslücken in diesen Browser und meinem Misstrauen gegen über den neueren Versionen benutze ich nun wieder Windows 7 mit dem IE8, der ja leider nicht unter Linux funktioniert. Ich hoffe, dass ich nun sicherer damit im Internet unterwegs bin als mit Ubuntu oder einem Derivat davon und dem doch etwas veraltetem FF2.0
Mit nem aktuellen IE bist du vielleicht sicherer als mit einem veraltetem FF. Zumindest werden die Lücken irgendwann geschlossen aber leider nicht sicherer wie bspw. mit FF3.
Was spricht denn eigentlich gegen FF3 oder tut es vielleicht aurora oder ein ähnlicher leichtgewichtige Browser?
> Zu den weiteren Neuerungen gehören eine verbesserte Unterstützung der proprietären Nvidia-Treiber,... > Na mal sehen, vor allem was 3D angeht
Ja, ich hoffe mal, daß der 3d Desktop auch endlich mal mit 3d Anwendungen und Videoplayern effizient und schnell harmoniert. So wie es nämlich momentan ist, schaltet man den am besten ab, wenn man 3d Anwendungen nutzen oder Videos abspielen will.
Ich erinnere mich noch sehr gut an die GNOME-Entwickler, die über die KDE herzogen, weil diese sich nicht auf HAL verlässt. Nun bietet HAL wohl keine Grundlage mehr für GNOME. Sehr humorvoll, diese Vorführung.
vicbrother hat immer Probleme mit GNOME. Schuld daran ist ein Trauma, das er bis heute nicht verkraftet hat, nämlich nichts Geringeres als die Gründung von GNOME.
Das Problem ist, dass sich die Plattform auf der Applikationsentwickler ihre Software entwickeln nicht ständig ändern sollte. Das führt nämlich dazu, dass Programme es auf einmal nicht mehr tun.
Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht. (Pointers siehe Wikipedia
Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)).
Von alfreskofisch am Fr, 15. Januar 2010 um 18:42 #
Falsch.
> Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht. Nicht korrekt. DeviceKit basiert sogar auf libudev. Wie libudev schon vermuten lässt, ist es eine Bibliothek, keine Infrastruktur.
> Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)). Igitt. Das gibst du so offen zu? Du weißt schon, dass hier jeder 2. Lesende genau weiß, wer sich hinter "sebas" versteckt (bekannter KDE-Entwickler *hint* *hint*)? Würde mich nicht wunden, wenn du auf den nächsten Kongressen auf diese Unannehmlichkeiten angesprochen würdest.
Die Kombination aus HAL und dbus, war meiner Meinung einer der wichtigsten Enticklungen für den Linux Desktop, weit aus wichtiger als irgendwelche 3D-WM. Erst auf Basis von HAL wurde "Hotplug" unter Linux wirklich benutzerfreundlich. Vor HAL waren triviale Aufgaben wie das Verwenden eines USB-Sticks, oder das auswerfen einer CD, Sachen woran Benutzer gescheitert sind. Wo man sich mit Mountpoints und Devices herumspielen musste, alles manuell machen musste, und als Alternative nur Workarounds wie Automount hatte.
Jahre sind mittlerweile Vergangen, und mit der Zeit sind neue Anforderungen an HAL hinzugekommen, welche man nicht von Anfang an eingeplant hat. Man hat sich entschlossen die Entwicklung von HAL einzustellen und einen Nachfolger mit neuer Architektur zu entwickeln. DeviceKit kommt übrigens von den gleichen Entwicklern wie HAL.
Was genau daran ist jetzt Humorvoll? Das es DeviceKit und nicht HAL 2.0 benannt wurde?
Hal hat Linux die gleichen Probleme gebracht wie bei Windows. Wenn die eigene Hardware nur geringfügig von Standard abweicht, und sei es nur eine zum Onboardsound zusätzliche Sondkarte, wird bei einem Bootvorgang die Hardware korrekt erkannt und bei einem anderen Bootvorgang wird sie nicht korrekt erkannt. Weitere schwer reproduzierbare Fehler sind die Folge.
Ich finde es humorvoll, nur eine Lösung zu propagieren und diese als unumstösslich und als das Beste von allem zu betrachten. Das ist m.E. absolut kindisch - jedes Kind möchte gerne den größten Bagger haben
KDE hat mit aRts die Erfahrung gemacht, dass es besser ist, die aktuellen Systeme über eine eigene Abstraktionsschicht einzubinden, denn diese entwickeln sich sehr schnell fort und werden von Personen betreut, die hiervon mehr Annung haben.
Es geht nicht um "in die Jahre kommen", es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn der Unterbau ausgetauscht wird (wie bei HAL).
Das Entfernen von HAL ist genau der Grund warum KDE Solid eingeführt hat. Man konnte einfach nicht darauf vertrauen, dass HAL den kompletten KDE 4 Zyklus überlebt -- und das hat sich ja auch als richtig herausgestellt. Mit Solid kann man jetzt ein Devicekit^Wudev-Backend bauen, und die Applikationsentwickler brauchen ihren Code nicht umzustellen.
Dasselbe Prinzip gilt auch für viele andere Bereiche: Phonon (gstreamer ohne stabile API), KAuth (Pol(icy)Kit ohne stabile API), NetworkManager, usw. Alle ändern ihre API alle Nasen lang. Applikationsentwickler können da kaum mithalten. Innerhalb von KDE haben wir uns entschieden, diese Problem durch Abstraktionsschichten zu lösen (die es gleichzeitig auch ermöglichen, diese Bibliotheken plattformunabhängig zu machen).
Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als ernstzunehmende Plattform für Enduseranwendungen.
Dieser Beitrag wurde 1 mal editiert. Zuletzt am 15. Jan 2010 um 16:08.
> es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn > der Unterbau ausgetauscht wird (wie bei HAL)
Das wäre z.B? Immerhin verwendet Fedora bereits seit Version 11 DeviceKit, Ubuntu hat auch bereits im Karmic mit der Umstellung begonnen. Von irgendwelchen Programmen die deswegen nicht Funktionieren hab ich noch nichts gehört.
> Es ist nicht gerade praktisch, wenn sich essentielle Teile > des Betriebssystems ständig ändern.
In der Software Enticklung ist praktisch jede Entscheidung ein Abwegen zwischen zwischen Vor- und Nachteilen, DIE perfekte Lösung gibt es selten. Genau so ist das mit Abstraktionsschichten. Sie bringen per Definition zusätzlichen Overhead, und Einschränkungen der API. Kompatibilität können sie auch nur erhöhen, aber nicht für Ewigkeiten garantieren.
> Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig > ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als >ernstzunehmende Plattform für Enduseranwendungen.
Von sidubu: verwirrt am Fr, 15. Januar 2010 um 18:47 #
Du weißt schon, dass aRts schon seit '04 nicht mehr weiterentwickelt wird. Eigene Abstraktionsschichten sind zwangsläufig besser, ja klar, und Stallman hat einen deutschen Vornamen...
KOffice 2.1 will go into main replacing the KDE 3 version.
Das bedeutet aber nur, dass die alten Koffice 1.6.3 Pakete ersetzt werden. Koffice wird soweit ich informiert bin nicht OpenOffice in der Standardinstallation ersetzen. Leider klingt der Artikel ein wenig nach letzterem.
Man sollte keine Office-Software, die von den Entwicklern selbst nicht als stabil angesehen wird, in eine LTS-Version integrieren. Solche Strategien - allgemein und durchgehend angewandt - führen dann dazu, dass auch der nächste LTS erst wieder nach einem halben bis ganzen Jahr produktiv einsetzbar ist. Pulseaudio aus Ubuntu LTS 8.04 lässt grüßen.
Was nützt das denn, wenn selbst die Entwickler vor dem produktiven Einsatz der neuesten Version warnen? KOffice 1.6.x läuft noch und fällt bestimmt nicht auseinander bis die erste für den Produktiveinsatz empfohlene KOffice 2.x-Version erscheint. Was meinst Du eigentlich mit "nicht unterstützt"? Mögliche Sicherheitsupdates dürfte das ja noch nicht betreffen. Genauso wie bei KDE 3.5.10.
Ich glaube kaum, dass es noch ein weiteres 1.6.x Release geben wird und wir hätten mit 1.6.3 3 Jahre lang eine Koffice Version zu pflegen, die niemand mehr aktualisiert oder irgendwie anders unterstützt. Aus ähnlichen Gründen war ja auch Kubuntu 8.04 keine LTS Version.
Ehrlich gesagt kann ich die Aufregung dazu kaum verstehen. Die Standardinstallation beinhaltet OpenOffice, das momentan wohl sowieso die einzige voll benutzbare Office Suite sein dürfte. Wer daneben noch Lust und Zeit hat einen Blick auf Koffice zu werfen und den Entwicklern zu helfen, der kann es von der DVD installieren. Dazu bietet es sich an bei Erscheinen einer möglicherweise voll benutzbaren Version 2.2 in den 3 Jahren Supportzeitraum einen entsprechenden Backport zu machen.
Wer ist "wir"? Das Canonical/Ubuntu- oder das KOffice-Team?
Ubuntu, Canonical, Universe, Multiverse und "Pflege"? Ich erinnere in diese Zusammenhang nur einmal daran, dass sich in Ubuntu 8.04 sämtliche KOffice-Lokalisierungen - die englische (koffice-i18n-engb) ausgenommen - nicht in Ubuntu Main befinden bzw. befunden haben. Auf eine derartige "Idee" muß man erst einmal kommen.
> Dies betrifft beispielsweise den Wacom-Treiber von X.org, für den aber bis zum April ein funktionierender Nachfolger bereitstehen soll. Optimistisch, optimistisch, mein Mark. Wie sah die Situtation noch vor ein paar Versionen mit den Intel-Treibern aus? Da ging auf einmal die Grafik nicht mehr. Wie, du dachtest, die Entwickler würden sich an den Zeitplan halten und die Bugs zeitgemäß schaffen? Naiv, oder so? Unterschätze Ubuntu nicht. Von einem Tag auf den anderen wechselt man nicht mal eben eine Software-Version und riskiert, dass Millionen von Rechnern nach einem Update/-grade kein Bild mehr haben. Du warst CEO, wieso hast du nicht mit deinen Entwicklern an den Gebieten gearbeitet, die am kritischten sind. Ja, ich weiß, Bug #1 ist noch nicht behoben und das wird sich auch nicht ändern, solange die anderen 100 Bugs von Version zu Version mitgeschleppt werden! Verstehe mich nicht falsch, Ubuntu hat Potential. Es funktioniert prächtig, hat aber viele kleine Fehler und Schwächen, die in früheren Versionen nie existent waren. Derivate wie Kubuntu und ähnliche platzen aus allen Nähten mit schlechter Integration und übermäßig schlechter Performance. Wieso schaffen es die Redmonder und wir nicht?
Bitte, liebe neue CEO-in Ubuntus: Tue etwas, um wenigstens die Infrastuktur am Leben zu erhalten und kümmert euch erst dann um die kleinen Wehwehchen Ubuntus. Hilf Linux endlich aus der Krise heraus. Linux hat Potential, aber solange Usability und kleinere Bugs (Ubuntus Bugtracker ist voll von solchen) nur stiefmütterlich behandelt werden, können wir uns von den stolzen Windows-7-lern nur tief im Schnee vergraben und hoffen, dass sich niemand dem heutigen Ubuntu sehr kritisch annimmt und all die zahlreichen und doch so kleinen Fehler findet. Beweise es ihnen, dass auch wir es können. Wir haben das Potential und wir werden es auch schaffen!
Redmond und viele Firmen schaffen es auch nicht. So ist unter Windows 7 und Vista die 2D-Hardwarebeschleunigung moderner Grafikkarten um Zehnerpotenzen lausiger als auf einem Linuxrechner mit freien Xorg-Treibern. Schau auch einmal in die Nutzerforen z.B. eines sehr bekannten Herstellers von Windows-Brennsoftware und mache Dir ein unabhängiges Bild. Der Klassiker ist hierbei die Installation eines Updates über eine bereits gekaufte Vollversion, das sich dann hinterher als "Trial" ausgibt, obgleich das eigentlich nicht der Fall ist. Das schafft Konfusion. Ich denke da auch an bestimmte superteure Windows-Grafiksoftware, die angesichts stinknormaler Raid-Systeme die Aktivierung verweigert, ohne auch nur einen Hinweis darauf zu geben, woran es liegen könnte. Windows 7 ist ja so einfach. Das merkt man z.B., wenn man seinen Parallel-Drucker an einen Rechner, der nur noch USB-Ports aufweist, anschließen möchte. Mit einem "speziellen" Kabel klappt das auch, nur findet man nirgendwo den Allerwelts-HP-Drucker, jedenfalls nicht, wenn man nicht vorher ein "virtuelles" USB-Device auswählt. Ohne Internetverbindung geht hier sowieso nichts, da viele HP-Treiber gar nicht mit an Bord sind, sondern übers Internet direkt von Microsoft nachgeladen werden müssen. Das hört sich alles sehr benutzerfreundlich an, nicht wahr?
Gewisse Regressionen und Probleme gibt es immer, aber laut Bekanntenkreis stimmt das Gesamtpaket einfach bei Windows 7. Kubuntu haben sie auch schon selber angetestet, waren aber von der Performance erschüttert. Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist. Die Liga, in welcher die Probleme bei Ubuntu spielten, ist eine ganz andere: Verlust der Grafik ist m.E. nicht akzeptabel, zumal es schon früh kritische Stimmen aus Entwicklerkreisen gab, die fröhlich weiterhin ignoriert wurden. Das wirft nicht gerade ein gutes Licht auf die Entscheidungsträger.
Du hast mich wohl missverstanden: Ein OS muss nicht 100% fehlerfrei sein, aber bei Ubuntu wurden in der Vergangenheit wissentlich (!) Showstopper bei neuen Versionen bzw. Update-Wellen toleriert. Das ist m.E. nicht hinnehmbar, weil es sich problemlos verhindern lässt.
Dazu kommen noch einige kleine Ungereimtheiten bei Ubuntu, die ich jetzt mal unerwähnt lasse, um nicht endlos abzuschweifen.
"Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist."
Ich meinte nicht "minimal geringere 2D-Hardwarebeschleunigung". Ich meinte vielmehr, dass diese unter Windows 7 bzw. Vista - gerade mit moderneren bzw modernsten Grafikkarten - fast völlig kaputt ist: http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html plus folgende Seiten.
Man nehme eben Debian statt (K)Ubuntu, wenn man keinen Showstopper erleben will.
Ich selbst habe auf meinem Aspire One Kubuntu nur aus einem Grund installiert: Es ist die einzige (!) Distribution mit guter Hardwareerkennung die von vornherein Gnome NICHT installiert, wenn man ein "Desktop-Setup" wählt.
Auf meiner nur 8GB großen Flashdisk kann ich nämlich den Installationsmüll, den mir Debian auf die Platte schaufelt (Gnome), nicht brauchen. Bei Festplattenrechnern mit mehr als 20 GB wär's mir egal, aber mit 8 GB muss man sparsam bei der Installation sein, sonst kann man nicht mehr darauf arbeiten.
Und nein, Gnome ist keine Alternative für mich, mit der Benutzerführung komme ich einfach nicht klar. Nichts gegen Gnome, ist ein hervorragendes Stück Software, aber nicht für meine Denkstruktur geeignet.
Du hast in punkto Debian leider einen wichtigen Punkt übersehen. Für Debian gibt es nämlich auch KDE- und XFce-/LXDE-Installations-CDs: http://cdimage.debian.org/debian-cd/5.0.3/i386/iso-cd/ debian-503-i386-kde-CD-1.iso debian-503-i386-xfce+lxde-CD-1.iso
Ich weiß nich wie es sich bei den Windows Alpha/Betas generell verhält, aber bei Ubuntu sind die meißten Anwendungen und Bibliotheken während der Alpha/Beta im Debug-Mode was Performanceeinbrüche nur logisch macht. Ich habe mit meiner Nvidia weniger Probleme und die Probleme die da sind betreffen nur unwichtige Optik beim Bootvorgang da plymouth wohl KMS-Treiber der Grafikkarte braucht, nouevou aber halt noch nicht fertig ist. Ich finds überflüssig Developement-Releases mit Final-Releases zu vergleichen und überhaupt der andere Vogel da unten ist lustig: Erzwingt KDE und wurdert sich über miese Performance... meinste Gnome ist in weitestgehend allen Desktop-Distris default weil KDE viel chic'er ist? Muhahaha, bestimmt
Was für Denkstrukturen? Da gibt es das Control-Center bzw den Bereich Systemverwaltung, für Sachen die nur den Computerbesitzer/administrator etwas angehen und den Bereich Einstellungen, dort wo der Benutzer sich austoben kann ohne Schaden anrichten zu können xD, mehr brauch man eigentlich nicht, außer vielleicht in 100 Jahren mal gconf.
Das sind doch nur an den Haaren herbeigezogene und durch völlig veraltete Hardware selbstgestrickte Probleme. Wenn Dein neues Auto andere Reifen braucht, ist auch der hersteller schuld, ich weiss... Ich habe an so vielen schnellen und auch eher betagten Rechnern Windows 7 total problemlos installiert, dass ich sagen muss, Windows 7 rockt, und zwar gewaltig! Wer nun mal ein modernes Betriebssystem einsetzen will, sollte auch die halbwegs passende Hardware dafür haben. Wer sich das nicht leisten kann, sollte sich eher fragen, ob er nicht hätte früher besser aufpassen sollen, als anderen, die es zu was gebracht haben, den Neid nur so vor die Füße zu kotzen!
Immer dieser "Glauben". Lies bitte das hier und bete noch einmal: :-) http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480-9.html Noch einmal: Es geht um neueste Grafikkarten, die unter Windows 7 bzw. Vista praktisch ohne 2D-Hardwarebeschleunigung daher kommen.
Und was interessiert es mich, ob ich 4000 oder 10000 2D Linien in der Sekunde zeichnen kann? In Anwendungen ist das völlig egal. Nicht umsonst bauen moderne Grafiktoolkits auf OpenGL oder DirectX auf.
Keine funktionierende 2D-Hardwarebeschleunigung zu haben, ist so ziemlich das Rückständigste, was man sich im Grafikbereich überhaupt vorstellen kann. Vektorbasierte Programme zu benutzen wird dann zur regelrechten Tortur.
Im oben von mir verlinkten Artikel steht genau drin, um was es hier geht. Vor allem wird auch dargestellt, welche modernen Grafikkarten unter Windows7/Vista in punkto katastrophal schlechter 2D-Hardwarebeschleunigung besonders stark betroffen sind und warum.
Wer sich schon immer gewundert hat, warum seine Quadcore-2,5GHz-Maschine mit WinVista bzw. Win7 nicht schneller ist als sein alter 2 GHz-PIV mit WinXP, hat jetzt wenigstens einen Ansatzpunkt zur Fehlersuche. :-)
Der zweite Teil ist jetzt veröffentlicht. Darin steht auch, warum GDI noch so wichtig ist. http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487.html Am besten finde ich den grandiosen Sieg der uralten Voodoo4 in der Kategorie "Stretching": http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487-13.html
Zumindestens ist Ubuntu seit Generationen die einzige Distribution, bei der mein onboard GA Mobile GM965/GL960 beim versuch Compiz zu benutzen, einfriert.
Also egal wohin man schaut, es geht nur noch um Glaubensfragen bei Software. Niemand kann sich vorstellen das es überall sche...... ist.Jeder hat sein Favoriten und betet ihn an. Alle Systeme haben irgendwelche macken, selbst wenn sie die vorher nicht hatten, schaffen Updates die eigentlich nichts damit zu tun haben können, Problem an ganz anderen stellen. Ein Beispiel: Adobe Reader unter WinXP fordert ein Update von 9.2 auf 9.3. Nach dem Update gehen in der Firma keine Programme mehr die per Netzwerk auf einem Server gestartet werden und vom Client genutzt werden sollen wo dieses Update durchgeführt wurde. Die einzige Hilfe die es gab, war das System auf den Zustand zu setzen was vor dem Update von Adobereader war. Da machste erst mal nix außer staunen. Nun, daran kann jeder sehen, das Software von Drittherstellen Probleme verursachen können, die man vorher gar nicht hatte.Und man muss mit den Sicherheitslücken der Software leben oder einen Kostenpflichtigen Support nutzen, der dann Probleme löst die eigentlich Schuld der Softwareentwickler sind und man doch nur ein bischen sicherer sein wollte durch ein Update. Je komplexer Systeme aufgebaut sind, um so mehr verhält sich Software Irrational. Außerdem ist es egal geworden ob Bestriebsystem A oder B gut ist, es wird sich für einSystem Entschieden und lobt es im Himmel nur um bei der "Gruppe" der Nutzer dabei zu sein.
Alle glauben an Gott, nur jeder schliesst sich einer Gruppe an um dann zu sagen, die anderen glauben an den Falschen. ... Früher gingen die Menschen in die Kirche...heute gehen sie in Foren um ihren Glauben zu verbreiten...lol Guß Udo
Die ARM-Version von Ubuntu ist weiterhin nur für den Freescale-Prozessor, weder der von NVidia(Tegra) noch der von Qualcomm(Snapdragon) werden bedacht, der neue von Marvell auch nicht.
Es gibt zwar immer noch keine Geräte mit ARM, aber auf der CES wurden die meisten davon nur noch mit Android gezeigt, einige davon auch mit Windows-CE verunstaltet, aber kaum Ubuntu oder sonstige Distributionen.
Android scheint erst mal ein 'Zugpferd' und Namen zu haben, Google, was den anderen Distributoren fehlt, und die "Open Handset Alliance" die hinter Android steht scheint einige Sicherheit zu bieten (z.B. was Updates betrifft).
Solange es keine Alternative gibt -bzw eine die kein Aussenseiter-Dasein darstellt- dürften es sich grosse Firmen kaum trauen gegen Microsoft aufzutreten. Nvidia und Qualcomm scheinen ihre ARM-Chips ja auf Windows-CE hin entwickelt zu haben, nur Freescale scherte da aus.
Über ein Monat nach der ersten Alphaversion von Ubuntu 9.10 stellt die Entwicklergemeinde eine neue Testvariante der Distribution allen Interessenten zum Test bereit.
Bitte auf 10.04 ändern.
Laut Angaben des Teams soll vor allem der Bootvorgang und das Aufwachen aus den verschiedener Sleep-Modis von der Änderung profitieren.
Also ich persönlich finde den Bootvorgang eigentlich schnell genug - aber mir persönlich geht Stabilität sowieso vor Geschwindigkeit.
Zu den weiteren Neuerungen gehören eine verbesserte Unterstützung der proprietären Nvidia-Treiber,...
Na mal sehen, vor allem was 3D angeht.
Das Ubuntu-Team weist darauf hin, dass die Testversion nicht für den produktiven Einsatz gedacht ist.
Na ja: Bei manch anderen Distris gilt das sogar für die (angeblichen) Stable-Versionen...
Sebalin.
Naja, ich brauch die jetzt nicht mehr. Nach der Diskussion hier um den von mir gerne verwendeten FF2.0 und den Hinweis von jemanden in diesem Forum auf die Sicherheitslücken in diesen Browser und meinem Misstrauen gegen über den neueren Versionen benutze ich nun wieder Windows 7 mit dem IE8, der ja leider nicht unter Linux funktioniert. Ich hoffe, dass ich nun sicherer damit im Internet unterwegs bin als mit Ubuntu oder einem Derivat davon und dem doch etwas veraltetem FF2.0
Mit nem aktuellen IE bist du vielleicht sicherer als mit einem veraltetem FF. Zumindest werden die Lücken irgendwann geschlossen aber leider nicht sicherer wie bspw. mit FF3.
Was spricht denn eigentlich gegen FF3 oder tut es vielleicht aurora oder ein ähnlicher leichtgewichtige Browser?
Gruß
Mist, gerade gelesen, funktioniert also auch nicht mehr!
http://www.spiegel.de/netzwelt/web/0,1518,672183,00.html
> Mit nem aktuellen IE bist du vielleicht sicherer als mit einem veraltetem FF.
TeaAge aus dem Tal der Ahnungslosen.
Die Vermutung ist logisch, aber nicht unbedingt richtig s.u.
.. UND natürlich über Deinem Artikel:
http://www.spiegel.de/netzwelt/web/0,1518,672183,00.html
Wo bitte ist da etwas beim IE sicherer ?
klar, tu das *deppenout*
http://secunia.com/advisories/
haha
Cool, liest sich ja wie bei lustig.de:
http://secunia.com/advisories/38209/
Microsoft Internet Explorer Arbitrary Code Execution
Secunia Advisory: SA38209
Critical: Extremely critical
Software:
Microsoft Internet Explorer 6.x
Microsoft Internet Explorer 7.x
Microsoft Internet Explorer 8.x
Impact: System access
Where: From remote
Solution Status: Unpatched
. .
PS. mein Kontrollwort lautet BLUTTAT
>PS. mein Kontrollwort lautet BLUTTAT
Na und? Das hatte ich auch schon mal!
Du hast mich überzeugt! Ich nehme jetzt doch wieder den FF 2.0 Der scheint sicherer zu sein als der IE.
Grüße aus dem FF 2.0
Einfach nur "erschreckend". :-)
Über Deine Browserodyssee könnte man ja schon fast einen ganzen Artikel schreiben.
Ich habe jetzt mal den IE8 unter Linux installiert. Da dürfte der doch sicher sein oder?
http://img46.imageshack.us/img46/9488/screenshotlo.jpg
PS: mein Kennwort war "HOLZWEG" Hoffentlich hat das jetzt nix zu bedeuten..
Du könntest Firefox3 unter Wine installieren.
Da erlebst Du dann durchaus eine angenehme "Überraschung".
>> Da dürfte der doch sicher sein oder?
hahaha....uhm...nein
Ich habe jetzt mal den IE8 unter Linux installiert. Da dürfte der doch sicher sein oder?
Warum kommt mir das vor wie eine Fotomontage?
Grueße
Ignatz
> Zu den weiteren Neuerungen gehören eine verbesserte Unterstützung der proprietären Nvidia-Treiber,...
> Na mal sehen, vor allem was 3D angeht
Ja, ich hoffe mal, daß der 3d Desktop auch endlich mal mit 3d Anwendungen und Videoplayern effizient und schnell harmoniert.
So wie es nämlich momentan ist, schaltet man den am besten ab, wenn man 3d Anwendungen nutzen oder Videos abspielen will.
Ich erinnere mich noch sehr gut an die GNOME-Entwickler, die über die KDE herzogen, weil diese sich nicht auf HAL verlässt. Nun bietet HAL wohl keine Grundlage mehr für GNOME. Sehr humorvoll, diese Vorführung.
HAL wird nicht mehr weiterentwickelt und DeviceKit ist der Nachfolger von HAL. Wo liegt also das Problem?
vicbrother hat immer Probleme mit GNOME. Schuld daran ist ein Trauma, das er bis heute nicht verkraftet hat, nämlich nichts Geringeres als die Gründung von GNOME.
Das Problem ist, dass sich die Plattform auf der Applikationsentwickler ihre Software entwickeln nicht ständig ändern sollte. Das führt nämlich dazu, dass Programme es auf einmal nicht mehr tun.
Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht. (Pointers siehe Wikipedia
Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)).
Falsch.
> Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht.
Nicht korrekt. DeviceKit basiert sogar auf libudev. Wie libudev schon vermuten lässt, ist es eine Bibliothek, keine Infrastruktur.
> Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)).
Igitt. Das gibst du so offen zu? Du weißt schon, dass hier jeder 2. Lesende genau weiß, wer sich hinter "sebas" versteckt (bekannter KDE-Entwickler *hint* *hint*)? Würde mich nicht wunden, wenn du auf den nächsten Kongressen auf diese Unannehmlichkeiten angesprochen würdest.
Was genau findest du daran humorvoll?
Die Kombination aus HAL und dbus, war meiner Meinung einer der wichtigsten Enticklungen für den Linux Desktop, weit aus wichtiger als irgendwelche 3D-WM.
Erst auf Basis von HAL wurde "Hotplug" unter Linux wirklich benutzerfreundlich. Vor HAL waren triviale Aufgaben wie das Verwenden eines USB-Sticks, oder das auswerfen einer CD, Sachen woran Benutzer gescheitert sind. Wo man sich mit Mountpoints und Devices herumspielen musste, alles manuell machen musste, und als Alternative nur Workarounds wie Automount hatte.
Jahre sind mittlerweile Vergangen, und mit der Zeit sind neue Anforderungen an HAL hinzugekommen, welche man nicht von Anfang an eingeplant hat. Man hat sich entschlossen die Entwicklung von HAL einzustellen und einen Nachfolger mit neuer Architektur zu entwickeln. DeviceKit kommt übrigens von den gleichen Entwicklern wie HAL.
Was genau daran ist jetzt Humorvoll? Das es DeviceKit und nicht HAL 2.0 benannt wurde?
Hal hat Linux die gleichen Probleme gebracht wie bei Windows. Wenn die eigene Hardware nur geringfügig von Standard abweicht, und sei es nur eine zum Onboardsound zusätzliche Sondkarte, wird bei einem Bootvorgang die Hardware korrekt erkannt und bei einem anderen Bootvorgang wird sie nicht korrekt erkannt. Weitere schwer reproduzierbare Fehler sind die Folge.
Vor HAL wurde gar nichts automatisch erkannt, da mußtest du noch /etc/modules anpassen und das kannst du auch heute noch, wenn HAL versagt.
Er hat Recht.
Wütend,
sidubu
Ich finde es humorvoll, nur eine Lösung zu propagieren und diese als unumstösslich und als das Beste von allem zu betrachten. Das ist m.E. absolut kindisch - jedes Kind möchte gerne den größten Bagger haben
KDE hat mit aRts die Erfahrung gemacht, dass es besser ist, die aktuellen Systeme über eine eigene Abstraktionsschicht einzubinden, denn diese entwickeln sich sehr schnell fort und werden von Personen betreut, die hiervon mehr Annung haben.
GNOME ist wohl noch nicht reif genug.
Du meinst, man sollte eine Abstraktionsschicht für die Abstraktionsschicht bauen?
Hier ist doch gerade die Abstraktionsschicht in die Jahre gekommen. Was ist, wenn bei KDE die Abstraktions-Abstraktionsschicht in die Jahre kommt?
> Du meinst, man sollte eine Abstraktionsschicht für die Abstraktionsschicht bauen?
Selbstverständlich, man kann nie genug Abstraktionsschichten haben. Sonst würde man ja den Kleinster-Gemeinsamer-Nenner-Effekt verpasssen.
Dieser Beitrag wurde 1 mal editiert. Zuletzt am 15. Jan 2010 um 15:53.Es geht nicht um "in die Jahre kommen", es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn der Unterbau ausgetauscht wird (wie bei HAL).
Das Entfernen von HAL ist genau der Grund warum KDE Solid eingeführt hat. Man konnte einfach nicht darauf vertrauen, dass HAL den kompletten KDE 4 Zyklus überlebt -- und das hat sich ja auch als richtig herausgestellt. Mit Solid kann man jetzt ein Devicekit^Wudev-Backend bauen, und die Applikationsentwickler brauchen ihren Code nicht umzustellen.
Dasselbe Prinzip gilt auch für viele andere Bereiche: Phonon (gstreamer ohne stabile API), KAuth (Pol(icy)Kit ohne stabile API), NetworkManager, usw. Alle ändern ihre API alle Nasen lang. Applikationsentwickler können da kaum mithalten. Innerhalb von KDE haben wir uns entschieden, diese Problem durch Abstraktionsschichten zu lösen (die es gleichzeitig auch ermöglichen, diese Bibliotheken plattformunabhängig zu machen).
Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als ernstzunehmende Plattform für Enduseranwendungen.
Dieser Beitrag wurde 1 mal editiert. Zuletzt am 15. Jan 2010 um 16:08.> es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn
> der Unterbau ausgetauscht wird (wie bei HAL)
Das wäre z.B? Immerhin verwendet Fedora bereits seit Version 11 DeviceKit, Ubuntu hat auch bereits im Karmic mit der Umstellung begonnen. Von irgendwelchen Programmen die deswegen nicht Funktionieren hab ich noch nichts gehört.
> Es ist nicht gerade praktisch, wenn sich essentielle Teile
> des Betriebssystems ständig ändern.
In der Software Enticklung ist praktisch jede Entscheidung ein Abwegen zwischen zwischen Vor- und Nachteilen, DIE perfekte Lösung gibt es selten.
Genau so ist das mit Abstraktionsschichten. Sie bringen per Definition zusätzlichen Overhead, und Einschränkungen der API. Kompatibilität können sie auch nur erhöhen, aber nicht für Ewigkeiten garantieren.
In der Software Enticklung ist praktisch jede Entscheidung ein Abwegen zwischen zwischen Vor- und Nachteilen, DIE perfekte Lösung gibt es selten.
Und deshalb sollte man sich flexibel darauf einstellen können - mit einer Abstraktionsschicht.
> Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig
> ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als
>ernstzunehmende Plattform für Enduseranwendungen.
Full ACK!
Du weißt schon, dass aRts schon seit '04 nicht mehr weiterentwickelt wird. Eigene Abstraktionsschichten sind zwangsläufig besser, ja klar, und Stallman hat einen deutschen Vornamen...
Verwirrt,
sidubu
Deshalb meint KDE auch, die coreutils müssen KIO implementieren? Da hab ich doch lieber das (versteckte) gvfs unter gnome..
du meinst die kdelibs, aber hast schon recht. sollte beides abgeschafft werden.
KOffice 2.1 will go into main replacing the KDE 3 version.
Das bedeutet aber nur, dass die alten Koffice 1.6.3 Pakete ersetzt werden. Koffice wird soweit ich informiert bin nicht OpenOffice in der Standardinstallation ersetzen. Leider klingt der Artikel ein wenig nach letzterem.
Man sollte keine Office-Software, die von den Entwicklern selbst nicht als stabil angesehen wird, in eine LTS-Version integrieren. Solche Strategien - allgemein und durchgehend angewandt - führen dann dazu, dass auch der nächste LTS erst wieder nach einem halben bis ganzen Jahr produktiv einsetzbar ist.
Pulseaudio aus Ubuntu LTS 8.04 lässt grüßen.
Die Alternative wäre KOffice 1.6, was heute schon nicht mehr unterstützt wird. KOffice 2.1 ist vollständig kompatibel zu den alten KOffice Formaten.
Was nützt das denn, wenn selbst die Entwickler vor dem produktiven Einsatz der neuesten Version warnen?
KOffice 1.6.x läuft noch und fällt bestimmt nicht auseinander bis die erste für den Produktiveinsatz empfohlene KOffice 2.x-Version erscheint.
Was meinst Du eigentlich mit "nicht unterstützt"?
Mögliche Sicherheitsupdates dürfte das ja noch nicht betreffen.
Genauso wie bei KDE 3.5.10.
Ich glaube kaum, dass es noch ein weiteres 1.6.x Release geben wird und wir hätten mit 1.6.3 3 Jahre lang eine Koffice Version zu pflegen, die niemand mehr aktualisiert oder irgendwie anders unterstützt. Aus ähnlichen Gründen war ja auch Kubuntu 8.04 keine LTS Version.
Ehrlich gesagt kann ich die Aufregung dazu kaum verstehen. Die Standardinstallation beinhaltet OpenOffice, das momentan wohl sowieso die einzige voll benutzbare Office Suite sein dürfte. Wer daneben noch Lust und Zeit hat einen Blick auf Koffice zu werfen und den Entwicklern zu helfen, der kann es von der DVD installieren. Dazu bietet es sich an bei Erscheinen einer möglicherweise voll benutzbaren Version 2.2 in den 3 Jahren Supportzeitraum einen entsprechenden Backport zu machen.
Wer ist "wir"?
Das Canonical/Ubuntu- oder das KOffice-Team?
Ubuntu, Canonical, Universe, Multiverse und "Pflege"?
Ich erinnere in diese Zusammenhang nur einmal daran, dass sich in Ubuntu 8.04 sämtliche KOffice-Lokalisierungen - die englische (koffice-i18n-engb) ausgenommen - nicht in Ubuntu Main befinden bzw. befunden haben. Auf eine derartige "Idee" muß man erst einmal kommen.
Das Kubuntu Team.
Gibt es denn wirklich schon Leute, die KOffice produktiv einsetzen? In irgend einer Version?
kann man es auch unproduktiv einsetzen?
> Dies betrifft beispielsweise den Wacom-Treiber von X.org, für den aber bis zum April ein funktionierender Nachfolger bereitstehen soll.
Optimistisch, optimistisch, mein Mark. Wie sah die Situtation noch vor ein paar Versionen mit den Intel-Treibern aus? Da ging auf einmal die Grafik nicht mehr. Wie, du dachtest, die Entwickler würden sich an den Zeitplan halten und die Bugs zeitgemäß schaffen? Naiv, oder so? Unterschätze Ubuntu nicht. Von einem Tag auf den anderen wechselt man nicht mal eben eine Software-Version und riskiert, dass Millionen von Rechnern nach einem Update/-grade kein Bild mehr haben. Du warst CEO, wieso hast du nicht mit deinen Entwicklern an den Gebieten gearbeitet, die am kritischten sind. Ja, ich weiß, Bug #1 ist noch nicht behoben und das wird sich auch nicht ändern, solange die anderen 100 Bugs von Version zu Version mitgeschleppt werden! Verstehe mich nicht falsch, Ubuntu hat Potential. Es funktioniert prächtig, hat aber viele kleine Fehler und Schwächen, die in früheren Versionen nie existent waren. Derivate wie Kubuntu und ähnliche platzen aus allen Nähten mit schlechter Integration und übermäßig schlechter Performance. Wieso schaffen es die Redmonder und wir nicht?
Bitte, liebe neue CEO-in Ubuntus: Tue etwas, um wenigstens die Infrastuktur am Leben zu erhalten und kümmert euch erst dann um die kleinen Wehwehchen Ubuntus. Hilf Linux endlich aus der Krise heraus. Linux hat Potential, aber solange Usability und kleinere Bugs (Ubuntus Bugtracker ist voll von solchen) nur stiefmütterlich behandelt werden, können wir uns von den stolzen Windows-7-lern nur tief im Schnee vergraben und hoffen, dass sich niemand dem heutigen Ubuntu sehr kritisch annimmt und all die zahlreichen und doch so kleinen Fehler findet. Beweise es ihnen, dass auch wir es können. Wir haben das Potential und wir werden es auch schaffen!
Redmond und viele Firmen schaffen es auch nicht.
So ist unter Windows 7 und Vista die 2D-Hardwarebeschleunigung moderner Grafikkarten um Zehnerpotenzen lausiger als auf einem Linuxrechner mit freien Xorg-Treibern.
Schau auch einmal in die Nutzerforen z.B. eines sehr bekannten Herstellers von Windows-Brennsoftware und mache Dir ein unabhängiges Bild. Der Klassiker ist hierbei die Installation eines Updates über eine bereits gekaufte Vollversion, das sich dann hinterher als "Trial" ausgibt, obgleich das eigentlich nicht der Fall ist. Das schafft Konfusion.
Ich denke da auch an bestimmte superteure Windows-Grafiksoftware, die angesichts stinknormaler Raid-Systeme die Aktivierung verweigert, ohne auch nur einen Hinweis darauf zu geben, woran es liegen könnte.
Windows 7 ist ja so einfach. Das merkt man z.B., wenn man seinen Parallel-Drucker an einen Rechner, der nur noch USB-Ports aufweist, anschließen möchte. Mit einem "speziellen" Kabel klappt das auch, nur findet man nirgendwo den Allerwelts-HP-Drucker, jedenfalls nicht, wenn man nicht vorher ein "virtuelles" USB-Device auswählt. Ohne Internetverbindung geht hier sowieso nichts, da viele HP-Treiber gar nicht mit an Bord sind, sondern übers Internet direkt von Microsoft nachgeladen werden müssen.
Das hört sich alles sehr benutzerfreundlich an, nicht wahr?
Gewisse Regressionen und Probleme gibt es immer, aber laut Bekanntenkreis stimmt das Gesamtpaket einfach bei Windows 7. Kubuntu haben sie auch schon selber angetestet, waren aber von der Performance erschüttert. Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist. Die Liga, in welcher die Probleme bei Ubuntu spielten, ist eine ganz andere: Verlust der Grafik ist m.E. nicht akzeptabel, zumal es schon früh kritische Stimmen aus Entwicklerkreisen gab, die fröhlich weiterhin ignoriert wurden. Das wirft nicht gerade ein gutes Licht auf die Entscheidungsträger.
Du hast mich wohl missverstanden: Ein OS muss nicht 100% fehlerfrei sein, aber bei Ubuntu wurden in der Vergangenheit wissentlich (!) Showstopper bei neuen Versionen bzw. Update-Wellen toleriert. Das ist m.E. nicht hinnehmbar, weil es sich problemlos verhindern lässt.
Dazu kommen noch einige kleine Ungereimtheiten bei Ubuntu, die ich jetzt mal unerwähnt lasse, um nicht endlos abzuschweifen.
"Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist."
Ich meinte nicht "minimal geringere 2D-Hardwarebeschleunigung". Ich meinte vielmehr, dass diese unter Windows 7 bzw. Vista - gerade mit moderneren bzw modernsten Grafikkarten - fast völlig kaputt ist:
http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html
plus folgende Seiten.
Man nehme eben Debian statt (K)Ubuntu, wenn man keinen Showstopper erleben will.
Ich selbst habe auf meinem Aspire One Kubuntu nur aus einem Grund installiert: Es ist die einzige (!) Distribution mit guter Hardwareerkennung die von vornherein Gnome NICHT installiert, wenn man ein "Desktop-Setup" wählt.
Auf meiner nur 8GB großen Flashdisk kann ich nämlich den Installationsmüll, den mir Debian auf die Platte schaufelt (Gnome), nicht brauchen.
Bei Festplattenrechnern mit mehr als 20 GB wär's mir egal, aber mit 8 GB muss man sparsam bei der Installation sein, sonst kann man nicht mehr darauf arbeiten.
Und nein, Gnome ist keine Alternative für mich, mit der Benutzerführung komme ich einfach nicht klar. Nichts gegen Gnome, ist ein hervorragendes Stück Software, aber nicht für meine Denkstruktur geeignet.
Du hast in punkto Debian leider einen wichtigen Punkt übersehen.
Für Debian gibt es nämlich auch KDE- und XFce-/LXDE-Installations-CDs:
http://cdimage.debian.org/debian-cd/5.0.3/i386/iso-cd/
debian-503-i386-kde-CD-1.iso
debian-503-i386-xfce+lxde-CD-1.iso
>Nichts gegen Gnome, ist ein hervorragendes Stück Software, aber nicht für meine Denkstruktur geeignet.
++
Ist doch vollkommen in Ordnung.Dafür ist doch Linux Klasse.Für jeden Geschmack das was jeder für sich benötigt.Finde Ich Okay so deine Entscheidung.
Wenn Ich mir in manchen Forum si die Diskussionen beobacht,da wären jetzt schon wieder Flammen hoch geschlagen.
Grüße aus München
Thomas
Ich weiß nich wie es sich bei den Windows Alpha/Betas generell verhält, aber bei Ubuntu sind die meißten Anwendungen und Bibliotheken während der Alpha/Beta im Debug-Mode was Performanceeinbrüche nur logisch macht. Ich habe mit meiner Nvidia weniger Probleme und die Probleme die da sind betreffen nur unwichtige Optik beim Bootvorgang da plymouth wohl KMS-Treiber der Grafikkarte braucht, nouevou aber halt noch nicht fertig ist. Ich finds überflüssig Developement-Releases mit Final-Releases zu vergleichen und überhaupt der andere Vogel da unten ist lustig: Erzwingt KDE und wurdert sich über miese Performance... meinste Gnome ist in weitestgehend allen Desktop-Distris default weil KDE viel chic'er ist? Muhahaha, bestimmt
Was für Denkstrukturen? Da gibt es das Control-Center bzw den Bereich Systemverwaltung, für Sachen die nur den Computerbesitzer/administrator etwas angehen und den Bereich Einstellungen, dort wo der Benutzer sich austoben kann ohne Schaden anrichten zu können xD, mehr brauch man eigentlich nicht, außer vielleicht in 100 Jahren mal gconf.
Das sind doch nur an den Haaren herbeigezogene und durch völlig veraltete Hardware selbstgestrickte Probleme. Wenn Dein neues Auto andere Reifen braucht, ist auch der hersteller schuld, ich weiss...
Ich habe an so vielen schnellen und auch eher betagten Rechnern Windows 7 total problemlos installiert, dass ich sagen muss, Windows 7 rockt, und zwar gewaltig! Wer nun mal ein modernes Betriebssystem einsetzen will, sollte auch die halbwegs passende Hardware dafür haben. Wer sich das nicht leisten kann, sollte sich eher fragen, ob er nicht hätte früher besser aufpassen sollen, als anderen, die es zu was gebracht haben, den Neid nur so vor die Füße zu kotzen!
Immer dieser "Glauben".
Lies bitte das hier und bete noch einmal: :-)
http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480-9.html
Noch einmal: Es geht um neueste Grafikkarten, die unter Windows 7 bzw. Vista praktisch ohne 2D-Hardwarebeschleunigung daher kommen.
Und was interessiert es mich, ob ich 4000 oder 10000 2D Linien in der Sekunde zeichnen kann? In Anwendungen ist das völlig egal.
Nicht umsonst bauen moderne Grafiktoolkits auf OpenGL oder DirectX auf.
Keine funktionierende 2D-Hardwarebeschleunigung zu haben, ist so ziemlich das Rückständigste, was man sich im Grafikbereich überhaupt vorstellen kann. Vektorbasierte Programme zu benutzen wird dann zur regelrechten Tortur.
Im oben von mir verlinkten Artikel steht genau drin, um was es hier geht. Vor allem wird auch dargestellt, welche modernen Grafikkarten unter Windows7/Vista in punkto katastrophal schlechter 2D-Hardwarebeschleunigung besonders stark betroffen sind und warum.
Wer sich schon immer gewundert hat, warum seine Quadcore-2,5GHz-Maschine mit WinVista bzw. Win7 nicht schneller ist als sein alter 2 GHz-PIV mit WinXP, hat jetzt wenigstens einen Ansatzpunkt zur Fehlersuche. :-)
http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480-9.html
Schade, dass er kein Direct2D verglichen hat...
GDI ist schon lange tot.
WPF/Direct2D sind die Zukunft
Der zweite Teil ist jetzt veröffentlicht.
Darin steht auch, warum GDI noch so wichtig ist.
http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487.html
Am besten finde ich den grandiosen Sieg der uralten Voodoo4 in der Kategorie "Stretching":
http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487-13.html
> Wer sich das nicht leisten kann, sollte sich eher fragen, ob er nicht hätte früher besser aufpassen sollen
Das ist ungefähr der schlechteste Satz den ich heute gelesen hab.
Gruß
Intel-GA und Ubuntu - das geht nicht sehr toll.
Zumindestens ist Ubuntu seit Generationen die einzige Distribution,
bei der mein onboard GA Mobile GM965/GL960 beim versuch Compiz zu benutzen, einfriert.
bye haha
Also egal wohin man schaut, es geht nur noch um Glaubensfragen bei Software. Niemand kann sich vorstellen das es überall sche...... ist.Jeder hat sein Favoriten und betet ihn an.
Alle Systeme haben irgendwelche macken, selbst wenn sie die vorher nicht hatten, schaffen Updates die eigentlich nichts damit zu tun haben können, Problem an ganz anderen stellen.
Ein Beispiel: Adobe Reader unter WinXP fordert ein Update von 9.2 auf 9.3. Nach dem Update gehen in der Firma keine Programme mehr die per Netzwerk auf einem Server gestartet werden und vom Client genutzt werden sollen wo dieses Update durchgeführt wurde.
Die einzige Hilfe die es gab, war das System auf den Zustand zu setzen was vor dem Update von Adobereader war. Da machste erst mal nix außer staunen.
Nun, daran kann jeder sehen, das Software von Drittherstellen Probleme verursachen können, die man vorher gar nicht hatte.Und man muss mit den Sicherheitslücken der Software leben oder einen Kostenpflichtigen Support nutzen, der dann Probleme löst die eigentlich Schuld der Softwareentwickler sind und man doch nur ein bischen sicherer sein wollte durch ein Update.
Je komplexer Systeme aufgebaut sind, um so mehr verhält sich Software Irrational.
Außerdem ist es egal geworden ob Bestriebsystem A oder B gut ist, es wird sich für einSystem Entschieden und lobt es im Himmel nur um bei der "Gruppe" der Nutzer dabei zu sein.
Alle glauben an Gott, nur jeder schliesst sich einer Gruppe an um dann zu sagen, die anderen glauben an den Falschen. ...
Früher gingen die Menschen in die Kirche...heute gehen sie in Foren um ihren Glauben zu verbreiten...lol
Guß Udo
Danke!
.. beneidenswerte Idealisten.
Ich habe leider keinen Favoriten, sondern nehme das was zum jeweiligen Zweck zum jeweiligen Zeitpunkt am meiner Meinung nach Besten läuft:
Mandriva als Büro-Client/Server
Ubuntu als Notebook-Disribution
bye haha
Die ARM-Version von Ubuntu ist weiterhin nur für den Freescale-Prozessor, weder der von NVidia(Tegra) noch der von Qualcomm(Snapdragon) werden bedacht, der neue von Marvell auch nicht.
http://cdimage.ubuntu.com/ports/releases/lucid/alpha-2/
Es gibt zwar immer noch keine Geräte mit ARM, aber auf der CES wurden die meisten davon nur noch mit Android gezeigt, einige davon auch mit Windows-CE verunstaltet, aber kaum Ubuntu oder sonstige Distributionen.
> aber kaum Ubuntu oder sonstige Distributionen.
Warum eigentlich?
Android scheint erst mal ein 'Zugpferd' und Namen zu haben, Google, was den anderen Distributoren fehlt, und die "Open Handset Alliance" die hinter Android steht scheint einige Sicherheit zu bieten (z.B. was Updates betrifft).
Solange es keine Alternative gibt -bzw eine die kein Aussenseiter-Dasein darstellt- dürften es sich grosse Firmen kaum trauen gegen Microsoft aufzutreten. Nvidia und Qualcomm scheinen ihre ARM-Chips ja auf Windows-CE hin entwickelt zu haben, nur Freescale scherte da aus.