Login
Newsletter
Werbung

Thema: Ubuntu 10.04 Alpha2 veröffentlicht

69 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
3
Von Korrekturenmann am Fr, 15. Januar 2010 um 12:59 #

Über ein Monat nach der ersten Alphaversion von Ubuntu 9.10 stellt die Entwicklergemeinde eine neue Testvariante der Distribution allen Interessenten zum Test bereit.

Bitte auf 10.04 ändern.

[
| Versenden | Drucken ]
2
Von Anonymous am Fr, 15. Januar 2010 um 13:00 #

Laut Angaben des Teams soll vor allem der Bootvorgang und das Aufwachen aus den verschiedener Sleep-Modis von der Änderung profitieren.

Also ich persönlich finde den Bootvorgang eigentlich schnell genug - aber mir persönlich geht Stabilität sowieso vor Geschwindigkeit.

Zu den weiteren Neuerungen gehören eine verbesserte Unterstützung der proprietären Nvidia-Treiber,...

Na mal sehen, vor allem was 3D angeht.

Das Ubuntu-Team weist darauf hin, dass die Testversion nicht für den produktiven Einsatz gedacht ist.

Na ja: Bei manch anderen Distris gilt das sogar für die (angeblichen) Stable-Versionen... :D

Sebalin.

[
| Versenden | Drucken ]
3
Von vicbrother am Fr, 15. Januar 2010 um 13:02 #

Ich erinnere mich noch sehr gut an die GNOME-Entwickler, die über die KDE herzogen, weil diese sich nicht auf HAL verlässt. Nun bietet HAL wohl keine Grundlage mehr für GNOME. Sehr humorvoll, diese Vorführung.

[
| Versenden | Drucken ]
  • 1
    Von glasen am Fr, 15. Januar 2010 um 14:11 #

    HAL wird nicht mehr weiterentwickelt und DeviceKit ist der Nachfolger von HAL. Wo liegt also das Problem?

    [
    | Versenden | Drucken ]
    • 1
      Von yobrother am Fr, 15. Januar 2010 um 14:19 #

      vicbrother hat immer Probleme mit GNOME. Schuld daran ist ein Trauma, das er bis heute nicht verkraftet hat, nämlich nichts Geringeres als die Gründung von GNOME.

      [
      | Versenden | Drucken ]
      1
      Von sebas am Fr, 15. Januar 2010 um 16:07 #

      Das Problem ist, dass sich die Plattform auf der Applikationsentwickler ihre Software entwickeln nicht ständig ändern sollte. Das führt nämlich dazu, dass Programme es auf einmal nicht mehr tun.

      Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht. (Pointers siehe Wikipedia

      Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)).

      [
      | Versenden | Drucken ]
      • 3
        Von alfreskofisch am Fr, 15. Januar 2010 um 18:42 #

        Falsch.

        > Übrigens ist DeviceKit auch schon quasi aus dem Rennen, es wird zugunsten von libudev ausgetauscht.
        Nicht korrekt. DeviceKit basiert sogar auf libudev. Wie libudev schon vermuten lässt, ist es eine Bibliothek, keine Infrastruktur.

        > Hämisch könnte man sagen, dass David Zeuthen diese Komponenten öfter austauscht, als ich meine Unterwäsche wechsle. Nicht gerade ein Kompliment (für uns beide ;)).
        Igitt. Das gibst du so offen zu? Du weißt schon, dass hier jeder 2. Lesende genau weiß, wer sich hinter "sebas" versteckt (bekannter KDE-Entwickler *hint* *hint*)? Würde mich nicht wunden, wenn du auf den nächsten Kongressen auf diese Unannehmlichkeiten angesprochen würdest.

        [
        | Versenden | Drucken ]
    3
    Von asdf am Fr, 15. Januar 2010 um 14:19 #

    Was genau findest du daran humorvoll?

    Die Kombination aus HAL und dbus, war meiner Meinung einer der wichtigsten Enticklungen für den Linux Desktop, weit aus wichtiger als irgendwelche 3D-WM.
    Erst auf Basis von HAL wurde "Hotplug" unter Linux wirklich benutzerfreundlich. Vor HAL waren triviale Aufgaben wie das Verwenden eines USB-Sticks, oder das auswerfen einer CD, Sachen woran Benutzer gescheitert sind. Wo man sich mit Mountpoints und Devices herumspielen musste, alles manuell machen musste, und als Alternative nur Workarounds wie Automount hatte.

    Jahre sind mittlerweile Vergangen, und mit der Zeit sind neue Anforderungen an HAL hinzugekommen, welche man nicht von Anfang an eingeplant hat. Man hat sich entschlossen die Entwicklung von HAL einzustellen und einen Nachfolger mit neuer Architektur zu entwickeln. DeviceKit kommt übrigens von den gleichen Entwicklern wie HAL.

    Was genau daran ist jetzt Humorvoll? Das es DeviceKit und nicht HAL 2.0 benannt wurde?

    [
    | Versenden | Drucken ]
    • 2
      Von name 1 am Fr, 15. Januar 2010 um 14:50 #

      Hal hat Linux die gleichen Probleme gebracht wie bei Windows. Wenn die eigene Hardware nur geringfügig von Standard abweicht, und sei es nur eine zum Onboardsound zusätzliche Sondkarte, wird bei einem Bootvorgang die Hardware korrekt erkannt und bei einem anderen Bootvorgang wird sie nicht korrekt erkannt. Weitere schwer reproduzierbare Fehler sind die Folge.

      [
      | Versenden | Drucken ]
      4
      Von vicbrother am Fr, 15. Januar 2010 um 15:25 #

      Ich finde es humorvoll, nur eine Lösung zu propagieren und diese als unumstösslich und als das Beste von allem zu betrachten. Das ist m.E. absolut kindisch - jedes Kind möchte gerne den größten Bagger haben ;)

      KDE hat mit aRts die Erfahrung gemacht, dass es besser ist, die aktuellen Systeme über eine eigene Abstraktionsschicht einzubinden, denn diese entwickeln sich sehr schnell fort und werden von Personen betreut, die hiervon mehr Annung haben.

      GNOME ist wohl noch nicht reif genug.

      [
      | Versenden | Drucken ]
      • 2
        Von grünkern am Fr, 15. Januar 2010 um 15:34 #

        Du meinst, man sollte eine Abstraktionsschicht für die Abstraktionsschicht bauen?

        Hier ist doch gerade die Abstraktionsschicht in die Jahre gekommen. Was ist, wenn bei KDE die Abstraktions-Abstraktionsschicht in die Jahre kommt?

        [
        | Versenden | Drucken ]
        • 0
          Von hhb am Fr, 15. Januar 2010 um 15:51 #

          > Du meinst, man sollte eine Abstraktionsschicht für die Abstraktionsschicht bauen?

          Selbstverständlich, man kann nie genug Abstraktionsschichten haben. Sonst würde man ja den Kleinster-Gemeinsamer-Nenner-Effekt verpasssen.

          Dieser Beitrag wurde 1 mal editiert. Zuletzt am 15. Jan 2010 um 15:53.
          [
          | Versenden | Drucken ]
          7
          Von sebas am Fr, 15. Januar 2010 um 16:02 #

          Es geht nicht um "in die Jahre kommen", es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn der Unterbau ausgetauscht wird (wie bei HAL).

          Das Entfernen von HAL ist genau der Grund warum KDE Solid eingeführt hat. Man konnte einfach nicht darauf vertrauen, dass HAL den kompletten KDE 4 Zyklus überlebt -- und das hat sich ja auch als richtig herausgestellt. Mit Solid kann man jetzt ein Devicekit^Wudev-Backend bauen, und die Applikationsentwickler brauchen ihren Code nicht umzustellen.

          Dasselbe Prinzip gilt auch für viele andere Bereiche: Phonon (gstreamer ohne stabile API), KAuth (Pol(icy)Kit ohne stabile API), NetworkManager, usw. Alle ändern ihre API alle Nasen lang. Applikationsentwickler können da kaum mithalten. Innerhalb von KDE haben wir uns entschieden, diese Problem durch Abstraktionsschichten zu lösen (die es gleichzeitig auch ermöglichen, diese Bibliotheken plattformunabhängig zu machen).

          Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als ernstzunehmende Plattform für Enduseranwendungen.

          Dieser Beitrag wurde 1 mal editiert. Zuletzt am 15. Jan 2010 um 16:08.
          [
          | Versenden | Drucken ]
          • 1
            Von joe am Fr, 15. Januar 2010 um 17:04 #

            > es geht drum, dass Apps auf einmal nicht mehr funktionieren, wenn
            > der Unterbau ausgetauscht wird (wie bei HAL)

            Das wäre z.B? Immerhin verwendet Fedora bereits seit Version 11 DeviceKit, Ubuntu hat auch bereits im Karmic mit der Umstellung begonnen. Von irgendwelchen Programmen die deswegen nicht Funktionieren hab ich noch nichts gehört.

            > Es ist nicht gerade praktisch, wenn sich essentielle Teile
            > des Betriebssystems ständig ändern.

            In der Software Enticklung ist praktisch jede Entscheidung ein Abwegen zwischen zwischen Vor- und Nachteilen, DIE perfekte Lösung gibt es selten.
            Genau so ist das mit Abstraktionsschichten. Sie bringen per Definition zusätzlichen Overhead, und Einschränkungen der API. Kompatibilität können sie auch nur erhöhen, aber nicht für Ewigkeiten garantieren.

            [
            | Versenden | Drucken ]
            • 2
              Von vicbrother am Fr, 15. Januar 2010 um 23:13 #

              In der Software Enticklung ist praktisch jede Entscheidung ein Abwegen zwischen zwischen Vor- und Nachteilen, DIE perfekte Lösung gibt es selten.

              Und deshalb sollte man sich flexibel darauf einstellen können - mit einer Abstraktionsschicht.

              [
              | Versenden | Drucken ]
            0
            Von frustrated am So, 24. Januar 2010 um 09:43 #

            > Es ist nicht gerade praktisch, wenn sich essentielle Teile des Betriebssystems ständig
            > ändern. Das schreckt Applikationsentwickler ab, und versaut Linux als
            >ernstzunehmende Plattform für Enduseranwendungen.

            Full ACK!

            [
            | Versenden | Drucken ]
        4
        Von sidubu: verwirrt am Fr, 15. Januar 2010 um 18:47 #

        Du weißt schon, dass aRts schon seit '04 nicht mehr weiterentwickelt wird. Eigene Abstraktionsschichten sind zwangsläufig besser, ja klar, und Stallman hat einen deutschen Vornamen...

        Verwirrt,
        sidubu

        [
        | Versenden | Drucken ]
    2
    Von mounter am Fr, 15. Januar 2010 um 17:49 #

    Deshalb meint KDE auch, die coreutils müssen KIO implementieren? Da hab ich doch lieber das (versteckte) gvfs unter gnome..

    [
    | Versenden | Drucken ]
1
Von neversfelde am Fr, 15. Januar 2010 um 13:10 #

KOffice 2.1 will go into main replacing the KDE 3 version.

Das bedeutet aber nur, dass die alten Koffice 1.6.3 Pakete ersetzt werden. Koffice wird soweit ich informiert bin nicht OpenOffice in der Standardinstallation ersetzen. Leider klingt der Artikel ein wenig nach letzterem.

[
| Versenden | Drucken ]
  • 1
    Von zxy am Fr, 15. Januar 2010 um 13:35 #

    Man sollte keine Office-Software, die von den Entwicklern selbst nicht als stabil angesehen wird, in eine LTS-Version integrieren. Solche Strategien - allgemein und durchgehend angewandt - führen dann dazu, dass auch der nächste LTS erst wieder nach einem halben bis ganzen Jahr produktiv einsetzbar ist.
    Pulseaudio aus Ubuntu LTS 8.04 lässt grüßen.

    [
    | Versenden | Drucken ]
    • 2
      Von sebas am Fr, 15. Januar 2010 um 16:10 #

      Die Alternative wäre KOffice 1.6, was heute schon nicht mehr unterstützt wird. KOffice 2.1 ist vollständig kompatibel zu den alten KOffice Formaten.

      [
      | Versenden | Drucken ]
      • 1
        Von zxy am Fr, 15. Januar 2010 um 16:44 #

        Was nützt das denn, wenn selbst die Entwickler vor dem produktiven Einsatz der neuesten Version warnen?
        KOffice 1.6.x läuft noch und fällt bestimmt nicht auseinander bis die erste für den Produktiveinsatz empfohlene KOffice 2.x-Version erscheint.
        Was meinst Du eigentlich mit "nicht unterstützt"?
        Mögliche Sicherheitsupdates dürfte das ja noch nicht betreffen.
        Genauso wie bei KDE 3.5.10.

        [
        | Versenden | Drucken ]
        • 4
          Von neversfelde am Fr, 15. Januar 2010 um 18:39 #

          Ich glaube kaum, dass es noch ein weiteres 1.6.x Release geben wird und wir hätten mit 1.6.3 3 Jahre lang eine Koffice Version zu pflegen, die niemand mehr aktualisiert oder irgendwie anders unterstützt. Aus ähnlichen Gründen war ja auch Kubuntu 8.04 keine LTS Version.

          Ehrlich gesagt kann ich die Aufregung dazu kaum verstehen. Die Standardinstallation beinhaltet OpenOffice, das momentan wohl sowieso die einzige voll benutzbare Office Suite sein dürfte. Wer daneben noch Lust und Zeit hat einen Blick auf Koffice zu werfen und den Entwicklern zu helfen, der kann es von der DVD installieren. Dazu bietet es sich an bei Erscheinen einer möglicherweise voll benutzbaren Version 2.2 in den 3 Jahren Supportzeitraum einen entsprechenden Backport zu machen.

          [
          | Versenden | Drucken ]
          • 1
            Von zxy am Fr, 15. Januar 2010 um 19:01 #

            Wer ist "wir"?
            Das Canonical/Ubuntu- oder das KOffice-Team?

            Ubuntu, Canonical, Universe, Multiverse und "Pflege"?
            Ich erinnere in diese Zusammenhang nur einmal daran, dass sich in Ubuntu 8.04 sämtliche KOffice-Lokalisierungen - die englische (koffice-i18n-engb) ausgenommen - nicht in Ubuntu Main befinden bzw. befunden haben. Auf eine derartige "Idee" muß man erst einmal kommen.

            [
            | Versenden | Drucken ]
      3
      Von OpenOffice user am Fr, 15. Januar 2010 um 17:52 #

      Gibt es denn wirklich schon Leute, die KOffice produktiv einsetzen? In irgend einer Version?

      [
      | Versenden | Drucken ]
3
Von Jörg Zweier am Fr, 15. Januar 2010 um 18:34 #

> Dies betrifft beispielsweise den Wacom-Treiber von X.org, für den aber bis zum April ein funktionierender Nachfolger bereitstehen soll.
Optimistisch, optimistisch, mein Mark. Wie sah die Situtation noch vor ein paar Versionen mit den Intel-Treibern aus? Da ging auf einmal die Grafik nicht mehr. Wie, du dachtest, die Entwickler würden sich an den Zeitplan halten und die Bugs zeitgemäß schaffen? Naiv, oder so? Unterschätze Ubuntu nicht. Von einem Tag auf den anderen wechselt man nicht mal eben eine Software-Version und riskiert, dass Millionen von Rechnern nach einem Update/-grade kein Bild mehr haben. Du warst CEO, wieso hast du nicht mit deinen Entwicklern an den Gebieten gearbeitet, die am kritischten sind. Ja, ich weiß, Bug #1 ist noch nicht behoben und das wird sich auch nicht ändern, solange die anderen 100 Bugs von Version zu Version mitgeschleppt werden! Verstehe mich nicht falsch, Ubuntu hat Potential. Es funktioniert prächtig, hat aber viele kleine Fehler und Schwächen, die in früheren Versionen nie existent waren. Derivate wie Kubuntu und ähnliche platzen aus allen Nähten mit schlechter Integration und übermäßig schlechter Performance. Wieso schaffen es die Redmonder und wir nicht?

Bitte, liebe neue CEO-in Ubuntus: Tue etwas, um wenigstens die Infrastuktur am Leben zu erhalten und kümmert euch erst dann um die kleinen Wehwehchen Ubuntus. Hilf Linux endlich aus der Krise heraus. Linux hat Potential, aber solange Usability und kleinere Bugs (Ubuntus Bugtracker ist voll von solchen) nur stiefmütterlich behandelt werden, können wir uns von den stolzen Windows-7-lern nur tief im Schnee vergraben und hoffen, dass sich niemand dem heutigen Ubuntu sehr kritisch annimmt und all die zahlreichen und doch so kleinen Fehler findet. Beweise es ihnen, dass auch wir es können. Wir haben das Potential und wir werden es auch schaffen!

[
| Versenden | Drucken ]
  • 1
    Von zxy am Fr, 15. Januar 2010 um 19:15 #

    Redmond und viele Firmen schaffen es auch nicht.
    So ist unter Windows 7 und Vista die 2D-Hardwarebeschleunigung moderner Grafikkarten um Zehnerpotenzen lausiger als auf einem Linuxrechner mit freien Xorg-Treibern.
    Schau auch einmal in die Nutzerforen z.B. eines sehr bekannten Herstellers von Windows-Brennsoftware und mache Dir ein unabhängiges Bild. Der Klassiker ist hierbei die Installation eines Updates über eine bereits gekaufte Vollversion, das sich dann hinterher als "Trial" ausgibt, obgleich das eigentlich nicht der Fall ist. Das schafft Konfusion.
    Ich denke da auch an bestimmte superteure Windows-Grafiksoftware, die angesichts stinknormaler Raid-Systeme die Aktivierung verweigert, ohne auch nur einen Hinweis darauf zu geben, woran es liegen könnte.
    Windows 7 ist ja so einfach. Das merkt man z.B., wenn man seinen Parallel-Drucker an einen Rechner, der nur noch USB-Ports aufweist, anschließen möchte. Mit einem "speziellen" Kabel klappt das auch, nur findet man nirgendwo den Allerwelts-HP-Drucker, jedenfalls nicht, wenn man nicht vorher ein "virtuelles" USB-Device auswählt. Ohne Internetverbindung geht hier sowieso nichts, da viele HP-Treiber gar nicht mit an Bord sind, sondern übers Internet direkt von Microsoft nachgeladen werden müssen.
    Das hört sich alles sehr benutzerfreundlich an, nicht wahr?

    [
    | Versenden | Drucken ]
    • 1
      Von Jörg Zweier am Fr, 15. Januar 2010 um 19:34 #

      Gewisse Regressionen und Probleme gibt es immer, aber laut Bekanntenkreis stimmt das Gesamtpaket einfach bei Windows 7. Kubuntu haben sie auch schon selber angetestet, waren aber von der Performance erschüttert. Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist. Die Liga, in welcher die Probleme bei Ubuntu spielten, ist eine ganz andere: Verlust der Grafik ist m.E. nicht akzeptabel, zumal es schon früh kritische Stimmen aus Entwicklerkreisen gab, die fröhlich weiterhin ignoriert wurden. Das wirft nicht gerade ein gutes Licht auf die Entscheidungsträger.

      Du hast mich wohl missverstanden: Ein OS muss nicht 100% fehlerfrei sein, aber bei Ubuntu wurden in der Vergangenheit wissentlich (!) Showstopper bei neuen Versionen bzw. Update-Wellen toleriert. Das ist m.E. nicht hinnehmbar, weil es sich problemlos verhindern lässt.

      Dazu kommen noch einige kleine Ungereimtheiten bei Ubuntu, die ich jetzt mal unerwähnt lasse, um nicht endlos abzuschweifen.

      [
      | Versenden | Drucken ]
      • 1
        Von zxy am Fr, 15. Januar 2010 um 20:09 #

        "Da geht es nicht darum, ob die 2D-Hardwarebeschleunigung minimal geringer ist."

        Ich meinte nicht "minimal geringere 2D-Hardwarebeschleunigung". Ich meinte vielmehr, dass diese unter Windows 7 bzw. Vista - gerade mit moderneren bzw modernsten Grafikkarten - fast völlig kaputt ist:
        http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html
        plus folgende Seiten.

        [
        | Versenden | Drucken ]
        1
        Von gustl am Sa, 16. Januar 2010 um 14:12 #

        Man nehme eben Debian statt (K)Ubuntu, wenn man keinen Showstopper erleben will.

        Ich selbst habe auf meinem Aspire One Kubuntu nur aus einem Grund installiert: Es ist die einzige (!) Distribution mit guter Hardwareerkennung die von vornherein Gnome NICHT installiert, wenn man ein "Desktop-Setup" wählt.

        Auf meiner nur 8GB großen Flashdisk kann ich nämlich den Installationsmüll, den mir Debian auf die Platte schaufelt (Gnome), nicht brauchen.
        Bei Festplattenrechnern mit mehr als 20 GB wär's mir egal, aber mit 8 GB muss man sparsam bei der Installation sein, sonst kann man nicht mehr darauf arbeiten.

        Und nein, Gnome ist keine Alternative für mich, mit der Benutzerführung komme ich einfach nicht klar. Nichts gegen Gnome, ist ein hervorragendes Stück Software, aber nicht für meine Denkstruktur geeignet.

        [
        | Versenden | Drucken ]
        • 1
          Von zxy am Sa, 16. Januar 2010 um 18:44 #

          Du hast in punkto Debian leider einen wichtigen Punkt übersehen.
          Für Debian gibt es nämlich auch KDE- und XFce-/LXDE-Installations-CDs:
          http://cdimage.debian.org/debian-cd/5.0.3/i386/iso-cd/
          debian-503-i386-kde-CD-1.iso
          debian-503-i386-xfce+lxde-CD-1.iso

          [
          | Versenden | Drucken ]
          0
          Von nobody am So, 24. Januar 2010 um 13:03 #

          >Nichts gegen Gnome, ist ein hervorragendes Stück Software, aber nicht für meine Denkstruktur geeignet.

          ++

          [
          | Versenden | Drucken ]
          0
          Von Thomas Kramer am Mo, 1. März 2010 um 21:02 #

          :D Ist doch vollkommen in Ordnung.Dafür ist doch Linux Klasse.Für jeden Geschmack das was jeder für sich benötigt.Finde Ich Okay so deine Entscheidung.

          Wenn Ich mir in manchen Forum si die Diskussionen beobacht,da wären jetzt schon wieder Flammen hoch geschlagen.

          Grüße aus München

          Thomas

          [
          | Versenden | Drucken ]
        1
        Von Kommentator am So, 17. Januar 2010 um 17:08 #

        Ich weiß nich wie es sich bei den Windows Alpha/Betas generell verhält, aber bei Ubuntu sind die meißten Anwendungen und Bibliotheken während der Alpha/Beta im Debug-Mode was Performanceeinbrüche nur logisch macht. Ich habe mit meiner Nvidia weniger Probleme und die Probleme die da sind betreffen nur unwichtige Optik beim Bootvorgang da plymouth wohl KMS-Treiber der Grafikkarte braucht, nouevou aber halt noch nicht fertig ist. Ich finds überflüssig Developement-Releases mit Final-Releases zu vergleichen und überhaupt der andere Vogel da unten ist lustig: Erzwingt KDE und wurdert sich über miese Performance... meinste Gnome ist in weitestgehend allen Desktop-Distris default weil KDE viel chic'er ist? Muhahaha, bestimmt ;)

        [
        | Versenden | Drucken ]
        • 2
          Von Kommentator am So, 17. Januar 2010 um 17:16 #

          Was für Denkstrukturen? Da gibt es das Control-Center bzw den Bereich Systemverwaltung, für Sachen die nur den Computerbesitzer/administrator etwas angehen und den Bereich Einstellungen, dort wo der Benutzer sich austoben kann ohne Schaden anrichten zu können xD, mehr brauch man eigentlich nicht, außer vielleicht in 100 Jahren mal gconf.

          [
          | Versenden | Drucken ]
      1
      Von Lecter am Fr, 15. Januar 2010 um 19:41 #

      Das sind doch nur an den Haaren herbeigezogene und durch völlig veraltete Hardware selbstgestrickte Probleme. Wenn Dein neues Auto andere Reifen braucht, ist auch der hersteller schuld, ich weiss...
      Ich habe an so vielen schnellen und auch eher betagten Rechnern Windows 7 total problemlos installiert, dass ich sagen muss, Windows 7 rockt, und zwar gewaltig! Wer nun mal ein modernes Betriebssystem einsetzen will, sollte auch die halbwegs passende Hardware dafür haben. Wer sich das nicht leisten kann, sollte sich eher fragen, ob er nicht hätte früher besser aufpassen sollen, als anderen, die es zu was gebracht haben, den Neid nur so vor die Füße zu kotzen!

      [
      | Versenden | Drucken ]
      • 1
        Von zxy am Fr, 15. Januar 2010 um 20:06 #

        Immer dieser "Glauben".
        Lies bitte das hier und bete noch einmal: :-)
        http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480-9.html
        Noch einmal: Es geht um neueste Grafikkarten, die unter Windows 7 bzw. Vista praktisch ohne 2D-Hardwarebeschleunigung daher kommen.

        [
        | Versenden | Drucken ]
        • 1
          Von graficker am Sa, 16. Januar 2010 um 00:15 #

          Und was interessiert es mich, ob ich 4000 oder 10000 2D Linien in der Sekunde zeichnen kann? In Anwendungen ist das völlig egal.
          Nicht umsonst bauen moderne Grafiktoolkits auf OpenGL oder DirectX auf.

          [
          | Versenden | Drucken ]
          • 1
            Von zxy am Sa, 16. Januar 2010 um 05:57 #

            Keine funktionierende 2D-Hardwarebeschleunigung zu haben, ist so ziemlich das Rückständigste, was man sich im Grafikbereich überhaupt vorstellen kann. Vektorbasierte Programme zu benutzen wird dann zur regelrechten Tortur.

            Im oben von mir verlinkten Artikel steht genau drin, um was es hier geht. Vor allem wird auch dargestellt, welche modernen Grafikkarten unter Windows7/Vista in punkto katastrophal schlechter 2D-Hardwarebeschleunigung besonders stark betroffen sind und warum.

            Wer sich schon immer gewundert hat, warum seine Quadcore-2,5GHz-Maschine mit WinVista bzw. Win7 nicht schneller ist als sein alter 2 GHz-PIV mit WinXP, hat jetzt wenigstens einen Ansatzpunkt zur Fehlersuche. :-)

            [
            | Versenden | Drucken ]
          1
          Von TheUndeadable am Sa, 16. Januar 2010 um 11:57 #

          http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480-9.html

          Schade, dass er kein Direct2D verglichen hat...

          GDI ist schon lange tot.

          WPF/Direct2D sind die Zukunft

          [
          | Versenden | Drucken ]
          • 0
            Von zxy am So, 24. Januar 2010 um 15:02 #

            Der zweite Teil ist jetzt veröffentlicht.
            Darin steht auch, warum GDI noch so wichtig ist.
            http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487.html
            Am besten finde ich den grandiosen Sieg der uralten Voodoo4 in der Kategorie "Stretching":
            http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487-13.html

            [
            | Versenden | Drucken ]
        2
        Von TeaAge am Fr, 15. Januar 2010 um 20:40 #

        > Wer sich das nicht leisten kann, sollte sich eher fragen, ob er nicht hätte früher besser aufpassen sollen

        Das ist ungefähr der schlechteste Satz den ich heute gelesen hab.

        Gruß

        [
        | Versenden | Drucken ]
    1
    Von haha am Fr, 15. Januar 2010 um 19:33 #

    Intel-GA und Ubuntu - das geht nicht sehr toll.

    Zumindestens ist Ubuntu seit Generationen die einzige Distribution,
    bei der mein onboard GA Mobile GM965/GL960 beim versuch Compiz zu benutzen, einfriert.

    bye haha

    [
    | Versenden | Drucken ]
    • 1
      Von Udo am Fr, 15. Januar 2010 um 23:19 #

      Also egal wohin man schaut, es geht nur noch um Glaubensfragen bei Software. Niemand kann sich vorstellen das es überall sche...... ist.Jeder hat sein Favoriten und betet ihn an.
      Alle Systeme haben irgendwelche macken, selbst wenn sie die vorher nicht hatten, schaffen Updates die eigentlich nichts damit zu tun haben können, Problem an ganz anderen stellen.
      Ein Beispiel: Adobe Reader unter WinXP fordert ein Update von 9.2 auf 9.3. Nach dem Update gehen in der Firma keine Programme mehr die per Netzwerk auf einem Server gestartet werden und vom Client genutzt werden sollen wo dieses Update durchgeführt wurde.
      Die einzige Hilfe die es gab, war das System auf den Zustand zu setzen was vor dem Update von Adobereader war. Da machste erst mal nix außer staunen.
      Nun, daran kann jeder sehen, das Software von Drittherstellen Probleme verursachen können, die man vorher gar nicht hatte.Und man muss mit den Sicherheitslücken der Software leben oder einen Kostenpflichtigen Support nutzen, der dann Probleme löst die eigentlich Schuld der Softwareentwickler sind und man doch nur ein bischen sicherer sein wollte durch ein Update.
      Je komplexer Systeme aufgebaut sind, um so mehr verhält sich Software Irrational.
      Außerdem ist es egal geworden ob Bestriebsystem A oder B gut ist, es wird sich für einSystem Entschieden und lobt es im Himmel nur um bei der "Gruppe" der Nutzer dabei zu sein.

      Alle glauben an Gott, nur jeder schliesst sich einer Gruppe an um dann zu sagen, die anderen glauben an den Falschen. ...
      Früher gingen die Menschen in die Kirche...heute gehen sie in Foren um ihren Glauben zu verbreiten...lol
      Guß Udo

      [
      | Versenden | Drucken ]
1
Von i.MX515 am Fr, 15. Januar 2010 um 20:06 #

Die ARM-Version von Ubuntu ist weiterhin nur für den Freescale-Prozessor, weder der von NVidia(Tegra) noch der von Qualcomm(Snapdragon) werden bedacht, der neue von Marvell auch nicht.

http://cdimage.ubuntu.com/ports/releases/lucid/alpha-2/

Es gibt zwar immer noch keine Geräte mit ARM, aber auf der CES wurden die meisten davon nur noch mit Android gezeigt, einige davon auch mit Windows-CE verunstaltet, aber kaum Ubuntu oder sonstige Distributionen.

[
| Versenden | Drucken ]
  • 1
    Von Jörg Zweier am Fr, 15. Januar 2010 um 21:54 #

    > aber kaum Ubuntu oder sonstige Distributionen.
    Warum eigentlich?

    [
    | Versenden | Drucken ]
    • 1
      Von i.MX515 am Fr, 15. Januar 2010 um 22:12 #

      Android scheint erst mal ein 'Zugpferd' und Namen zu haben, Google, was den anderen Distributoren fehlt, und die "Open Handset Alliance" die hinter Android steht scheint einige Sicherheit zu bieten (z.B. was Updates betrifft).

      Solange es keine Alternative gibt -bzw eine die kein Aussenseiter-Dasein darstellt- dürften es sich grosse Firmen kaum trauen gegen Microsoft aufzutreten. Nvidia und Qualcomm scheinen ihre ARM-Chips ja auf Windows-CE hin entwickelt zu haben, nur Freescale scherte da aus.

      [
      | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung