Login
Newsletter
Werbung

Thema: Kommentar: 2013 – Das Jahr, in dem Linux unterging

70 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von gast01 am Do, 22. September 2011 um 17:59 #

Super Artikel, hatte schon auf anderen seiten darüber gelesen aber nirgendwo wurde es so gut erklärt und keine panikmache veranstalltet.

[
| Versenden | Drucken ]
  • 0
    Von ich am Do, 22. September 2011 um 18:05 #

    Könnte ich nicht besser sagen :)

    [
    | Versenden | Drucken ]
    0
    Von Witer als einen Meter Denken am Fr, 23. September 2011 um 18:58 #

    So ganz stimmt das ja nicht mit der Panik mache!

    Die Sache sieht jetzt ungefähr so aus^^:
    1: jemand hat vor um einen Spielplatz einen Stacheldrahtzaun zu ziehen!
    2: jetzt zerfuseln sich alle das Maul ob das Tor offen bleibt oder nicht!
    = wo bleibt die Diskussion was der "Zaun" da verloren hat!
    = währen sich alle über das Tor auslassen denkt/ist der Zaunzieher schon "viel" weiter!

    Gruß

    [
    | Versenden | Drucken ]
0
Von bbb am Do, 22. September 2011 um 18:12 #

"Der springende Punkt der Diskussion ist aber, dass es sich lediglich um fertige Systeme mit einer Zertifizierung für Windows-8-PCs handeln wird"

"Lediglich" ist wohl eine ziemliche Untertreibung.
Das werden doch doch die allermeisten PCs sein, die in den Ladenketten mit Windows 8 angeboten und von Durchschnittskäufern erworben werden.
Und was werden diese Nutzer tun, wenn ihre Knoppix- oder Ubuntu-CD nicht mehr startet? Sie legen sie zur Seite und das war's dann.

Also ich sehe schon Gründe, dass man sich Sorgen machen sollte.
Übertreibungen mögen nicht dienlich sein, dieses "Maya-Gefasel" aber ebensowenig.

[
| Versenden | Drucken ]
  • 0
    Von Sebastian b. am Do, 22. September 2011 um 18:18 #

    Nicht zu vergessen die Millionen von Notebooks und wohl auch Tablets, die man kaum in Einzelteilen bekommt (und auch nicht bekommen will)

    [
    | Versenden | Drucken ]
    0
    Von MoMo am Do, 22. September 2011 um 18:23 #

    Das werden doch doch die allermeisten PCs sein, die in den Ladenketten mit Windows 8 angeboten und von Durchschnittskäufern erworben werden.

    Eher nicht, denn die wenigsten Systeme sind zertifiziert. Die meisten Win-PCs sind "ready" oder "compatible", was nichts mit einer Zertifizierung zu tun hat. Sie tragen auch nicht das entsprechende Logo, das hier vorausgesetzt wird. Grund: So etwas kostet eine Stange Geld und muss jedes Mal wiederholt, werden.

    [
    | Versenden | Drucken ]
    • 0
      Von bbb am Do, 22. September 2011 um 19:04 #

      "Grund: So etwas kostet eine Stange Geld und muss jedes Mal wiederholt, werden."

      Vielleicht nicht, wenn das zum Standard wird. Die Kosten schlägt man dann vielleicht auf die Komplett-PC-Preise drauf.

      Diese Entwicklung ist auch gerade für Windowsnutzer nicht ungefährlich: Hier droht - in Verbindung mit den geplanten Windows8-AppStores, über die allein man nur Windows8-Metro-Anwendungen wird kaufen und installieren können - eine ähnliche Kasernierung des PCs wie beim iPhone.

      Mich würde vor allem interessieren, ob Nichtwindowsbetriebssysteme dieses Problem allein aus eigener Kraft auf einem solchen zertifizierten PC umgehen können. IMHO ist das nicht so und deswegen eben tatsächlich ein richtiges Problem.

      [
      | Versenden | Drucken ]
      • 0
        Von hm am Do, 22. September 2011 um 19:11 #

        das wäre dann Missbrauch der Marktmacht, wofür zZ gerade Google befragt wird. Ja klar - wir kennen nichts anderes von m$ bisher..

        [
        | Versenden | Drucken ]
        • 0
          Von bbb am Do, 22. September 2011 um 19:28 #

          Microsoft gibt halt vor, dass ihm die Sicherheit seiner Nutzer am Herzen liegt. Das ist immer ein gutes Argument.

          [
          | Versenden | Drucken ]
    0
    Von Baldrian am Do, 22. September 2011 um 23:48 #

    Nein. Glaub ich nicht.

    Ich arbeite selbst bei einem der größten Computerhersteller und kann mir das kaum vorstellen.

    Es werden auch dort genügend Systeme mit Linux und FreeDOS vertrieben. Damit würde man sich dann ja ins eigene Bein schießen. Gerade bei Business Geräte wird gerne auf Windows verzichtet (nicht weil es nicht eingesetzt wird, aber weil es nicht extra mit dem Rechnern erworben wird).

    Die Hardware bzw. Mainboards sind aber meist die gleichen (oder nahe Verwand), so das es so gut wie immer für jede Modelreihe auch Gerät mit Linux oder FreeDOS gibt. Deshalb wird es vermutlich auch kein Windows only UEFI geben.

    Ich weiß nicht wie es bei anderen Herstellern ist, aber ich denke das ist bei vielen übertragbar und die jenige welche es anders sehen, werden ihre Gedräte ansich nur um möglichkeiten beschneiden - ob sich das lohnt oder ein Verkaufsargument ist?


    [
    | Versenden | Drucken ]
0
Von maieutike am Do, 22. September 2011 um 18:15 #

Danke für diesen Artikel!

Was auch immer demnächst aus dem Hause Redmond kommt - so wird es auch an anderen Stellen deutlich - verweist auf eine Einsperrung der Nutzerbasis auf das Microsoft'sche Ökosystem. Also ganz gegen die eigentliche Richtung einer sich öffnenden IT-Welt. Die Nutzer werden es merken vorher oder im Nachhinein spielt dabei keine große Rolle, es wird Spuren hinterlassen.

Interessant wird es sein, wie sich Microsoft in Zukunft immer mehr ins Hintertreffen manövriert.

[
| Versenden | Drucken ]
  • 0
    Von Affenkopp am Sa, 24. September 2011 um 10:28 #

    »Also ganz gegen die eigentliche Richtung einer sich öffnenden IT-Welt.«

    Also das wäre mir neu :huh: Mir scheint doch eher das Gegenteil der Fall zu sein.

    [
    | Versenden | Drucken ]
0
Von hm am Do, 22. September 2011 um 18:26 #

selbst wenns grossflächig eingesetzt wird..

Da braucht's im dümmsten Fall eine App in Windows die das Flag wieder entfernt und einen Linux-Bootloader in den MBR schreibt - und schon kann man beim nächsten booten wieder auswählen was für ein OS man will - wenns Windows sein muss dann kann der Bootmanager das Flag wieder setzen und den den Windows-MBR zurückschreiben.. alles lediglich grosses Theater.

Nur - wer die Wahl und die Infos hat wird der verdongelten HW aus dem Weg gehen - aus Prinzip.

[
| Versenden | Drucken ]
  • 0
    Von Crass Spektakel am Do, 22. September 2011 um 18:33 #

    > Da braucht's im dümmsten Fall eine App in Windows die
    > das Flag wieder entfernt und einen Linux-Bootloader in
    > den MBR schreibt

    Damit wäre dann Dein Windows kaputt.

    Denn Dein MBR (den es so ja nicht mehr in UEFI gibt) bzw. Bootloader wäre dann ja nicht signiert und würde vom BIOS garnicht erst ausgeführt werden.

    Der Artikel ergeht sich buzzwordschwanger in "wissen wir nicht aber vieleicht wirds ja vernünftig gelöst".

    Ein Punkt den ein Microsoftwindowsentwickler mir gegenüber angab: Man kann natürlich mit dem BCD-Bootloader von Windows auch einen Linuxkernel nachladen. Das ist derzeit nicht deaktiviert oder ausgeschlossen. Er legt dazu den Linuxkernel direkt mit auf die 100MB Boot-Partition von Windows8 und lädt über BCD einen lilo-Bootsektor nach der dann den Kernel nachläd. Feddisch.

    Ob das allerdings so bleibt steht in den Sternen. Und ja, er selbst rechnet mit dem Schlimmsten. Nicht mit dem Allerschlimmsten aber kurz davor.

    Dieser Beitrag wurde 1 mal editiert. Zuletzt am 22. Sep 2011 um 18:36.
    [
    | Versenden | Drucken ]
    • 0
      Von hm am Do, 22. September 2011 um 18:40 #

      wenn man einen Diskdump vom Bootloader zurücklädt stimmt doch die Signatur wieder überein, die ist ja dann fix hinterlegt im BIOS? das müsste doch lösbar sein..

      [
      | Versenden | Drucken ]
      0
      Von haha am Fr, 23. September 2011 um 08:28 #

      > Man kann natürlich mit dem BCD-Bootloader von Windows auch einen Linuxkernel nachladen

      Und der Linux-Kernel benötigt dann keine Signatur?

      [
      | Versenden | Drucken ]
      • 0
        Von Crass Spektakel am Fr, 23. September 2011 um 10:57 #

        Das liegt letztlich bei der Software und wenn der aktuelle Windowsbootloader keine Signatur beim Nachladen vorraussetzt dann gehts halt.

        Alles andere wäre auch schwer vorstellbar oder wie will man sonst ältere Windowsversionen nachladen?

        Ich verwende den Windowsbootloader übrigens ebenfalls schon sehr lange um Linux bzw. lilo nachzuladen, unter XP ist die Config einfach eine kleine Textdatei und unter Vista+Neuer muß man mit Easy-BCD ran. Die Windowsbootloader können ja das meiste und wenn etwas mal nicht geht dann läd man eben einen grub mit mehr Möglichkeiten nach.

        Da kommt mir eine ganz andere Idee, bisher lade ich mit dem Windowsloader immer einen Bootsektor der dann lilo läd was dann den Linuxkernel läd.

        Eigentlich müßte man den Linuxkernel doch sogar direkt nachladen können. Aus Urzeiten erinnere ich mich daß man den Linuxkernel einfach auf eine Diskette kopieren konnte (cat /vmlinux >/dev/fd0) und das Ding hat gebootet.

        Einzig das Setzen weiterer Parameter war Mist, da mußte man irgendwie mit rset oder so direkt im Kernelbinary feste Felder umstellen.

        [
        | Versenden | Drucken ]
    0
    Von xk am Do, 22. September 2011 um 18:39 #

    Man kann das ja gerade nicht aus Windows heraus abschalten. Der Sinn des ganzen Sicherheitsfunktion ist ja die unter anderem die Verhinderung von Manipulationen am Bootloader. Wenn ein Virus das aus Windows heraus abstellen könnte, wäre die ganze Funktion sinnlos. Man müsste es also entweder in UEFI oder der Hardware ausstellen können.

    [
    | Versenden | Drucken ]
    • 0
      Von hm am Do, 22. September 2011 um 18:56 #

      gerade nachgelesen dass das edit nur im UEFI runtime environment geht - übel

      [
      | Versenden | Drucken ]
      • 0
        Von Crass Spektakel am Do, 22. September 2011 um 23:18 #

        Ja, man kann in der EFI-Shell älterer Xeon-Boards Schlüssel aufnehmen (Hier Intel-5000XVN)

        Nein, da sind bei alten Xeon-Boards keine Schlüssel drin. Windows8 würde darauf also erstmal auch nicht booten.

        Ja, das ist SCHWEINEKOMPLIZIERT - imho war das Manual bei Intel 30 Seiten lang und in schönstem IBM-Englisch verfaßt.

        Nein, aktuelle Consumerboards mit EFI Shell haben diese Befehle NICHT drin und man kann keine neuen Schlüsselbunde aufnehmen (getestet aktuelle P67/Z68-Boards von MSI, Gigabyte, Asus) oder es geht jetzt gänzlich anders...

        Aber natürlich kann man davon ausgehen daß die Industrie sich ein Bein ausreist damit es mit keiner vorstellbaren Kombination aus Hardware und Nicht-Windows ein Problem gibt. Wir müssen nur alle ganz fest daran glauben.

        [
        | Versenden | Drucken ]
0
Von DerSeher am Do, 22. September 2011 um 18:28 #

es ist der Versuch PC und Laptop genauso einzusperren, wie es bei Smartphones und Tablets schon der Fall ist.

[
| Versenden | Drucken ]
0
Von Crass Spektakel am Do, 22. September 2011 um 18:29 #

> Systeme, auf denen Linux nicht gestartet werden kann,
> sind immer noch keine Seltenheit und Umsicht beim Kauf
> von Hardware kein Novum.

Genau und dann kaufen wir alle zertifizierte PowerPC-Linuxsysteme von IBM. 15.000 Dollar aufwärts sollte einem das schon wert sein. Sonst könnte ja jeder kommen und auf einer 200 Euro ZBox seinen Linux-PVR installierern. Nein, so geht das nicht.

Meine Linuxrechner bestehen zu 100% aus ehemaliger Windowshardware. Gäbe es damit auch nur die geringsten Probleme wäre halt Linux weg.

[
| Versenden | Drucken ]
  • 0
    Von Unerkannt am Fr, 23. September 2011 um 09:02 #

    Wenn du überhaupt keine Vorteile aus Linux ziehst, warum machst du dir eigentlich die Mühe ein System damit zu betreiben?

    [
    | Versenden | Drucken ]
0
Von Michael64 am Do, 22. September 2011 um 18:45 #

In Deutschland ist sowas überhaupt nicht möglich da der PC modular ist. Deswegen sind Aufkleber "Garantieverlust beim Öffnen" in Deutschland auch nichtig. Eine Software aufzuzwingen wird es nicht geben. Dazu andere Länder in denen es bereits möglich ist nicht genutzt Lizenzen zurückzugeben... dann muss der Rechner auch mit einem älteren Windows oder einem anderen System gehen.


Ich gehe jede Wette ein, von diesem Murks kommt _NICHTS_.

Es wird optional, denn in Firmen kann es ganz nützlich sein.

[
| Versenden | Drucken ]
  • 0
    Von Anonymous am Do, 22. September 2011 um 21:11 #

    Und wenn er käme, hätte Microsoft wieder ein EU- Kartellverfahren am Hals.

    Daher denke ich auch, dass die sich nicht trauen werden, das den Nutzern aufzuzwingen.

    Was schon eher denkbar ist, dass Hersteller das "freiwillig" einsetzen, weil sie es Anwendern als Sicherheit gegen Rootkits und dergleichen verkaufen können. Die paar Linux- Nutzer werden ihnen sicherlich am A$$$$ vorbei gehen.

    Z.B. bei Notebooks könnte das dann doch die Auswahl einschränken.

    [
    | Versenden | Drucken ]
    0
    Von Crass Spektakel am Do, 22. September 2011 um 23:21 #

    Eben, deutsche Gerichte haben auch festgestellt daß Tintendongles keine Marktverzerrung sind da ja jederzeit ein Hersteller einen Drucker ohne Tintendongle rausbringen könnte...

    ...nur, wo sind die Hersteller ohne Tintendongle?

    Objoke: Zwei Richter gehen spazieren. Ploetzlich kommt eine alte Frau und spricht einen von ihnen an: "Hoeren Sie mal, Ihr Hund hat mir da vorne an der Ecke meine Struempfe zerrissen!"

    Der Angesprochene zueckt wortlos seinen Geldbeutel, zieht einen 20-Markschein heraus, gibt ihn der Frau und sagt: "Es tut mir leid. Reicht das?"

    Die "Geschaedigte" nimmt das Geld und verschwindet.

    Der andere Richter schaut seinen Kollegen unglaeubig an und sagt: "Aber Sie haben doch gar keinen Hund!?"

    Darauf der, der gezahlt hat: "Werter Kollege, Sie wissen es und ich weiss es auch. Aber wer weiss, wie ein Gericht entscheiden wuerde?"

    [
    | Versenden | Drucken ]
0
Von Stefan am Do, 22. September 2011 um 19:02 #

Wie aussieht ist einmal mehr der Zeitpunkt gekommen auf Coreboot umzusteigen. Gibts denn inzwischen schon Hardware zu kaufen, die damit ausgeliefert wird? Oder hat schon jemand allegmein Erhfahrungen mit Coreboot gemacht?

[
| Versenden | Drucken ]
  • 0
    Von Bernhard M. am Fr, 23. September 2011 um 16:08 #

    Ich hatte Coreboot mal auf ein neues Mainboard portiert (basierend auf einem aehnlichen bereits unterstuetzten) - das lief weitgehend gut mit Linux: bootete von IDE CompactFlash und konnte dann normal SATA, Ethernet, USB und so.
    Wenn man ein PC-maessiges BIOS will, muss man wohl noch SeaBIOS dazu nehmen.
    Und natuerlich sind die neuesten Mainboards und Techniken nicht so gut supported - am besten vorher in der Coreboot device Liste was gruenes raussuchen.

    [
    | Versenden | Drucken ]
0
Von tuxcad am Do, 22. September 2011 um 19:54 #

Wenn die wirklich eine Abschottung gegenüber alternativen oS damit realisieren wollten, dann kommen Sie damit zu spät. Microsoft führt nur noch im Desktop-Segment. In den wichtigsten Wachstumsmärkten wie Tablets, Smartphones und sonstige mobile Geräte sowie Server ist der Käs gegessen. Was macht es dann noch für Sinn, einen einzelnen Desktop so abzuschotten? Ich glaube nicht dass dieser Murks so kommt, denn damit würden Sie sich letztlich selbst ein Bein stellen. Tausende Kunden würden, wenn Sie merken dass Sie mit Ihrem Rechner praktisch nichts mehr ausser Windows starten können, zu PCs ohne OS greifen. Da können sie Ihre WinXP, Win7 oder sonstwas Lizenz weiter nutzen. Und was nützt mir ein Win8 PC, der nicht zu meinem Iphone oder Android Gerät kompatibel ist? Nix.

[
| Versenden | Drucken ]
  • 0
    Von oldmcdonald am Do, 22. September 2011 um 21:16 #

    Es gibt eine ganz klare Smartphone-Strategie bei Microsoft: Microsoft hat den Desktop. Also wird der Desktop dem Smartphone ähnlich gemacht ("Metro"), was Gewohnheitstieren auch die WP8-Smartphones schmackhaft machen wird.

    Dazu kommt, dass ein weltweit bekannter Mobiltelefonhersteller verpflichtet wurde, auf Windows Phone zu setzen (und alle seine Linux-Pläne von heute auf morgen fallen zu lassen).

    Ich würde Microsoft nicht abschreiben. Sie sind nach wie vor die durchtriebendsten Typen im IT-Business. Sie haben viel Geld, sie haben Macht, Dinge durchzusetzen, die andere nicht so einfach durchsetzen können, und sie haben eine Armada strohdummer User, die das benutzen, was eben gerade benutzt wird: Windows.

    Der Käse ist noch lange nicht gegessen. Das glaube ich erst, wenn Microsoft pleite geht.

    [
    | Versenden | Drucken ]
0
Von Rübezahl am Do, 22. September 2011 um 20:40 #

Ich glaube der Autor verkennt die Lage. MicroSoft und PCs sind für Linux fast unbedeutend (wenn man sich die Umsätze anschaut). Viel wichtiger ist her der Server-Markt!! Und hier droht die Gefahr von von Oracle. Oracle stellt Hardware, Oracle-Linux und Enterprice DBs und Aplikationen her. Oracle wird Kunden ihre Hardware hinstellen und ihnen Oracle-Linux unter (RedHat-)Preis dazu geben. Oracle läuft natürlich "nur" wirklich gut und sicher auf Oracle-Hardware. Ein paar Jahre später können die Oracle-Kunden nur noch Oracle-Linux auf ihren Büchsen laufen lassen oder sich neue Hardware kaufen.

.

[
| Versenden | Drucken ]
  • 0
    Von Theo am Do, 22. September 2011 um 21:26 #

    "Oracle läuft natürlich "nur" wirklich gut und sicher auf Oracle-Hardware."

    Vergiss es. Wenn die könnten hätten sie das schon gemacht. Oracle und SAP sind ja bekanntlich Todfeinde und auch wenn beide immer mal wieder strategischen Partnerschaften mit anderen Unternehmen schmieden, so ist das Duo SAP & Oracle bis jetzt im Enterprise Bereich ungeschlagen. Das ganze unter IBM P-Series als flotte Hardware drunter und AIX als OS.

    Da kann Oracle noch lange eigene Distries rausbringen und HW kaufen, SAP eigene DB's (MaxDB) kaufen, an die oben genannte Kombination kommt einfach nichts ran.

    Dieser Beitrag wurde 1 mal editiert. Zuletzt am 23. Sep 2011 um 13:48.
    [
    | Versenden | Drucken ]
    • 0
      Von Rübezahl am Do, 22. September 2011 um 21:43 #

      ...Klar, und weil keiner Oracle haben will, ist Oracle auch so unbedeutend. Tut mir Leid, aber die Realität im Enterprice-Bereich seht anders aus.

      [
      | Versenden | Drucken ]
      • 0
        Von Theo am Fr, 23. September 2011 um 13:47 #

        Habe ich behauptet Oracle sei unbedeutend? Ich sprach die Kombination an DB/Applikation/OS/HW. Und die Realität im Enterprise-Bereich sieht da schon eher so aus wie ich das beschrieb.

        [
        | Versenden | Drucken ]
        • 0
          Von Rübezahl am Fr, 23. September 2011 um 15:14 #

          Dann lebst du in ein Paralleluniversum...

          "Die Erhebung 2008 hatte gezeigt, dass mittlerweile mehr als zwei von drei SAP-Migrationen nach Linux von UNIX ausgehen. Der Anteil von auslaufenden UNIX-Derivaten (beispielsweise Tru64 und Reliant) sank 2008 auf rund 5%. Die UNIX-Derivate mit den größten Verlusten waren laut der Studie im letzten Jahr HP-UX (40,9%) und AIX (18,2%)." (http://www.pro-linux.de/news/1/14668/neue-studie-ueber-den-trend-zu-linux-in-sap-rechenzentren.html)

          ...AIX wird seid Jahren von Linux "beerbt".

          [
          | Versenden | Drucken ]
          • 0
            Von Theo am Fr, 23. September 2011 um 19:46 #

            Ja und? Auf Power Architektur läuft Oracle und SAP trotzdem rund. Deine Behauptung war doch, dass Oracle nur noch auf ihrer Linux-Distribution und ihrer HW (machen die da noch was?) rund läuft.

            Wenn ich in einem Paralleluniversum lebe frage ich mich ob du schonmal in einem RZ warst.

            Noch ein Nachtrag: Oracle's Stärke ist, dass ihre DB auf relativ vielen Architekturen läuft. Die gehen doch nicht hin und machen sich das eigene Geschäft kaputt.

            Dieser Beitrag wurde 1 mal editiert. Zuletzt am 23. Sep 2011 um 19:50.
            [
            | Versenden | Drucken ]
0
Von Thomas Tempel am Do, 22. September 2011 um 21:02 #

Ein Fall für die Piraten

[
| Versenden | Drucken ]
0
Von Heckmeckeckdreckweg am Do, 22. September 2011 um 21:12 #

2013 – Das Jahr, in dem Linux unterging

HIIIILLLLLFFFEEEE! Wir müssen alle sterben
!eleveneinself! #"$%/($ !-Taste kaputt....

[
| Versenden | Drucken ]
0
Von Heckmeckeckdreckweg am Do, 22. September 2011 um 21:25 #

Noch eine Bestätigung für den obigen Artikel:

Immer wenn MS ein Riesenaufwand betrieb, um seine Systeme zu schützen, konnte man diese Software technisch immer leicht aushebeln. Hinzu kommt erleichternd, daß MS offensichtlich schwächer geworden ist. Und wer macht eigentlich diesen teuren Quark mit? Der Einzelhändler, der jetzt billig sein muß, um Kunden zu kriegen? Die zeigen MS die ausgestreckte Hand, aber nicht zu Begrüßung, sondern um den Effenberger in 5 verschiedenen Sprachen zu zeigen...

Also: Wie im letzten Absatz beschrieben: MS macht eine Vaporware Ankündigung, der Rest der Welt übt sich in Weltuntergangsszenarien (huch, wie degeneriert) oder Wutbürgertum und wir haben was zu lachen. Also: Ich bestelle schon einmal den Popcornzug der Grubenbahn (DB AG), der dürfte mit den bisherigen Verspätungen dann 2013 pünktich sein....

[
| Versenden | Drucken ]
  • 0
    Von Crass Spektakel am Do, 22. September 2011 um 23:25 #

    > Immer wenn MS ein Riesenaufwand betrieb, um seine
    > Systeme zu schützen, konnte man diese Software
    > technisch immer leicht aushebeln.

    Ach, dann weist Du mehr wie ich. Kannst Du Win7 Installcodes generieren? Kannst Du ohne korrekten Installcode ein Win7 ordentlich betreiben?

    Im Moment klappt das nur mit gepatchten BIOS-Versionen um OEM-Rechner mit Massenlizenz zu emulieren... als ob ein vernünftiger Mensch mal eben so sein BIOS patcht und mit UEFI geht auch das nicht mehr weils ja signiert ist...

    [
    | Versenden | Drucken ]
0
Von anonymous am Do, 22. September 2011 um 21:52 #

Offensichtlich hat das 1. Microsoft-Gebot nach wie vor Gültigkeit:

Ich bin Bill Gates, dein Gott. Du sollst nicht andere Software haben neben meiner!

[
| Versenden | Drucken ]
0
Von ohnenameleser am Do, 22. September 2011 um 22:10 #

läuft bis winxp kein OS wirklich flüssig. weder fedora mit gnome 2, noch xubuntu 9.04-11.04 und auch kein kanotix.
warum das so ist? warscheinlich die veraltete radeon 7000. diese sorgt immer wieder für hängerchen die einfach nicht hinzunehmen sind. richtig flüssige fensterbewegungen, mausscrollen und browsen ist nur mit opera unter xp möglich. habe diverse konstellationen durch. weder chrome, noch der ie, noch firefox laufen auf so einem rechner absolut flüssig. egal welches os. bis auf xp und opera. leider...
sollte jemand eine alte linux distribution kennen (bitte kein DSL, fluxbox-fm oder dergleichen) die eine radeon 7000 noch richtig unterstützt wäre eine hilfestellung wünschenswert.

[
| Versenden | Drucken ]
  • 0
    Von anyoneirgendwer am Do, 22. September 2011 um 22:39 #

    Ich muss demnächst wahrscheinlich wieder hardware wegschmeisse die wesentlich leistungsfähiger ist als deibe, Interesse?

    [
    | Versenden | Drucken ]
    0
    Von anyoneirgendwer am Do, 22. September 2011 um 22:39 #

    Ich muss demnächst wahrscheinlich wieder hardware wegschmeisse die wesentlich leistungsfähiger ist als deibe, Interesse?

    [
    | Versenden | Drucken ]
    0
    Von ein Linux mit LXDE am Do, 22. September 2011 um 22:46 #

    sollte flüssig laufen.
    Kanotix (das bessere Debian) installieren,

    apt-get install lxde

    und im Anmeldebildschirm LXDE auswählen. Man kann kde4 natürlich auch deinstallieren, muß man aber nicht.

    Lief bei einer Bekannten mit ner 16MB Graka zufriedenstellend.

    [
    | Versenden | Drucken ]
    • 0
      Von Nachtrag... am Do, 22. September 2011 um 22:53 #

      vielleicht wars ja auch nur ein Treiberproblem.

      Unter Kanotix:

      (strg)+(Alt)+(F1)

      # update-scripts-kanotix.sh
      # install-fglrx-debian.sh

      sollte den richtigen ATI-Treiber installieren.

      [
      | Versenden | Drucken ]
    0
    Von Andre am Do, 22. September 2011 um 23:17 #

    Ich glaube nicht das es an der veralteten radeon-Karte liegt.

    Imho braucht GNU-Linux schon seit JEHER vergleichsweise weit aus mehr CPU-Power, sowie IO-Zugriffe als seinerZeit Dos/Win9x sowie heute WinNT5.x. Ausnahmen sind imho hier nur Windows VISTA und Win7 - die beide ebenfalls sehr viel IO-Öast verursachen.

    ZB:
    Ein minimal installierter Ubuntu-Server8 LTS mit installiertem xserver und als einzige App Mozilla Firefox (ohne Desktop/WindowManager), verhält auf einem Dualcore-PC (1.8GHz), 1GB Ram, nVidia7200 (inkl. closed-source nVidia-Treiber) beim Surfen spürbar langsamer als der gleiche PC mit installiertem WinXP + Treiber + gleicher Mozilla-Firefox-Version.

    ==============================

    Anderes Beuispiel:
    Minimal-PC 386er 40MHz/4MB Ram/8MB Harddisk (Flash): Hier habe ich vor ca. 10Jahren ein minimales Busybox mit Kernel 2.2.x Compiliert und installiert. Zu den 4MB Ram habe ich 2MB SWAP genutzt - also faktisch dem System 6MB Arbeitsspeicher zur Verfügung gestellt.

    Hierdrauf mit "vi" eine mehrere Bildschirmseiten lange Doku via PFeiltasten durchzuscrollen war eine QUAL - weil das System extrem langsam reagierte. Die Aufläsung war dabei Dos-Typisch 80x25 Zeichen. Unter MS-Dos lief das System spürbar schneller.

    ==============================

    Damals auf einem P120, 48MB Ram, lief unter SuSE 6.x KDE1.x mit StarOffice ebenfalls erheblich langsamer als ein Win95+IE4 mit dem gleichen Office

    ==============================

    Und wenn ich im laufenden GNU/Linux-Betrieb mir CPU-Last und IO-Last ansehe, werden mir beide Werte immer Staerker ausgelastet angezeigt als unter Windows (Taskmanager Win/Gnome/KDE/htop).

    Mir scheint das die Zugriffe auf das System intern nicht ganz so performant laufen, wie unter Windows - eventuell durch das Lib-Konzept (aber das ist nur eine in den Raum gestellte Vermutung meinerseits). Ein Indiz: Sobald ich die Langsame System-HDD durch eine SSD austausche regaiert GNU/Linux gefühlt sogar schneller als Windows. Das Hochscallieren funktioniert damit unter GNU/Linux gefühlt deutlich besser als unter Windows - vermutlich ist das der Grund warum nahezu alle High-Endserver auf GNU/Linux setzen :-)

    Ebenfalls ist bekannt das mit Kernel 2.6.19 sich irgentwo ein Fehler eingeschichen hat, der hohe CPU-Lasten bei IO-Zugriffen verursacht - soweit ich weiss sind diverse Workarrounds in den Kernel eingeflossen, die das Problem umschiffen - aber der Problem-Kern ist meines Wissens noch nicht gefunden/geloest.

    Dadurch das der XServer im Client/Server-Miodel funktioniert (Netzwerkstack), gibt es hier auch kleine Verzögherungen die unter Windows so nicht existieren. Besonders schön sieht man das wenn man OpenOffice3 auf einem Gnome2-Deskop öffnet (bei aktiviertem Vollbild-Verschieben der Apps, aber deaktiviertem 3D-Rendering), und dann eine Firefox-App über das offene OpenOffice-Dokument langsam hinweg ziegt. Alternativ andersrum: Das OpenOffice-Dokument über der Firefox-Session ziehen. Hier gibt es ein massives Nachziehen der Fenster (schlieren).

    Weiterhin wurden die Grafiktreiber für Windows vom Hersteller selbst entwickelt. Diese optimale Anpassung wird es unter GNU/Linux vermutlich nicht so geben.

    Schlussendlich wird KDE/Gnome/XFCE von "Hobbyentwicklern" entwickelt. Hier kann sicher nicht duie gleiche Qualitätsstufe bei den Themen Performance & Co erwartet werden, wie von Vollzeit-Entwicklern - die im Auftrag ihres Arbeiitsgeber seit Jahren/Jahrzehnten Software Entwickeln.

    Nichts desto trotz - das ein vollständiger GNU/Linux-Desktop in der heutigen Form so komfortabel Funktioniert ist eine riesige Leistung - die wir den Tausenden Entwicklern da draussen zu verdanken haben !!

    Gruß
    Andre


    [
    | Versenden | Drucken ]
    • 0
      Von Andre am Do, 22. September 2011 um 23:19 #

      Und da der von Dir eingesetzte PC schon älter ist, sind hier die IO-Zugriffe entsprechend auch aus heutiger Sicht extrem langsam. Auch die CPU ist vergleichsweise schwach - mit einem P3-500 Vergleichbar.

      [
      | Versenden | Drucken ]
      0
      Von 1ras am Fr, 23. September 2011 um 10:41 #

      Zum ersten Beispiel: Firefox ist bekannt dafür unter Linux lahm zu sein. Ein anderer Browser wird sich vergleichbar flüssig anfühlen.

      Zum zweiten Beispiel: Auf der einen Seite hast du ein Multiuser- und Multitasking-System mit Speicherschutz und intelligenter Speicherverwaltung, auf der anderen ein System (DOS) welches keines dieser Funktionen aufweist. Äpfel und Birnen sozusagen.

      Die angezeigten CPU und I/O-Zeiten lassen sich nicht direkt vergleichen, da die Messmethoden abweichen.

      Hobbyentwickler haben einige massive Vorteile gegenüber Vollzeit-Entwicklern: Sie identifizieren sich mit ihrem Produkt und stehen nicht ständig unter Zeitdruck. Zeitdruck führt fast zwangsweise zu schlechter Codequalität. Die Offenheit des Codes führt in der Regel ebenfalls zu einer besseren Codequalität und erhöht die Wartbarkeit.

      [
      | Versenden | Drucken ]
      • 0
        Von Andre am Fr, 23. September 2011 um 13:42 #

        >> Sie identifizieren sich mit ihrem Produkt und stehen nicht ständig unter Zeitdruck. Zeitdruck führt fast zwangsweise zu schlechter Codequalität. Die Offenheit des Codes führt in der Regel ebenfalls zu einer besseren Codequalität und erhöht die Wartbarkeit.

        Diese tolle Qualität sieht man insbesondere im KDE-Bereich.

        >> Zum ersten Beispiel: Firefox ist bekannt dafür unter Linux lahm zu sein.

        Firefox steht da nicht allein da - OpenOffice ist auch recht träge.
        Selbst einfache Tools auf der Konsole lösen auf älteren Maschienen übertrieben Starke Verzögerungen aus, da oftmals viel gescriptet wird.
        Ich hatte gleiche Ubuntu-Server8 konfiguration auf einem älteren SingelCore2.5GHz mit 1GB Ram (IDE-Anschluss/UDMA5) installiert. Hier waren Consolen-Aufrufe von aptitude-update und Co "spürbar" langsamer als auf dem DualCore1.8GHz-PC (SATA1). Der DualCore-Rechner war dabei billigste Bauweise - komplett 250EURs.

        Hier sollten "IMHO" auf GHZ-Bolliden keine Spürbaren Unterschiede merkbar sein.

        Wenn ich dann auf aktuellem System von HDD auf SSD wechsel, habe ich einen MASSIVEN geschwindigkeitszuwachs unter GNU/Linux - unter WinXP dagegen kaum. Genau daher kommt meine Vermutung das das IO-System unter GNU/Linux generell staerker ausgelastet wird als unter Windows....

        Viele Grüße
        Andre

        [
        | Versenden | Drucken ]
      0
      Von bca am Fr, 23. September 2011 um 19:31 #

      Der Threadersteller hat ja geschrieben:
      "weder chrome, noch der ie, noch firefox laufen auf so einem rechner absolut flüssig. egal welches os. bis auf xp und opera. leider..."

      Also läuft der PC auch unter Windows meist nicht flüssig.
      Allerdings ist nicht völlig klar, ob jetzt WinXP im Gesamten flüssig läuft oder nur dann, wenn man z.B. Opera und keinen IE benutzt, worauf der obige Satz hinweist.

      Das eigentliche Problem dürfte deshalb nicht linuxspezifischer Natur sein.

      [
      | Versenden | Drucken ]
      0
      Von Zu wenig RAM! am Sa, 24. September 2011 um 01:09 #

      Anderes Beuispiel:
      Minimal-PC 386er 40MHz/4MB Ram/8MB Harddisk (Flash): Hier habe ich vor ca. 10Jahren ein minimales Busybox mit Kernel 2.2.x Compiliert und installiert. Zu den 4MB Ram habe ich 2MB SWAP genutzt - also faktisch dem System 6MB Arbeitsspeicher zur Verfügung gestellt.

      Hierdrauf mit "vi" eine mehrere Bildschirmseiten lange Doku via PFeiltasten durchzuscrollen war eine QUAL - weil das System extrem langsam reagierte. Die Aufläsung war dabei Dos-Typisch 80x25 Zeichen. Unter MS-Dos lief das System spürbar schneller.

      Linux braucht mit Kernel 2.2.x und 2.4.x mindestens 8 MB RAM um ordentlich zu laufen. 8 MB RAM sind hier das Mindeste.
      Du hast dem Rechner also schlichtweg zu wenig RAM gegeben, die SSD hilft da nicht viel, da solche kleinen SSDs auch nicht besonders schnell sind.

      Mein 486er 33 MHz hatte damals 8 MB RAM und darauf ein Slackware 7.1 und später 8.1 und das hat funktioniert weil 8 MB RAM gerade genug RAM waren.
      Auch mit "vi" hat das problemlos geklappt.
      Genutzt wurden ca. 6-7 MB, d.h. < 1 MB konnte noch für vi und Co verwendet werden.

      Und dieser Rechner hatte keine SSD, sondern eine normale 1 GB große SCSI Festplatte


      Einem neuen 2.6er Linux Kernel würde ich etwas mehr Speicher geben, da Diskimages in Slackware 1x auch alle größer geworden sind und ein Rechner mit wenig RAM auch ne Qual ist.
      Momentan ist mein schwächster Rechner ein Pentium 1, aber der hat schon 64 MB RAM, wovon ca. nur 19 MB genutzt werden.

      Alle oben angegebenen Daten gelten für ein Linux System ohne X-Window Desktop.
      Wer ein Desktopsystem haben will, der wird wohl mindestens 64 MB und ein sparsamer WM benötigen.

      Wer einen schwächeren Rechner hat, der sollte darauf Win9x/ME, Win NT 4.0, OS/2 oder Haiku einsetzen.


      [
      | Versenden | Drucken ]
      • 0
        Von Andre am Mo, 26. September 2011 um 00:44 #

        Hallo,

        >> Mein 486er 33 MHz hatte damals 8 MB RAM und darauf ein Slackware 7.1 und später 8.1 und das hat funktioniert weil 8 MB RAM gerade genug RAM waren.

        Es handelte sich um ein abgespecktes Busybox 0.6x.y mit minimal kompiliertem Kernel - hier genügten 2-3 MB RAM für den Grundbetrieb. Auf dem System lief später sogar noch ein FTP-Server und ein JPG-Viewer auf LibVGA-Basis...

        =================

        Die beschriebenen Probleme mit der vermuteten IO-Last habe ich auich auf Maschienn mit mehr als ausreichend Ram (1GB und mehr).

        [
        | Versenden | Drucken ]
        0
        Von asdgfghhjknbvcxc am Mo, 26. September 2011 um 14:09 #

        Es handelt sich um diesen I/O-Bug:
        http://it.slashdot.org/story/09/01/15/049201/hope-for-fixing-longstanding-linux-io-wait-bug
        Der Link zur kernel.org-Bugzilla funktioniert aber momentan nicht, wegen der Nachwehen nach dem letzten kernel.org-Hack.

        Das Problem wurde vermutlich kurz nach Kernel 2.6.18 eingeschleppt und ist wohl bis heute nicht wirklich behoben.

        Stärkste Server können deshalb völlig in die Knie gehen. Diese schleichen dann für ein bis zwei Stunden dahin, können sich aber erholen.
        Das gilt natürlich auch für Desktopsysteme. Der Bug kann bei allem auftreten, was I/O-Last erzeugt.
        Kernel 2.4.x ist übrigens nicht betroffen, für nicht wenige Serverbetreiber mit ein Grund, noch nicht auf Kernel 2.6 oder 3.0 zu wechsen und lieber Kernel 2.4 zu patchen, damit dieser auf neuerer Hardware läuft. Der lange Kernel 2.4-Support hat bestimmt auch etwas mit dieser Upgradeverweigerung zu tun.

        [
        | Versenden | Drucken ]
      0
      Von Zu wenig RAM! am Sa, 24. September 2011 um 01:17 #

      Schlussendlich wird KDE/Gnome/XFCE von "Hobbyentwicklern" entwickelt. Hier kann sicher nicht duie gleiche Qualitätsstufe bei den Themen Performance & Co erwartet werden, wie von Vollzeit-Entwicklern - die im Auftrag ihres Arbeiitsgeber seit Jahren/Jahrzehnten Software Entwickeln.
      Wenn du dich da nicht täuschst.


      Vollzeit-Entwickler stehen unter Zeitdruck, die beste Lösung wird da oft gar nicht verwendet, sondern die Lösung genommen, die bereits schon funktioniert und wenn die ausreichend befriedigend ist, dann bliebt man aus Kostengründen bei dieser Lösung.

      Zu den Hobbyentwicklern.
      Bei solchen Projekten sind das keine Leute mehr, die einmal im Leben ein Buch für Programmieranfänger durchgelesen haben, sondern erfahrene Programmierer die im Berufsleben stehen und so etwas in der Freizeit programmieren, sowie Studenten die Informatik & Co studieren um dann ihre gelernten theoretischen Fähigkeiten in der Praxis zu verbessern.
      Dazu kommt noch, da mit Herzblut daran entwickelt wird, was auch dazu führt, daß die ein oder andere Option mal hingeschmissen und von neuem Programmiert oder optimiert wird

      [
      | Versenden | Drucken ]
      • 0
        Von Andre am Sa, 24. September 2011 um 11:05 #

        Hallo,

        >> Dazu kommt noch, da mit Herzblut daran entwickelt wird, was auch dazu führt, daß die ein oder andere Option mal hingeschmissen und von neuem Programmiert oder optimiert wird

        Was aber nicht heisst, das die Konzepte deshalb zwingend besser sind, als bei Entwicklern die sich "vorher" in Teams hinsetzen und Konzepte entwerfen, und diese dann 1:1 so umsetzen.
        Bei KDE wurde mit KDE1->2, sowie 3->4 grosse Teile neu programmiert - und dann hat es nach der ersten "stabilen" Version jeweils 1-2 Jahre gebraucht, bis die einfachen "Desktop-Funktionen" die via Menü auswählbar waren/sind stabilisiert waren.
        Von der Usability in KDE2/3 mit überprofften Menues, und schlechten Icon-Themes (nicht umsonst wurde das Default-Icon-Theme mit KDE2/3 x fach umgestellt) sprech ich noch gar nicht. Sporadische Abstürtze beim Dateimanager Dolphin (seit KDE4.5) bei Dateioperationen sind imho ein absolutes nogo - und wenn ich dann lese das das Problem mit KDE4.7 behoben wurde - super - aber von "besserer Qualität durch Herzblut" kann da nicht die Rede sein. Auch das es 2 Jahre gebraucht hat das "achsodolle" neue Plasma-Konzept seit KDE4 zu stabilisieren ist kein Zeichen von Qualität - im Grunde hätte KDE4.4 KDE4.1 entsprechen müssen, und KDE4.7 KDE4.2...

        MS-Produkte haben ganz sicher auch ihre Probleme (u.a. VISTA: Performance) - aber solch trivialen Bugs wie zb reproduzierbare Abstürtze anmass findet man dort nur wenn der Anwender sich sein System "zerinstalliert" hat, fehlerhafte Programme/Treiber im Spiel sind oder die Hardware defekte vorweist - alle genannten Probleme kommen avber aus der praxis eher selten vor - oder lassen sich im Worstcase mit austausch der HW oder Neuinstallation beheben. Selbst die oft verschrienen Office-Produkte von MS sind aus "Anwender"-Sicht Qualitativ besser als sämtliche LInux-Office-Versionen - stabilität, zuverläassigkeit, funktionsumfang, langzeit stabilität .... Auch hier zeigt die Praxis einfach das "Herzblut" für größere Projekte nicht ausreicht ...

        Wenn ich mit OpenOffice3.x erstelltes ODT-Dokument an einem anderen Rechner mit OpenOffice2.0 öffne, und dieses dann zerschossen dargestellt wird - nervt das nur - solche Probleme hab ich bei weit aus mehr MS-Office-Einsatz im Firmenumfeld nie erlebt.

        Und warum bin ich dann noch hier? - Ich find das OpenSource-Konzept klasse - das Entwickler unendgeldlich anderen Software und deren Quellen in voller Freiheit anbieten. Ich find das Konsolen-Konzept superklasse, die volle Freiheit die man auf der Linux-Console sofort verspürt... - doch ich würde mir wünschen das endlich mehr Energie in die Qualität des "KDE-Desktop" gesteckt wird.

        Es muss "imho" auch eine andere Möglichkeiten erdacht werden patches zu verbreiten, ohne jedesmal eine "neue" Version Compilieren zu müssen, so das die Abhängigkeit der Distributoren wegfällt, und der Anwender sich ohne Probleme selbst das Update installieren kann.

        Viele Grüße
        Andre

        [
        | Versenden | Drucken ]
    0
    Von Crass Spektakel am Do, 22. September 2011 um 23:29 #

    Ich denke nicht daß es an Deiner Hardware sondern Deinen Treibern liegt.

    Hier läuft ein Athlon Thunderbird 800 in einem Slot-A Board mit Irongate 750-Chipset mit 384MB RAM und einer Radeon 7000irgendwas unter Ubuntu 10.04. Nimmt man Bordmittel bekommt man halt lausige VESA-Emulation mit 1024x768@60hz. Grusel.

    Damit das was wird muß man exakt die richtigen ATI-Treiber installieren. Damit laufen bei mir sogar 720p-Videos auf Youtube ruckfrei und Quake3/Urbanterror macht 30fps. Mir reicht das.

    Dieser Beitrag wurde 1 mal editiert. Zuletzt am 22. Sep 2011 um 23:30.
    [
    | Versenden | Drucken ]
0
Von typisch MS am Fr, 23. September 2011 um 01:02 #

wenn man davon ausgeht, dass linuxuser "von geburt" an bastler sind, glaub ich nicht das linux untergeht. ich denke, dass sich MS endlich klar wird, dass der kleine pinguin schon längst seine reifeprüfung abgelegt hat und zielstrebig voranschreitet.
wohl nur ein versuch von MS linux auszubremsen, jedoch wird sich einer unter den linuxern und hardware-freaks sich dem problem, sollte es soweit kommen, annehmen und lösen wird.
ms zeigt sich mal wieder feig

[
| Versenden | Drucken ]
0
Von QuakeStar am Fr, 23. September 2011 um 02:28 #

Vieleicht verstehe ich da ja jetzt was verkehrt, ABER eigentlich muß doch dann nur GRUB (oder welchen Loader man verwendet) signiert sein damit er von UEFI ladbar ist, Kernel- oder gar Distri-Updates sollten doch dann eigentlich davon unabhängig sein und kein Problem darstellen ?!?

[
| Versenden | Drucken ]
  • 0
    Von Ihr Kommentar Name am Fr, 23. September 2011 um 10:46 #

    Doof nur das dann aufgrund der GPL die Signaturschlüssel offen gelegt werden müssten. Es ist also wohl auszuschließen das Grub signiert wird.

    [
    | Versenden | Drucken ]
0
Von blackiwid am Fr, 23. September 2011 um 11:50 #

Ich kann mir schon gut vorstellen, das einzelne Mainboards dieses dann fix machne, vielleicht irgendwelche aldi oder dell rechner oder sowas. Also das mans nicht abstellen kann, das kann dann versehen sein oder bösartigkeit, das ist dann egal.

Dadurch das es schleichend kommt gibt es schon klar negative auswirkungen die aber noch nicht für eine starke Gegenreaktion sorgen, wenn wirklich jeder Windows 8 PC sowas unabstellbar aktiviert hätte, fände ich es daher besser, dann würden die Hersteller die Coreboot vorinstallieren oder eben specs raus geben um dieses dort flashbar zu machen einen Marktvorteil haben, das würde Coreboot pushen. Das wäre dann ein positiver effekt, denn Bios ist wie die meisten hoffentlich wissen kaum besser als EFI, auch ein Blob der machen kann was er will ohne das wir wissen was er alles für "features" hat, der immer mit läuft wie ein trojaner im Hintergrund.

[
| Versenden | Drucken ]
0
Von El_Sivas am Fr, 23. September 2011 um 12:28 #

Ich hatte den Artikel von Heise auch gelesen und dachte mir sofort, dass es für jede Maßnahme auch eine Gegenmaßnahme gebe. Ganz so gelassen, wie der Autor es hier schreibt sehe ich es jedoch nicht. Komponenten und Gerät für versierte Nutzer, insbesondere professioneller Nutzer, werden wohl weiterhin die Möglickeit bieten im BIOS-Modus zu booten, mit UEFI, aber ohne Signaturprüfung zu starten.

Anders könnte es aber auf Geräten aussehen, die für die, ich sag mal untere Hälfte des Consumer-Bereichs gedacht ist. Die Nutzer dieser Geräte sind denke ich eher nicht versiert und sie sind hauptsächlich daran interessiert, dass das Windows booten, schön aussieht und web.de und facebook erreichbar sind. Für diese Geräte sieht man auch bisher schon BIOS-Konstellationen mit zum teil sehr eingeschränkten Konfigurationsumfang. Insbesondere bei Notebooks für diesen Kundenkreis könnte die Abschaltfunktion in Zukunft fehlen. Und der Trend weg vom Desktop und hin zum Note-/Netbook ist ja schon seit Jahren sichtbar.

Konnte man bisher immer noch per Live-CD oder Live-USB-Stick einem Bekannten mal aus einer Klemme helfen, muss man dann wohl in Zukunft sagen: "Sorry, hast leider Schrott gekauft." Oder halt die HDD ausbauen und anderswo Daten retten, sofern das möglich ist.

[
| Versenden | Drucken ]
  • 0
    Von bca am Fr, 23. September 2011 um 19:36 #

    Es braucht halt ein Tool, dass kurz vor dem unsignierten (Linux-)Bootloader-Start dieses Windows-Feature abschaltet und im Shutdown dieses abschließend wieder aktiviert.
    Für die GPL V3 ist nur ein solcher oder ähnlicher Weg akzeptabel.

    [
    | Versenden | Drucken ]
0
Von jim pansee am Fr, 23. September 2011 um 12:39 #

In der Überschrift hat sich ein Fehler eigeschlichen. Korrigiert muss es lauten:
"2013 – Das Jahr, in dem Windows unterging"

[
| Versenden | Drucken ]
0
Von Hiobsbotschaft am Sa, 24. September 2011 um 00:44 #

gefreut habe.


Das beste was mit Windows 8 nämlich angekündigt war, war nicht Windows 8, sondern die ARM Notebooks die es wegen einer ARM Version von Windows 8 bald Massenweise auf dem Markt geben wird.


Solche ARM Notebooks könnten Leistungsfähig genug und trotzdem vollständig lüfterlos sein, gepaart mit einer sehr langen Akkulaufzeit.
Das macht sie für den mobilen Einsatz ideal.

Versuche zu ARM Notebooks (Siehe das NB von Toshiba) gab es schon ein paar wenige, aber so richtig in Schwung geriet dieser Markt nie. denn die Stückzahlen waren zu klein, das Angebot zu schlecht (zu wenig Speicher) und die Preise zu hoch und all das aufgrund einer zu kleinen Nachfrage des Marktes, der leider immer noch Windows bedingt ist.

Erst mit dem ARM fähigen Windows 8 wird sich diese Lage also ändern und dann möchte ich mir so ein ARM Notebook kaufen, aber ich möchte darauf nicht Windows 8 betreiben, sondern Linux.
Und da gerade diese Systeme besonders verschlossen sein werden, IST es dort ein sehr großes Problem.

[
| Versenden | Drucken ]
0
Von nbmbnmbnm am Sa, 24. September 2011 um 18:16 #

Microsoft hat zu diesem UEFI-Feature weitere Infos gegeben:
http://blogs.msdn.com/b/b8/archive/2011/09/22/protecting-the-pre-os-environment-with-uefi.aspx

Microsoft schreibt zwar:
"Who is in control?
At the end of the day, the customer is in control of their PC."

Nur heißt es dann plötzlich:
"OEMs are free to choose how to enable this support [es geht hier um die Abschaltoption; gemeint ist wohl "how to enable or disable"] and can further customize the parameters as described above in an effort to deliver unique value propositions to their customers [also z.B. auch ohne Zurverfügungstellen der Abschaltoption]."

Der Endnutzer hat also keinerlei Garantie, dass er diesen Mechanismus wird abschalten können.
Denn wenn Microsoft von "customers" redet, meinen sie damit eben nicht den eigentlichen Windows-Endnutzer, sondern die Hardwarehersteller. Die haben natürlich die "volle Kontrolle", der Windows-Endnutzer aber nicht.

Damit ist klar, wie der Hase laufen wird: Microsoft ist für das, was die Hardwarehersteller tun, natürlich nicht verantwortlich. In diesem Sinne werden Linux, BSD u.ä. illegalerweise zu "Malware" werden, wenn die Hardwarehersteller mit ihrer vorinstallierten BIOS/Windows-Combo entsprechend vorgehen sollten. Kein entsprechender Eintrag im BIOS, keine Abschaltmöglichkeit für den Endnutzer, so einfach ist das.

Siehe hierzu auch:
http://mjg59.dreamwidth.org/5850.html

[
| Versenden | Drucken ]
  • 0
    Von tim_c. am Sa, 24. September 2011 um 19:49 #

    Mit Hardwarehersteller=OEM-Hersteller kann das durchaus hinkommen.
    Wer schon einmal versucht hat, sein vorinstalliertes und deshalb mitgekauftes Windows zurückzugeben, weiß, wessen Geistes Kind die meisten dieser Leute sind.

    Kann man mittels UEFI auch den Start z.B. von Tor verhindern?
    D.h., wie tief greift dieses Nutzer-Kontroll-Werkzeug in den Desktopalltag ein?

    [
    | Versenden | Drucken ]
    0
    Von Idiotenpfleger am Sa, 24. September 2011 um 19:57 #

    tja, meine persönliche Konsequenz daraus:

    entweder:

    - der jetzige PC und der jetzige Laptop werden bis zum Sankt Nimmerleinstag benutzt

    oder

    - es wird nur Hardware gekauft, bei der dieses "Feature" abschaltbar ist. Und wenn es solche Hardware nicht gibt, tritt der erste Punkt ein.

    Im Zweifel wird eben ein PC selbst zusammengebaut, was natürlich bei einem Laptop nicht geht...

    Ich bin mir aber trotzdem relativ sicher, dass es hierfür eine Lösung geben wird. Entweder in der Form, dass die Linux-Bootloader Geschichte ebenfalls "signiert" ist oder dass es einen Mechanismus zum Aushebeln dieser Unsinnigkeit geben wird.

    Die Welt wird erst ein besserer Platz sein, wenn Firmen wie Microsoft und Oracle endlich pleite sind. Und hier sage ich an all diese dummen Lemminge gerichtet, die "aber der Erfolg gibt ihnen recht" brüllen: nein, der Erfolg gibt ihnen auf keinen Fall recht. Denn mit anderen Verhaltensweisen ihren (potenziellen) Kunden gegenüber wären sie viel erfolgreicher.

    [
    | Versenden | Drucken ]
    0
    Von nurso am So, 25. September 2011 um 00:39 #

    Red Hat hat anscheinend schon bei OEM-Herstellern nachgefragt und von einigen dieser Hardwarehersteller die Antwort erhalten, dass sie dieses Secure-Boot-UEFI-Gedöns nicht abschaltbar machen und dabei nur die Microsoftschlüssel mit dem Rechnersystem ausliefern wollen:
    http://www.heise.de/newsticker/meldung/Microsoft-Secure-Boot-schliesst-andere-Systeme-nicht-aus-1349202.html
    (der Abschnitt unter "Update")

    Fazit: Es ist tatsächlich schlimm. Das ist meiner persönlichen Meinung nach ein neuer, gut durchdachter Angriff auf freie Betriebssysteme wie Linux.

    [
    | Versenden | Drucken ]
0
Von Gerontivum am Mo, 26. September 2011 um 14:48 #

Einfach eine Wettbewerbsbeschwerde bei Kommissar Almunia einreichen.

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung