Da können oldtimer wie FreeBSD wohl nur noch abstinken Im Bereich powermanagement läuft dort so gut wie nichts und wenn mal was gutes kommt cancelt man es, weils zu sehr nach Linux riecht. Echt arm. Aus diesem Grund hat Linux auch gewonnen, da läuft was auf dem Desktop und auf den Servern.
Schrecklich ... finde ich solche Kommentare weil es nur gleich wieder das große Geschrei auf den Plan ruft. Es mag vielleicht etwas wares drann sein, aber wie sagt man doch so schön "der Ton macht die Musik".
Klasse ... finde ich hier hingegen eher das Selbsteingeständniss. Klasse ... finde ich auch die Position von Intel. Besonders da Intel ja nun kein Niemand ist, kann man nur Hoffen das sich andere Hardwarehersteller davon mal etwas inspirieren lassen.
naja, AMD tut's ja genau so, sie veröffentlichen nicht nur die Specs ihrer GPUs und unterstützen die Entwicklung des freien Treibers, sie tragen auch (wenn nicht ganz uneigenüzig ) mit Optimierungsoptionen für Amd CPUs zum gcc bei und schreiben einen Patch, der den TLB bug aktueller Phenoms softwareseitig behebt.
Finde ich dann auch genause gut. Es gibt sicherlich ausser Intel auch so noch ein paar andere. Keine Frage. Ich bezog mich nur gerade einfach mal auf den Artikel.
Zumindest wenn es um Specs von GPU's geht, liegt Intel schon lange vor AMD(ATI). Wenn es von Leistung und System paßt, dann würde ich einer Intelgrafik Vorrang geben.
Wär mir neu das Intel neuerdings auch Specs raushaut. Das einzige was die haben sind Quelloffene Treiber, aber ohne Specs is das ganze zwar nett, aber trotzdem leicht sinnfrei.
Wieso ist das denn sinnfrei? Ich finde es super, dass Intel Opensource-Treiber entwickelt und es ist für den Anwender ziemlich egal, ob die Spezifikationen der Hardware offengelegt wurden, oder nicht. Trotzdem ist es ein großer Vorteil, die Treiber als Opensource vorliegen zu haben, statt nur Binärtreiber. Ändert sich was an der Kernel-API, kann ein OS Treiber recht einfach angepasst werden, bei CS Treibern darf man dann darauf hoffen, dass der Hersteller das macht, was bei älterer Hardware wohl immer unwahrscheinlicher wird. Also von wegen sinnfrei.
Sehe ich genauso. Hier und da mag ein kleines Flame ja interessant und vor allem unterhaltsam sein. Aber herabblickender Spott auf jemanden bringt nur Streit. Warum muss sich die OpenSource-Bewegung bloß auf diese Weise untereinander behandeln?
Selbst wenn Linux auf dem Bereich Top wäre, würde ich mich über so ein Statement freuen. Wer stets "Weltmarktführer" ist, wird niemals den Drang verspüren etwas zu verbessern. Solange das Kommando "vorwärts" heißt, kann man sich doch über jede identifizierte Schwäche freuen...
bei Intel sehe ich das etwas mit gemischten Gefühlen. Ich habe ein IBM Thinkpad R51 mit integriertem Intel Grafikchip. Der ältere Treiber von Intel i810 unter xorg 7.1 und 7.2 holte aus meinem Notebook eine Auflösung von 1280x1024 raus. Beim neueren i810 oder dem aktuellen intel Modul unter xorg 7.3 geht das hingegen nicht mehr: 1280x768 ist die maximale Auflösung, und das ist distributionsunabhängig.
Ich nutze FreeBSD auf dem Desktop, und bin sehr zufrieden damit. Der einzige Vorteil von Linux ist derzeit noch die Treiberunterstüzung, aber auch für die BSDs gibt es immer mehr und bessere Treiber. In einigen Dingen hat sonst ja auch ein BSD vorne, z.B. hat FreeBSD eine sehr gute Mehrprozessorunterstützung. Ach ja, und in meinen Augen eine viel bessere Lizenz.
Ach ja SMP und Linux CFS vergessen wir jetzt mal wieder, ne? Linux macht Fortschritte von Kernelrelease zu Kernelrelease die FreeBSD nicht mal in zwei Jahren packt.
CFS ist ne feine Sache, aber dem Durchschnittsuser wird es auf dem Desktop nicht auffallen ob er mit dem CFS, nem alten 2.6er oder sogar nem 2.4er Linux arbeitet. Mach dir nichts vor
Von Anonymous Coward am Fr, 1. Februar 2008 um 04:39 #
Ich habe nicht ausgiebig getestet und habe keinen deutlichen Unterschied feststellen können. Und ich glaube nicht, dass der Durchschnittsuser ausgiebig testet.
hm, also der Durschnittsuser mit dem ich damals sprach als CFS Standard wurde, wunderte sich, warum der Desktop so viel 'schneller' und 'reaktionsfreudiger' sei. ....
Den Unterschied zwischen 2.4 und 2.6 fand ich extrem gut spürbar. Vielleicht lag es an dem damals recht alten Rechner, dass man es also auf aktuellen Rechnern nicht so sehr spürt.
Hurra, endlich mal wieder ein Lizenztroll!!! Oh wie habe ich die Diskussionen GPL vs BSDL vermisst... Wobei die MS-PL die deutlich überlegene Lizenz ist
Von Anonymous Coward am Fr, 1. Februar 2008 um 04:44 #
Das 'warum' ist bekannt - es fehlt an kernel-infrastruktur. So ein Unfug. Erstens nutzt nVidia die vorhandene Kernel-Infrastruktur (DRI u. ä.) überhaupt nicht, zweitens läuft FreeBSD seit Jahren auch auf 64-Bit-Systemen - welche Kernelinfrstruktur soll da bitte auf 32-Bit-Systemen vorhanden sein und auf 64-Bit-Systemen nicht? Wenn man solchen Quatsch behauptet, muss man ihn belegen. Aber die FreeBSDler verschwenden ja lieber ihre Zeit damit, Linuxer zu belästigen. Bei solchen Pfosten wie Dir muss man sich echt schämen, Linux zu benutzen.
oh, und kann irgendwer die freebsdler darauf hinweisen, daß ihre wiki-Software scheiße ist?
Warning: You triggered the wiki's surge protection by doing too many requests in a short time. Please make a short break reading the stuff you already got. When you restart doing requests AFTER that, slow down or you might get locked out for a longer time!
Diese Linux-vs-BSD-Geschichte ist eine reine Energieverschwendung. Kann man diese Forenteilnehmer nicht mal in S1-Modus versetzen? ;-)
Linus hat mal wieder den Nagel auf den Kopf getroffen. Wenn die Performanz stimmt, kann man anfangen, übers Energiesparen nachzudenken. Insbesondere aufgrund der Tatsache, dass inzwischen 1. mehr Notebooks als Desktop-PCs verkauft werden und 2. PCs und Server ein Gutteil des Weltenergieverbrauchs ausmachen.
Von Verständnisloser am Sa, 2. Februar 2008 um 02:59 #
Recht so! Der überwiegende Teil des Threads hat so gut wie nix mit dem Thema zu tun. Es ist immer wieder erstaunlich, wie jedes x-beliebiege Thema zu Flames führt ("Sack Reis in Vietnam umgefallen!!" -- "Unter japanischer Lizenz wäre das nicht passiert!!" -- "Indonesischer Reis kippt nicht, er kocht!!" -- "Fallender Reis würde weder dem chinesischen Volk, noch dem Kommunismus dienen!!"); wahrscheinlich ist das einfacher, als wenigstens eigene themenbezogene Erfahrungen beizusteuern (oder wenigstens zuzugeben, dass auch vietnamesischer Reis kochen und chinesischer sackweise umfallen kann).
Lt. der Liste hier http://www.top500.org/stats/list/30/osfam laufen 85,2% der Top500 Supercomputer unter Linux aber auch 1,2% unter Windows, die Leut ham Nerven...
Von subbercombbudder am Do, 31. Januar 2008 um 21:49 #
So spontan würde ich eher vermuten, dass da halt einzelne Windows Systeme in ner VM laufen. Meines Wissens kommt Windows ab einer bestimmten Corezahl (waren es 32?) überhaupt nicht mehr gut damit klar.
Hey Vista ist ein tolles System! Nichts läuft drauf ... also auch keine Viren SCNR Naja, mal das SP1 abwarten ... aber der schleppende Verkauf von Vista spricht schon Bände. Ich glaube mittlerweile das der viel gelobte Umbruch, der mit Vista stattfinden sollte, ein Schuß ins Knie war. Einerseits war XP ein durchaus brauchsbares OS und dann kommen noch die vielen Unzulänglichkeiten und Hemmnisse bei Vista dazu. So eine "Revolution" bei einem OS, auf dem closed-source Anwendungen dominieren, bewegen sich Anbeiter eben eher träge zu diesem neuen System hin. Naja, ein wenog offtopic .... also zurück zum BSD-Streit
hey.. mein laptop wird zwar von linux nicht komplett unterstützt (bzw. nur nach stunden frickeln) aber die energieverwaltung läuft super. unter Windows läuft mein laptop ca. 2:20h und unter linux fast 3h! beides unter ähnlichen bedingungen. Leider läuft das Kabel- sowieso das Wireless-Netzwerk nicht. *kotz* mattis
Mein Thinkpad T61 zeigt das gleiche. Und es liegt nicht an mangelnden Windows Kenntnissen, auch diverse Windowsjünger aus meinem Bekanntenkreis (Informatiker) bekommen Windows nicht so sparsam wie ich mein Linux. 5 Stunden Akku mit Linux 4 Stunden mit gut Glück unter Windows
same here... unter Linux bis zu 4:30 h während unter Windows nach 3:30 h Schluss ist - und das war nicht immer so. Als mein Notebook vor 1,5 Jahren neu war und Kernel 2.6.17 an der Tagesordnung war, war Linux der Stromfresser schlechthin (und einige Hardware lief ebenfalls nicht).
Obwohl (bis auf die Webcam) die Hardware meines Asus-Notebooks komplett erkannt wird, ist die Akkulaufzeit mit Linux sehr bescheiden. Unter Windows läuft mein Asus A6VA Notebook im Akkubetrieb ohne W-Lan, reduzierter Beleuchtung 3 Stunden 45 Minuten.
Unter openSUSE 10.3 sind es mit gleichen Einstellungen und den von INtel Powertop vorgeschlagenen Einstellungen gerade mal 2 Stunden 20 Minuten. Das Parallel installierte Sidux schafft es immerhin auf 3 Stunden.
Konkrete Zahlen: Windows verbraucht im Stromsparmodus gut 16 Watt. Beide Linuxsysteme (suse und sidux) liegen minimal bei 20 Watt, wobei openSUSE im Schnitt eher 25 Watt verbraucht.
Ich habe viele Energiespartricks ausprobiert, dynamische Prozessorgeschwindigkeit, Intel PowerTop, Module entladen usw.... Es hilft einfach nichts, ich denke einfach, die ATI-Grafikkartentreiber unter Linux sind so schrottig, dass sie nicht das volle Energiepotenzial ausnutzen... (ja ich habe mit dem fglrx die Powersteps auch unter Linux heruntergeregelt).
Energiespartechnisch muss Linux (aus meiner Sicht) also noch einiges an Hausaufgaben erledigen.
Dem normalen Desktopnutzer dürfte es eher egal sein, ob sein PC 80 oder 100 Watt verbraucht.
Enorme Einsparungen dürfte es aber z.B. bei Serverfarmen geben. Nicht nur die verringerte Leistungsaufnahme fällt da ins Gewicht, auch die kostspielige Abführung der Abwärme durch Klimaanlagen.
Mit einem Notebook (das man durchaus heute im Handel ohne Probleme mit Linux finden kann) ist es dem normalen Desktopbenutzer nicht so ganz egal ob er eine Laufzeit von 2 Stunden oder von 3 Stunden hat.
Wenn's um das Energiesparen insgesamt geht (globale Betrachtung), dann sind die Desktop-Rechner vermutlich bedeutender als die Server. Es wird ja wohl weniger Server als Desktops geben, oder? Würde mich eh mal interessieren: Wieviele Desktop-PCs und wieviele Server gibt es eigentlich? Oder was für ein Verhältnis gibt es? Oder wie sieht das Verhältnis bezogen auf den Energieverbrauch aus. Weiß da wer was?
Eine Frage ist, wann wird der letzte Netburst Fehltritt vom Netz gehen?
Die zweite Frage wäre, wann sehen die Leute endlich ein, dass man zum Emailen, Internet surfen, Bilder bearbeiten, Briefe schreiben und Urlaubsvideos auf DVD bringen keine HighEnd 3D Graphik mit 100 W Verbrauch und keinen 3GHz Quadcore braucht. Für die meisten Anwender würde ein Prozessor reichen, wie er schon heute von VIA mit typischem Verbrauch zwischen 1 und 5 W angeboten wird. Und wenn der einmal im Jahr 2 Tage rendert um das Urlaubsvideo umzurechnen, dann dauert es halt 2 Tage. Aber Energietechnisch ist das immer noch deutlich effizienter. Wenn jeder nur soviel Rechenleistung hätte wie er wirklich braucht, könnten wir insgesamt viele Atomkraftwerke sparen.
Ich hatte mal eine Zeit lang nen C3, der war für den Desktopbereich doch zu langsam, ein C7 war da schon um Welten besser, allerdings sehe ich im Desktopbereich schon eher Prozessoren wie einen AMD BE-2400 oder einen entsprechenden Intel Pedant sinnvoll, da der Verbrauch des Prozessors nur einen kleinen Teil ausmacht, die Peripherie (Festplatte, Chipsatz, andere Laufwerke, Netzteil) ziehen da den größeren Teil.
Da kann man problemlos Rechner zusammenschrauben, die im idle ~ 45 Watt verbrauchen aber bei Bedarf auch ordentlich Leistung bringen.
Wo ich Dir recht geben muss, ist, das die Leistungsfähigkeit der Heutigen CPUs oft nicht gebraucht wird, dito Monstergrafikkarten.
Und das finde ich noch deutlich zu viel! Main VIA (C3) braucht idle (ohne laptop-mode) etwa 30 Watt, was ich immernoch zuviel finde (bei für mich meist sehr ausreichender Leistung). Mein toshiba-Laptop (crusoe) braucht dagegen (natürlich mit Bildschirm) nur 18 Watt (wobei der auch _echt_ langsam ist). Aber heute sollte es möglich sein, einen ausreichend schnellen Rechner zu bauen, der komplett nicht mehr als 20 Watt braucht! Was braucht denn so ein aktueller "energiesparender" Laptop?
Nach der Lektüre der neusten CT gebe ich Dir recht, aber ein Idle von 45 Watt ist immer noch besser, als >100 Watt. Ich meinte damit auch, einfach wenn man Standardkomponeten verwendet, mit 2,5'' HD etc. geht es ja auch gut weniger zu verbrauchen.
Allerdings macht meiner Meinung nach ein C3 oder C7 wenig Sinn, wenn man ein Rechner mit Athlon auf knapp 20 Watt bringen kann, der aber in der Effizienz, sobald wirklich mal Rechenleistung gefragt ist, besser ist als ein VIA Chip,finde ich das schon Sinnvoller.
Aber die neuste CT macht einem schon Hoffnung, das das Thema mal mehr angegangen wird, je weniger je besser.
Und ja, wenn es nur um den Strom geht, liegen die Schlepptops natürlich klar vorne (bzw. hinten)
Das ist der Grund, warum ich, wenn ich in ein paar Monaten genug Geld zusammengespart habe, meinen Rechner mit Athlon XP 2200+ daheim rausschmeiße und mir ein Centrino Laptop hole (mit Intel GMA). Weil weniger Verbrauch ist nicht nur kühler und billiger, sondern im Normalfall auch noch leiser.
Sicher sind es weniger Server als Desktops, aber diese laufen dafür länger und verbrauchen auch gerne mal einiges an Strom (sind ja nuneinmal oft in einer Generation eher die leistungsstarken Systeme).
Von Fedora-Nutzer am Sa, 2. Februar 2008 um 02:42 #
Zunächst muß ich sagen, dass ich nichr den Nerv hatte, alle Kommentare zu lesen und ich entschuldige mich gleich vorsorglich für gegebenfalls auftretende Wiederholungen.
Ich nutze Fedora 8 und habe mir vor wenigen Tagen ein Tool in's Panel gesetzt, das mir die aktuell verwendete Taktfrequenz anzeigt. Falls dies fehlerfrei/fehlerarm funktioniert, klappt bei meinem AMD64 die Regulierung der Taktfrequenz recht gut. Es wird jedoch offenbar nur zwischen zwei Stufen (ca. 2 GHz und ca 1 Ghz) nach Bedarf hin und her geschaltet. Ich weiß nicht, wie weit das System heruntergetaktet werden kann, bevor es abschmiert, aber ich denke es wäre schon sinnvoll, bei vorübergehender Nichtnutzung so weit wie möglich herunter zu fahren. Rechenintensive sog. Bildschirmschoner sind zwar nett anzusehen, aber wenn niemand vor'm Monitor hängt, ist das ja auch Energieverschwendung. Ich habe also meine Kiste so eingestellt, dass sie sich nach 20 Minuten Leerlauf schlafen legt. Wenn ich dann wieder etwas tun möchte, reicht ein Druck auf die allseits bekannte "Any"-Taste und das Ding läuft nach wenigen Sekunden.
Langer Schreibe kurzer Sinn: wo also muss da großartig aufgeholt werden??? Und vor allem gegenüber wem oder was?
P.S.: da der dritte und vierte Absatz mit der Überschrift nix zu tun haben, wäre es m.E. besser gewesen, dafür ein bis zwei eigene Artikel zu erstellen (sie müssen ja nicht immer ein Dutzend Zeilen oder mehr aufweisen).
Klasse ... finde ich hier hingegen eher das Selbsteingeständniss.
Klasse ... finde ich auch die Position von Intel. Besonders da Intel ja nun kein Niemand ist, kann man nur Hoffen das sich andere Hardwarehersteller davon mal etwas inspirieren lassen.
Ich finde es super, dass Intel Opensource-Treiber entwickelt und es ist für den Anwender ziemlich egal, ob die Spezifikationen der Hardware offengelegt wurden, oder nicht. Trotzdem ist es ein großer Vorteil, die Treiber als Opensource vorliegen zu haben, statt nur Binärtreiber. Ändert sich was an der Kernel-API, kann ein OS Treiber recht einfach angepasst werden, bei CS Treibern darf man dann darauf hoffen, dass der Hersteller das macht, was bei älterer Hardware wohl immer unwahrscheinlicher wird.
Also von wegen sinnfrei.
Selbst wenn Linux auf dem Bereich Top wäre, würde ich mich über so ein Statement freuen. Wer stets "Weltmarktführer" ist, wird niemals den Drang verspüren etwas zu verbessern. Solange das Kommando "vorwärts" heißt, kann man sich doch über jede identifizierte Schwäche freuen...
bei Intel sehe ich das etwas mit gemischten Gefühlen. Ich habe ein IBM Thinkpad R51 mit integriertem Intel Grafikchip. Der ältere Treiber von Intel i810 unter xorg 7.1 und 7.2 holte aus meinem Notebook eine Auflösung von 1280x1024 raus. Beim neueren i810 oder dem aktuellen intel Modul unter xorg 7.3 geht das hingegen nicht mehr: 1280x768 ist die maximale Auflösung, und das ist distributionsunabhängig.
Beste Grüße,
Holger
Der einzige Vorteil von Linux ist derzeit noch die Treiberunterstüzung, aber auch für die BSDs gibt es immer mehr und bessere Treiber.
In einigen Dingen hat sonst ja auch ein BSD vorne, z.B. hat FreeBSD eine sehr gute Mehrprozessorunterstützung.
Ach ja, und in meinen Augen eine viel bessere Lizenz.
Als jemand, der CFS ausgiebig getestet und mit dem 'normalen' scheduler verglichen hat - dem Durchschnittsuser wird es auffallen.
Wobei die MS-PL die deutlich überlegene Lizenz ist
Ich selber finde FreeBSD schon interessant. Aber nicht im Desktopeinsatz. Dafür fehlt zu viel.
Das 'warum' ist bekannt - es fehlt an kernel-infrastruktur. Aber die FreeBSDler verschwenden ja lieber ihre Zeit damit, Linuxer zu belästigen.
So ein Unfug. Erstens nutzt nVidia die vorhandene Kernel-Infrastruktur (DRI u. ä.) überhaupt nicht, zweitens läuft FreeBSD seit Jahren auch auf 64-Bit-Systemen - welche Kernelinfrstruktur soll da bitte auf 32-Bit-Systemen vorhanden sein und auf 64-Bit-Systemen nicht? Wenn man solchen Quatsch behauptet, muss man ihn belegen.
Aber die FreeBSDler verschwenden ja lieber ihre Zeit damit, Linuxer zu belästigen.
Bei solchen Pfosten wie Dir muss man sich echt schämen, Linux zu benutzen.
http://wiki.freebsd.org/NvidiaFeatureRequests
Trotzdem ist Dein Spruch über FreeBSD-Nutzer saudämlich.
Ich sage die Wahrheit: nämlich das Nvidia FreeBSD auf amd64 aus bekannten Gründen nicht unterstützt.
Eine weitere Wahrheit ist, daß bei jeder Gelegenheit eine Reihe FreeBSDjünger angekrochen kommt und über Linux herzieht.
Und was machst du? Attackierst und beleidigst mich.
Womit dann auch die zweite Wahrheit belegt ist. Vielen Dank.
Warning:
You triggered the wiki's surge protection by doing too many requests in a short time.
Please make a short break reading the stuff you already got.
When you restart doing requests AFTER that, slow down or you might get locked out for a longer time!
bei einem (!) Fenster ist ja wohl peinlich.
Linus hat mal wieder den Nagel auf den Kopf getroffen. Wenn die Performanz stimmt, kann man anfangen, übers Energiesparen nachzudenken. Insbesondere aufgrund der Tatsache, dass inzwischen 1. mehr Notebooks als Desktop-PCs verkauft werden und 2. PCs und Server ein Gutteil des Weltenergieverbrauchs ausmachen.
Gruß, LX
Der überwiegende Teil des Threads hat so gut wie nix mit dem Thema zu tun.
Es ist immer wieder erstaunlich, wie jedes x-beliebiege Thema zu Flames führt ("Sack Reis in Vietnam umgefallen!!" -- "Unter japanischer Lizenz wäre das nicht passiert!!" -- "Indonesischer Reis kippt nicht, er kocht!!" -- "Fallender Reis würde weder dem chinesischen Volk, noch dem Kommunismus dienen!!"); wahrscheinlich ist das einfacher, als wenigstens eigene themenbezogene Erfahrungen beizusteuern (oder wenigstens zuzugeben, dass auch vietnamesischer Reis kochen und chinesischer sackweise umfallen kann).
http://www.top500.org/stats/list/30/osfam
laufen 85,2% der Top500 Supercomputer unter Linux aber auch 1,2% unter Windows, die Leut ham Nerven...
Meines Wissens kommt Windows ab einer bestimmten Corezahl (waren es 32?) überhaupt nicht mehr gut damit klar.
schönen abend noch
Naja, mal das SP1 abwarten ... aber der schleppende Verkauf von Vista spricht schon Bände. Ich glaube mittlerweile das der viel gelobte Umbruch, der mit Vista stattfinden sollte, ein Schuß ins Knie war. Einerseits war XP ein durchaus brauchsbares OS und dann kommen noch die vielen Unzulänglichkeiten und Hemmnisse bei Vista dazu. So eine "Revolution" bei einem OS, auf dem closed-source Anwendungen dominieren, bewegen sich Anbeiter eben eher träge zu diesem neuen System hin. Naja, ein wenog offtopic .... also zurück zum BSD-Streit
...oder zuviel Geld.
beides unter ähnlichen bedingungen.
Leider läuft das Kabel- sowieso das Wireless-Netzwerk nicht. *kotz*
mattis
5 Stunden Akku mit Linux
4 Stunden mit gut Glück unter Windows
Unter Windows läuft mein Asus A6VA Notebook im Akkubetrieb ohne W-Lan, reduzierter Beleuchtung 3 Stunden 45 Minuten.
Unter openSUSE 10.3 sind es mit gleichen Einstellungen und den von INtel Powertop vorgeschlagenen Einstellungen gerade mal 2 Stunden 20 Minuten. Das Parallel installierte Sidux schafft es immerhin auf 3 Stunden.
Konkrete Zahlen: Windows verbraucht im Stromsparmodus gut 16 Watt.
Beide Linuxsysteme (suse und sidux) liegen minimal bei 20 Watt, wobei openSUSE im Schnitt eher 25 Watt verbraucht.
Ich habe viele Energiespartricks ausprobiert, dynamische Prozessorgeschwindigkeit, Intel PowerTop, Module entladen usw....
Es hilft einfach nichts, ich denke einfach, die ATI-Grafikkartentreiber unter Linux sind so schrottig, dass sie nicht das volle Energiepotenzial ausnutzen... (ja ich habe mit dem fglrx die Powersteps auch unter Linux heruntergeregelt).
Energiespartechnisch muss Linux (aus meiner Sicht) also noch einiges an Hausaufgaben erledigen.
Gruß
Rlf
Meine beiden (ein Laptop und ein Tablet-PC) laufen unter Linux auch länger als unter Windows.
Dem normalen Desktopnutzer dürfte es eher egal sein, ob sein PC 80 oder 100 Watt verbraucht.
Enorme Einsparungen dürfte es aber z.B. bei Serverfarmen geben. Nicht nur die verringerte Leistungsaufnahme fällt da ins Gewicht, auch die kostspielige Abführung der Abwärme durch Klimaanlagen.
Die zweite Frage wäre, wann sehen die Leute endlich ein, dass man zum Emailen, Internet surfen, Bilder bearbeiten, Briefe schreiben und Urlaubsvideos auf DVD bringen keine HighEnd 3D Graphik mit 100 W Verbrauch und keinen 3GHz Quadcore braucht. Für die meisten Anwender würde ein Prozessor reichen, wie er schon heute von VIA mit typischem Verbrauch zwischen 1 und 5 W angeboten wird. Und wenn der einmal im Jahr 2 Tage rendert um das Urlaubsvideo umzurechnen, dann dauert es halt 2 Tage. Aber Energietechnisch ist das immer noch deutlich effizienter. Wenn jeder nur soviel Rechenleistung hätte wie er wirklich braucht, könnten wir insgesamt viele Atomkraftwerke sparen.
Da kann man problemlos Rechner zusammenschrauben, die im idle ~ 45 Watt verbrauchen aber bei Bedarf auch ordentlich Leistung bringen.
Wo ich Dir recht geben muss, ist, das die Leistungsfähigkeit der Heutigen CPUs oft nicht gebraucht wird, dito Monstergrafikkarten.
Und das finde ich noch deutlich zu viel! Main VIA (C3) braucht idle (ohne laptop-mode) etwa 30 Watt, was ich immernoch zuviel finde (bei für mich meist sehr ausreichender Leistung). Mein toshiba-Laptop (crusoe) braucht dagegen (natürlich mit Bildschirm) nur 18 Watt (wobei der auch _echt_ langsam ist). Aber heute sollte es möglich sein, einen ausreichend schnellen Rechner zu bauen, der komplett nicht mehr als 20 Watt braucht! Was braucht denn so ein aktueller "energiesparender" Laptop?
Allerdings macht meiner Meinung nach ein C3 oder C7 wenig Sinn, wenn man ein Rechner mit Athlon auf knapp 20 Watt bringen kann, der aber in der Effizienz, sobald wirklich mal Rechenleistung gefragt ist, besser ist als ein VIA Chip,finde ich das schon Sinnvoller.
Aber die neuste CT macht einem schon Hoffnung, das das Thema mal mehr angegangen wird, je weniger je besser.
Und ja, wenn es nur um den Strom geht, liegen die Schlepptops natürlich klar vorne (bzw. hinten)
Gruß, marrat
Anstatt den LHC Patch die ganze Zeit zu blockieren.
Ich nutze Fedora 8 und habe mir vor wenigen Tagen ein Tool in's Panel gesetzt, das mir die aktuell verwendete Taktfrequenz anzeigt. Falls dies fehlerfrei/fehlerarm funktioniert, klappt bei meinem AMD64 die Regulierung der Taktfrequenz recht gut. Es wird jedoch offenbar nur zwischen zwei Stufen (ca. 2 GHz und ca 1 Ghz) nach Bedarf hin und her geschaltet. Ich weiß nicht, wie weit das System heruntergetaktet werden kann, bevor es abschmiert, aber ich denke es wäre schon sinnvoll, bei vorübergehender Nichtnutzung so weit wie möglich herunter zu fahren. Rechenintensive sog. Bildschirmschoner sind zwar nett anzusehen, aber wenn niemand vor'm Monitor hängt, ist das ja auch Energieverschwendung. Ich habe also meine Kiste so eingestellt, dass sie sich nach 20 Minuten Leerlauf schlafen legt. Wenn ich dann wieder etwas tun möchte, reicht ein Druck auf die allseits bekannte "Any"-Taste und das Ding läuft nach wenigen Sekunden.
Langer Schreibe kurzer Sinn: wo also muss da großartig aufgeholt werden??? Und vor allem gegenüber wem oder was?
P.S.: da der dritte und vierte Absatz mit der Überschrift nix zu tun haben, wäre es m.E. besser gewesen, dafür ein bis zwei eigene Artikel zu erstellen (sie müssen ja nicht immer ein Dutzend Zeilen oder mehr aufweisen).