siduction hat zwar den 319.12 sowie Kernel 3.9RC6 und xrandr 1.4. in den Repos, der X-Server in Version 1.13 muss allerdings selbst kompiliert und xorg-video-foo sowie xorg-input-foo dagegen gebaut werden. Dies bedingt eine Menge Abhängigkeiten aus debian-experimental.
Nvidia sollte wieder die optionen zur einstellung der gpuskalierung mit beibehaltung des seitenverhältnisses einführen. das war die wichtigste grafikkarteneinstellung bis dahin. er soll ja besser und nicht schlechter werden mit dem komfort. danke !
Der proprietäre Linux-Treiber 319.12 unterstützt bisher lediglich die Übergabe eines vom Nvidia-Grafichip berechneten Bilds an einen Onboard-Grafikchip oder etwa einen externen DisplayLink USB-VGA Adapter. Nvidias Grafikchip kann jedoch derzeit noch nicht das Bild einer anderen GPU ausgeben.
Wo ist da das Problem? Meines Wissens funktioniert doch Optimus auf die Art, dass grundsätzlich der Intel-Chip die Grafikausgabe übernimmt. Wird mehr Power gebraucht, hängt sich die NVIDIA-GPU einfach dran und übergibt der Intel-GPU die Bilder, damit die sie an den Bildschirm weiterreicht. Sinn dahinter ist, dass beide GPUs gleichzeitig an den Ausgängen angeschlossen sind und sich dynamisch abwechseln können.
Hab ich das jetzt falsch verstanden oder gibt es auch Rechner, wo grundsätzlich die NVIDIA-GPU für die Grafikausgabe sorgt?
Hab ich das jetzt falsch verstanden oder gibt es auch Rechner, wo grundsätzlich die NVIDIA-GPU für die Grafikausgabe sorgt?
Für normalle Anwendungsfälle ist natürlich nur der Fall NVIDIA -> Intel interessant. Alles andere wäre ja schwachsinnig und würde den Vorteil des Stromsparens zunichte machen.
Aber ich kann mir Anwendungsfälle wo es interessant sein könnte. Zum Beispiel wenn man die NVIDIA für OpenCL verwendet und deshalb aktiviert ist.
vga-anschluss hängt an der Intel hdmi an der nvidia karte
arbeite normal natürlich mit der intel karte. willi ich einfach mal so nen fernseher anstecken geht das nicht ohne hacks oder im bios umstellen auf nvidia-only
hacks: http://sagark.org/thinkdisp-about-installation/ damit wird das bild auch kopiert, braucht aber ganz schön viel leistung
Das Gleiche bei meinem ThinkPad... Ich vermisse die nVidia aber nicht wirklich. Vor allem in einer Running Release Distro ist der OpenSouce-Treiber schon vorteilhaft.
Habe ein IdeaPad Y580 mit Intel-Grafik im Core i7-Prozessor und einer NVIDIA GTX660M, installiert ist Ubuntu Raring Ringtail mit Kernel 3.9-rc6 und xserver-xorg 1.13.3. Es geht schon damit los, dass der NVIDIA-Treiber 319.12 sich zu Beginn beschwert, dass kein unterstützter NVIDIA-Chip vorhanden ist. Danach kann man sich zwar bis zum Ende der Installation durchhangeln, hat dann aber ein kaputtes System: Optimus funktioniert nicht, der NVIDIA-Treiber will sich mit der Meldung "Failed to initialize GLX extension (Compatible NVIDIA X driver not found)" nicht laden und zu allem Überfluss hat nun auch der Intel-Treiber kein GLX mehr. Sprich: Da funktioniert nicht nur gar nichts, man hat am Ende NOCH weniger Hardware-Beschleunigung als vorher.
Einfach lachhaft. Das ganze OPTIMUS-Konzept ist offensichtlich technisch ein totaler Fehlgriff der nur unter Windows funktioniert.
Darf ich jetzt mit meiner ATI/Intel-Combo protzen, bei der ich jederzeit herumschalten kann wie ich will und das auch noch nahtlos, ohne den XServer neu zu starten?
Habe einen Core I7 mit integrierter HD4000 GPU + Nvidia GTX 680 Grafikkarte auf einem Z77 Board. Ist es nun möglich diese Technik zum Energie sparen zu nutzen oder geht das nur in mobilen Geräten?
"Der Beta-Treiber 319.12 setzt für Optimus sowohl Kernel 3.9 als auch den X-Server in Version 1.13 sowie Xrandr 1.4 voraus"
Welche distri hat das zur Zeit?
nachdem der Kernel 3.9 noch nicht final ist wahrscheinlich nur Ubuntu in nem PPA oder evtl. noch der Sidux Nachfolger...
siduction hat zwar den 319.12 sowie Kernel 3.9RC6 und xrandr 1.4. in den Repos, der X-Server in Version 1.13 muss allerdings selbst kompiliert und xorg-video-foo sowie xorg-input-foo dagegen gebaut werden. Dies bedingt eine Menge Abhängigkeiten aus debian-experimental.
z.B. gentoo testing
Ich bin jedoch sehr zufrieden mit bumblebee und bezweifle das die erste beta von nvidia nützlicher sein wird.
Nvidia sollte wieder die optionen zur einstellung der gpuskalierung mit beibehaltung des seitenverhältnisses einführen. das war die wichtigste grafikkarteneinstellung bis dahin. er soll ja besser und nicht schlechter werden mit dem komfort. danke !
Wo ist da das Problem? Meines Wissens funktioniert doch Optimus auf die Art, dass grundsätzlich der Intel-Chip die Grafikausgabe übernimmt. Wird mehr Power gebraucht, hängt sich die NVIDIA-GPU einfach dran und übergibt der Intel-GPU die Bilder, damit die sie an den Bildschirm weiterreicht. Sinn dahinter ist, dass beide GPUs gleichzeitig an den Ausgängen angeschlossen sind und sich dynamisch abwechseln können.
Hab ich das jetzt falsch verstanden oder gibt es auch Rechner, wo grundsätzlich die NVIDIA-GPU für die Grafikausgabe sorgt?
Grueße
Ignatz
Aber ich kann mir Anwendungsfälle wo es interessant sein könnte. Zum Beispiel wenn man die NVIDIA für OpenCL verwendet und deshalb aktiviert ist.
Finde ich einleuchtend, thx!
Grue-e
Ignatz
mein Lenovo-Thinkpad:
vga-anschluss hängt an der Intel
hdmi an der nvidia karte
arbeite normal natürlich mit der intel karte.
willi ich einfach mal so nen fernseher anstecken geht das nicht ohne hacks oder im bios umstellen auf nvidia-only
hacks:
http://sagark.org/thinkdisp-about-installation/
damit wird das bild auch kopiert, braucht aber ganz schön viel leistung
Das Gleiche bei meinem ThinkPad... Ich vermisse die nVidia aber nicht wirklich. Vor allem in einer Running Release Distro ist der OpenSouce-Treiber schon vorteilhaft.
Habe ein IdeaPad Y580 mit Intel-Grafik im Core i7-Prozessor und einer NVIDIA GTX660M, installiert ist Ubuntu Raring Ringtail mit Kernel 3.9-rc6 und xserver-xorg 1.13.3. Es geht schon damit los, dass der NVIDIA-Treiber 319.12 sich zu Beginn beschwert, dass kein unterstützter NVIDIA-Chip vorhanden ist. Danach kann man sich zwar bis zum Ende der Installation durchhangeln, hat dann aber ein kaputtes System: Optimus funktioniert nicht, der NVIDIA-Treiber will sich mit der Meldung "Failed to initialize GLX extension (Compatible NVIDIA X driver not found)" nicht laden und zu allem Überfluss hat nun auch der Intel-Treiber kein GLX mehr. Sprich: Da funktioniert nicht nur gar nichts, man hat am Ende NOCH weniger Hardware-Beschleunigung als vorher.
Einfach lachhaft. Das ganze OPTIMUS-Konzept ist offensichtlich technisch ein totaler Fehlgriff der nur unter Windows funktioniert.
und unter os x. das ist der grund, warum ich auf meinem macbook auf der arbeit kein linux installiert habe: zu schlechte akkulaufzeit.
Darf ich jetzt mit meiner ATI/Intel-Combo protzen, bei der ich jederzeit herumschalten kann wie ich will und das auch noch nahtlos, ohne den XServer neu zu starten?
Grueße
Ignatz
Habe einen Core I7 mit integrierter HD4000 GPU + Nvidia GTX 680 Grafikkarte auf einem Z77 Board.
Ist es nun möglich diese Technik zum Energie sparen zu nutzen oder geht das nur in mobilen Geräten?
Klaro geht das! Wenn dein System aber super stabil sein soll rate ich dir davon noch ab.