Lucid Virtu Universal MVP + dGPU abschalten?

Malkolm

BIOS-Overclocker(in)
Eine kleine Zwischenfrage an die Hardware-News-Junkies unter uns:

Ich bin beim Stöbern auf AnandTech - IDF 2011: Lucid Announces Virtu Universal MVP Featuring HyperFormance Technology (Update) gestoßen. Ein kleiner Artikel zu den zukünftigen Möglichkeiten der IGPU von Intel CPUs und deren Anbindung.
Man sieht direkt auf der ersten Seite drei Grafiken wo unter anderem "Power Management" als ein neues Feature angeboten wird.
Weiß jemand näheres, was es damit auf sich hat?
Ist es damit nun endlich möglich die d-GPU bei Bedarf komplett abzuschalten (sprich 0 Watt)? Bisher lief diese ja immer noch im idle (bis zu 70Watt je nach GPU) nebenher.

Wenn das nun endlich möglich wäre, ließe sich endlich ein super Hybrid-Rechner bauen, der im Normalzustand CPU-only faltet (mit neuem Ivy Bridge) und ein sehr gutes PPD/Watt Verhältnis aufweisen würde, der aber auch zum Spielerechner umgeswitcht werden könnte bei Bedarf.

Wenn jemand nähere Infos dazu hat...melden!
 
Das lässt sich natürlich nur machen, wenn die Hersteller der dedizierten Grafikkarten mitziehen. Bei alten Karten, wie z.B. meiner GTX 560 Ti, wird keine Software der Welt, noch nicht einmal eine von Nvidia selbst, sie daran hindern ihre 15 Idle-Watt aus der Stromversorgung zu nuckeln.

Im Artikel steht auch absolut nichts darüber, die Karte abzuschalten, nur dass der i-Mode noch performanter und kompatibler etc. werden soll.
 
Zuletzt bearbeitet:
Das ist es dann sinnvoll, wenn die extra Grafikkarte auch wirklich komplett abschaltet und kein Strom mehr zieht, solange die immer im Idle läuft, wenn die IGP aktiviert ist, kannst du auch gleich die Grafikkarte aktiv lassen, denn im Idle läuft sie ja, wenn 2D angesagt ist, also dann, wenn die IGP aktiv ist.
Genau das Gegenteil ist ja eigentlich der Fall, wenn die IGP anläuft und die GraKa im Idle läuft, hast du bei zwei Sachen Stromverbrauch, wenn die GraKa bei 2D eh im Idle läuft und die IGP deaktiviert ist, also kein Strom zieht, ist es besser.
Der Lucid Virtu ist komplett sinnfrei, da bedarf es deutlich mehr als erwartet.
 
Das Virtu ist nicht sinnfrei, es muss nur richtig benutzt werden: Unterschiedliche Monitore an der Grafikkarte - Verbrauch schießt enorm in die Höhe, je fetter die karte desto höher die Verbrauchssteigerung..
Da ist man mit dem Anschluß über IGP besser dran.
Auch die Darstellung von Blueray oder HD-Inhalten erfordert weniger Leistung als die einer Grafikkarte der Performanceklasse. Ganz allgemein lässt sich in der Kombination Fette Gamerkarte/IGP einiges an Leistung einsparen.
Was zieht die IGP? 15 Watt? 15 Watt zum Video transkodieren. Was verbraucht eine GTX 580 dabei, bei 40% der Geschwindigkeit der (oder heißt das "des"?) IGP?
Sogar mit der Idle-Leistung einer Graka plus IGP kann man sparen, wenn die Grafikkarte wirklich nur für 3D-Inhalte hochfährt.
Das rennt noch nicht alles so rund, besonders nicht im iMode, aber die allgemeine Richtung passt schon.
Und mit Intel als Marktführer bei Grafiklösungen könnte das sogar auf Dauer was werden - ein neuer Quasi-Standard, praktisch gesetzt durch die normative Kraft des Faktischen, während AMD und nVIdia noch damit rumkaspern, sich gegenseitig das Wasser abzugraben. ;)
 
Um welchen Faktor ist denn die GTX 580 beim Transkodieren schneller als die IGP? ;)

Ich halte das eben für sinnfrei, es lohnt sich erst, wenn die Grafikkarte komplett abschaltet, denn was nützt es mit, wenn die Grafikkarte 70 Watt im Idle zieht aber nicht benutzt wird?
Da kann ich eben auf die IGP gleich verzichten.
 
Um welchen Faktor ist denn die GTX 580 beim Transkodieren schneller als die IGP? ;)

Um den Faktor 0,4. Also erheblich langsamer. ;)

Ich halte das eben für sinnfrei, es lohnt sich erst, wenn die Grafikkarte komplett abschaltet, denn was nützt es mit, wenn die Grafikkarte 70 Watt im Idle zieht aber nicht benutzt wird?

Dann verzichte... ich nutze lieber. Meine Graka zieht auch nur 15 W, eher weniger. Eine Karte, die 70 Watt im Idle zieht, kommt mir eh nicht in den Rechner.
 
Ich hab mich jetzt eher auf das gesamte System bezogen, meins zieht 80 Watt im Idle. Wenn die IGP genutzt wird, sind es immer noch 80 Watt plus die Watt, die dann noch zusätzlich von der IGP kommen, was soll das also bringen?
 
Bleiben wir bei den 80 Watt - Beim Abspielen eines Videos braucht deine Karte 50 Watt mehr als im Idle (bei einer fetten Karte nicht ungewöhnlich), die IGP nur 5. Ist doch eine Gewinnsituation. Und dafür braucht es nicht einmal Virtu, wenn man sowieso eine Multimonitor-Konfiguration hat. Aber es geht um Virtu, deshalb haben wir nur einen Moni. ;)
Überall, wo die IGP weniger braucht als die GraKa, ist man auf der Gewinnerseite. Im Moment braucht die IGP 0,13 Watt. Sie idled vor sich hin. Sie ist also praktisch keine Ballast. Von daher stört sie nicht. Und wenn sie schon da ist, kann man sie auch nutzen. Und sie wird immer weniger zusätzliche Leistung ziehen als die Grafikkarte - aber nicht weniger leisten, außer eben in 3D.

Führ das Konzept mal weiter... AMD baut ja inzwischen auch IGPs in die CPUs, wenn die Sache etwas ausgereifter ist, kann man auf Grafikkarten ganz verzichten - man steckt nur noch eine 3D-Beschleuniger-Einheit dazu, wie früher in der guten alten Zeit von Voodoo 1/2 und PowerVR
 
Zuletzt bearbeitet:
Von welchem Video redest du?

Früher hattest du aber zur Beschleuniger Karte noch eine normale Karte gebraucht, denn die Voodoo hat ja nur beschleunigt, mehr konnte sie nicht.
Ich sehe das nicht so, dass Nvidia hier sang und klanglos das Feld den IGPs überlassen wird, außerdem basiert Lucid Virtu ja auf den Nvidia Kram.
 
Muss Nvidia nicht, die können sich auf 3D-Beschleunigung und GPU-Rechenpower konzentrieren - ATI/AMD dito. Die Chips als solche werden weiter gebraucht, und was anderes stellen die beiden ja nicht her. Lucid Virtu basiert auf Intel - der Rest funktioniert mit AMD genauso wie mit Nvidia.
Aber eine Gruppe wird trotzdem etwas verlieren - die Grafikkartenhersteller, die haben dann noch weniger Möglichkeiten, sich zu differenzieren - aber denen fällt schon was ein.

Bei Video meine ich irgendein beliebiges Video, aber von mir aus h.264-codiert (nicht zwingend HD) - je nach Codec/Player schalten die Karten sogar in den 3D-Modus mit vollem Takt und nicht auf die mittlere Leistungsstufe, die eigentlich dafür vorgesehen ist.
 
Lucid ist ein Unternehmen von Intel, die Technologie ist aber Nvidia basierend.

Also, wenn ich ein Video anschaue, dann beschleunigt da gar nichts, die GPU Auslastung ist die gleiche.
 
Wenn Intel den Laden nicht grade gekauft hat, als ich nicht hingesehen habe, ist Lucidlogix immer noch eine eigenständige Firma, allerdings werden die ganz gut von Intel gepushed ;).
Und Lucid Virtu basiert auf Ideen der Hydra-Engine-Hardware und nicht auf nVidia.

Zumindest meine Grafikkarte schaltet schon mal die GPU von 50 auf über 300 MHz, wenn ein Video abgespielt wird. Minimum. Ansonsten, wie erwähnt, liegt es am Codec. Wenn der heftig 3D-Routinen nutzt oder gar CUDA, geht es bis zum Anschlag hoch. Das schlägt sich dann direkt in der Temperatur nieder. Im Prinzip ist das bei jeder halbwegs aktuellen Grafikhardware so.
Wenn deine Karte sowas nicht macht, dann kennt sie vielleicht nur einen Zustand. Dann merkt man auch wenig Unterschied. ;)
Ist auch vollkommen irrelevant. Es war auch nur ein Beispiel, um das Prinzip zu verdeutlichen.
 
Die Lucid Virtu Geschichte basiert auf Nvidias Optimus Technologie.
Die Funktionsweise ist auch die gleiche, Optimus gibts halt bei Laptops.

Mir schon klar, dass du das als Beispiel bringst, aber solange die Grafikkarte eben nicht komplett abschaltet, ist es für mich sinnfrei und Sandy IGP beschleunigt nicht alles.
 
Nur weil zwei Sachen ähnlich sind, müssen sie noch lange nicht aufeinander basieren.
Es ist die gleiche Idee. Und die ist als solche schon viel älter als Optimus.
Auf jeden Fall eine spannende Geschichte mit Möglichkeiten. Die eine Seite funktioniert schon ganz gut (d), die andere (i) ist noch ausbaufähig, aber hoffnungsvoll - soll heißen, das funktioniert so grottig, das sich mir die Haare auf den Zehen kräuseln. Allerdings ist mir da ein Fehler unterlaufen, den ich erst hinterher bemerkt habe. Also muss ich die Sache irgendwann noch mal durchtesten.

Edit: Bis jetzt beschleunigt die SB-IGP Video inklusive 3D-BluRay und GPU-Berechnungen. Das ist schon ganz schön viel. Das 3D ist nicht erwähnenswert. Aber das ist auch nicht wirklich von Interesse. Spannend wird es mit Ivy - da ist die Sache noch etwas flotter und es gibt drei gleichzeitig nutzbare Grafikausgänge. Ein Fest für Multimonitor-Nutzer.
 
Zuletzt bearbeitet:
Hmm mal zurück zum Thema:
Hat niemand nähere Infos zu dieser "Power Management" Funktion der kommenden Virtu Releases?
Da es ja vorallem im Mobilsegment eingeführt wird könnte es doch die gewünscht "Totalabschaltung" sein, oder?
 
Von nix kommt nix. Du kannst nur Hardware abschalten, die auch dafür hardwaremäßig gedacht ist. Und da sich das auf Karten bezieht, müssen also AMD und Nvidia mitziehen. Und die werden den Teufel tun. Zumindest nicht ohne irgendeinen Kuhhandel mit Intel.

Bis jetzt hast du nur ein paar Zeichen auf einem Diagramm. Aussagekraft: Null. Diagramme sind billig.
Mal abgesehen davon, dass alles noch ganz links steht. In der Mitte ist Lucid überhaupt noch nicht angekommen und machen schon Wind für die dritte Generation (rechts). Sowas nennt man Marketing und Vaporware.
 
Von nix kommt nix. Du kannst nur Hardware abschalten, die auch dafür hardwaremäßig gedacht ist. Und da sich das auf Karten bezieht, müssen also AMD und Nvidia mitziehen. Und die werden den Teufel tun. Zumindest nicht ohne irgendeinen Kuhhandel mit Intel.

Nvidia will sein eigenes System reinbringen, eben Optimus, bei den GeForce Chipsätzen damals für AMD klappte das mit dem Abschalten schon gut, nur hat Nvidia den Kram wieder abgeschafft, wohl auch deswegen, weil Intel nicht daran interessiert war, das in ihren Chipsätzen zu integrieren, denn die wollen halt ihren eigenen Kram bauen.
Und wenn jeder seinen eigenen Standard durchdrücken will, ist es immer schlecht für den Konsumenten. :(
 
Von allen hätte Intel aber die beste Chance, das durchzuziehen, aber nicht allein. Vielleicht schafft Intel es ja mit sanfter Erpressung. ;) Intel hat schon so einige Standards angeleihert... aber sowas in trockene Tücher zu bringen, geht nur gemeinsam.
 
Zurück