Nvidia: GT300 soll angeblich mit 225 Watt TDP auskommen

Lies bitte die ganze Diskussion, ehe du antwortest.
Es ging um eine 9300GS.
Ich vermute mal, die soll man sich nicht primär zum spielen kaufen?
eine 9300GS liegt im Idle-2D-Modus noch viel weiter unterhalb der magischen 30W, viel weiter. TDP != realer Verbrauch.

Abgesehen davon, dass andere Hersteller das "<30W" bequem für den gesamten Chipsatz inklusive Speichercontroller schaffen: Wieso muss das Betriebssystem irgendetwas davon mitbekommen, dass die Grafik gerade von einem anderen Chip berechnet wird, wenn der genau die gleichen Fähigkeiten hat?
Weil es Windows ist, und es das anders nicht kann? Was meinst du wieviele technische Innovationen wir nicht bekommen, einfach weil Windows bzw Microsoft einfach zu stur ist? Siehe Vista/Win7: Wo sind die guten alten Spanmodes hin?

Das hätte höchstens Sinn gemacht, wenn man die Sache Plattformunabhängig für alle Hersteller geöffnet hätte, aber so hätte man das ganze Betriebssystemtransparent zwischen Mainboard und Grafikkarte regeln können, für Betriebssystem und Treiber nicht mehr, als ein weiterer Betriebsmodi (bzw. gleich als "3D").
Das kannst du zwar THEORETISCH Betriebssystemtransparent machen, praktisch sieht die Sache ganz anders aus. Gerade die Treiberentwicklung ist extrem teuer und in diesem Falle extrem kritisch. Gerade durch die zig Millionen Kombinationen aus Mainboard/BIOS/weitere Komponenten. Und last but not least sollte man nicht vergessen, dass es für Intel keine neuen Chipsätze mehr gibt, für AMD faktisch auch nicht mehr. Hat sich also auch aus dem Sinne erledigt.

Aber war nicht, is nich und wird auch nicht wieder.
Jedenfalls nicht im Desktop, bei Laptops scheint es ja komischerweise etwas besser zu funktionieren.
Da geht es vorallem um Apples Macbooks (=Mac OS X) da muss man sich für den Wechsel nebnebei (obwohl extra angepasst und alles aus einer Hand kommt) ausloggen und erneut einloggen. Komfortabel sind anders aus. Dazu kommt natürlich, dass es sich bei einem Notebook um eine eher geschlossene Plattform handelt und dort durchaus 5W ersparnis viel bedeuten. Beim Desktop sieht das dagegen anders aus. Der Grafikkern im Chip kostet natürlich auch Geld, wenn wir mal von 10€ aufpreis ausgehen und von einer Ersparnis von 10W dauert die Amortisation Jahre.
 
Bin gespannt ob das so sein wird oder ob diese Meldung nur heiße Luft ist.....
 
Hybrid-SLI ist tot. Keine der neuen Karten/PCBs unterstützt das Feature mehr. Über Ursachen kann nur geraten werden, aber die geringe Verbreitung passender Chipsätze und die mangelnde Eingnung für Enthusiast-Umgebungen (gerade da hätte es Sinn gemacht) werden als Hauptgrund angesehen.

Hätte sich zwar beides leicht ändern lassen - aber solange die Leute bereitwillig Grafiklösungen bis 0,5kW bejubeln sehen die Hersteller schlichtweg keinen Bedarf darin, weiter in Gegenmaßnahmen zu investieren.

Danke für die Antwort! Leider sehr bedauerlich...

Wenn ich hier lese, dass man für Office-Sachen ja einen PC mit schwächerer Graka nehmen soll - wie viele PCs, die alle mit hohem Energieaufwand (Chipfertigung!) produziert werden müssen, soll ich denn bei mir hinstellen? Vom Zeitaufwand beim Hoch- und Runterfahren sowie Synchronisieren der Rechnerfarm mal ganz abgesehen...
 
Ja, super. Welchen Gamer interessiert ob seine GraKa 150 oder 225 Watt TDP verbraucht. Hier rennen Freaks rum die für ein paar fps mehr ihre Mutter umbringen würden. Wenn die GraKa 1 kW verbrauchen würde wäre der erste Weg der Community zum Hardware-Seller ihres Vertrauens um ein 2 kW-Netzteil zu ergattern. Danach protzen dann alle mit OC-Ergebnissen die nur durch Spannungserhöhung möglich waren (VoltxAmpere=Watt). :what:
 
Also meiner Meinung nach ist das auch uninteressant.
Das einzige was ich daraus schliessen könnte ist, das die Grakas evtl. noch mehr oc Ptential haben da die Graka durch weniger Leistungsaufnahme kühler sein sollten.

Und das die Biester wieder heisser werden, da sorgen wir schon für in dem wir wieder ocen.:lol:
 
Es kommt auch darauf an wieviel Leistung NVidia aus den angeblichen 225 Watt herausbekommt.Sicher sind 225watt nicht gerade wenig, aber wenn der Chip neue Maßstäbe bei der 3D leistung setzt , und sich deutlich absetzen kann zb. von ner graka die schon 175Watt oder so braucht, und sollte der 2D Verbrauch im Rahmen sein dann ist das doch absolut gerechtfertigt.Bei einem Auto mit V8 Motor und 500PS das ist es doch klar das man das nicht mit 15L /pro100 km fährt.Wenns aber wie ein Trabi laufen würde dann würden alle schimpfen.Der Verbrauch muß einfach zur Leistung passen.
 
:D ... egal wieviel WATT das ding schluckt... hauptsache das ding rennt und ordentlich OC spielraum wärn nicht schlecht... meinet wegen kann Sie auch 1000WATT fressen :D
 
:D ... egal wieviel WATT das ding schluckt... hauptsache das ding rennt und ordentlich OC spielraum wärn nicht schlecht... meinet wegen kann Sie auch 1000WATT fressen :D

is ja heftig das dir das so egal ist...also das ne zockerkarte viel strom frist is ja klar aber nicht 300 bzw 225Watt das is echt mal nen bisschen zu viel!
bei 300Watt würde das teil ~20cent in 3 Stunden aus deiner Leitung ziehen( nur die GPU, so das sind in 15 Stunden ~1 euro! naja wer hatt der kann außerdem leben wir in einer Zeit wo mann schon wenigstens ein kleines bisschen auf Umweltschutz achten sollte und würde echt jeder so denken wie du brauen wir bald 2 neue Kernkraftwerke nur um die ganzen GT300 zu betreiben!:ugly:LOL
 
is ja heftig das dir das so egal ist...also das ne zockerkarte viel strom frist is ja klar aber nicht 300 bzw 225Watt das is echt mal nen bisschen zu viel!
bei 300Watt würde das teil ~20cent in 3 Stunden aus deiner Leitung ziehen( nur die GPU, so das sind in 15 Stunden ~1 euro! naja wer hatt der kann außerdem leben wir in einer Zeit wo mann schon wenigstens ein kleines bisschen auf Umweltschutz achten sollte und würde echt jeder so denken wie du brauen wir bald 2 neue Kernkraftwerke nur um die ganzen GT300 zu betreiben!:ugly:LOL
Kommt halt drauf an wieviel man zockt. Bei mir ist der Idle- Verbrauch z.B. wesentlich wichtiger, da ich eher weniger spiele...
 
is ja heftig das dir das so egal ist...also das ne zockerkarte viel strom frist is ja klar aber nicht 300 bzw 225Watt das is echt mal nen bisschen zu viel!
bei 300Watt würde das teil ~20cent in 3 Stunden aus deiner Leitung ziehen( nur die GPU, so das sind in 15 Stunden ~1 euro! naja wer hatt der kann außerdem leben wir in einer Zeit wo mann schon wenigstens ein kleines bisschen auf Umweltschutz achten sollte und würde echt jeder so denken wie du brauen wir bald 2 neue Kernkraftwerke nur um die ganzen GT300 zu betreiben!:ugly:LOL
Wayne ?! 1 Euro am Tag für mehr Performance ..... klingt doch fair :P (und ja, ich zahle meinen Saft selber, ist mir trotzdem egal - mir gehts um Leistung!)


Und aus Klimaschutzgründen schon mal gar nicht ..... ich denke mal, du beziehst dich auf die Mär vom menschengemachten Klimawandel, und dem Gas des Teufels, aka CO2 ?! Nu so viel: Ich kann diese Lügenpropaganda nicht mehr hören!

Geringerer Stromverbrauch ist nur aus 2 Gründen wünscheswert:

- Man spart Stromkosten (ja, auch mir ist das nicht völlig egal .... 30€/Monat mehr sind 10 Döner weniger in meinem Magen :devil: .... ich nehm den hohen Verbrauch meines PCs nur ganz einfach als gegeben hin - ich will Rechenpower? Die gibts nur gegen massig verbratenen Strom ...)

- Ressourcenschutz: Gas, Kohle, vor allen Dingen aber Öl sind viel zu wertvoll zum verfeuern, und von daher macht es Sinn darauf zu achten nicht alles sinnlos für Saft zu verbrennen.


Aber .... Klimaschutz ?! :lol:

Ist ja noch hell draußen, guck mal nach oben in den Himmel, da siehst du den tatsächlichen Verursacher wärmerer Temperaturen in der letzten Zeit, ist nicht zu übersehen :schief: (Anmerkung dazu, wenn du drauf gekommen bist: Im Mittelalter, wo wir ja bekanntermaßen mehr Industrie und damit CO2-Austoß als heute hatten war es bedeutend wärmer als heute auf der Erde ... :ugly:).
 
Zurück