Geforce GTX 480 mit vollen 512 ALUs gesichtet

Meinst du das nur, oder weißt du das etwa schon?

Annahme anhand hunderter Grafikkartentests inklusive unterschiedlicher GPU-Spannungen, Taktraten und Speichermengen. 2G anstatt 1G braucht 10-20 Watt, mehr Recheneinheiten ebenfalls, eventuell höherer Takt ebenfalls. Eine GTX 460/1G OC (800/1.600/2.000 MHz) saugt im Furmark rund 170 Watt, eine GTX 470 rund 230 Watt – jetzt rechne mal. ;) Viel wird sich das IMO nicht nehmen, wobei aktuell niemand weiß, wie der volle GF104 nun spezifiziert wird. Wenn wir die ersten OC-Modelle der GTX 460/2G im Test hatten, wissen wir mehr. :-)

Eine GTX480 wäre mir dann schon wieder zu heftig, es sei denn man bekommt die auf das Niveau einer GTX285 vom Stromverbrauch...

0,825 Volt bei 600 MHz (underclocked) plus gute Kühlung und du bist dabei. :ugly:

MfG,
Raff
 
Mach aber aus der Karte Trotzdem keinen Greenpeace Freundliche Karte !

Das wären in dem von Raff angesprochenen Fall, ~ 25% mehr Verbrauch als eine 5870 unter Volllast, bei einer 40-50% höheren Dreicksleistung.

Wenn der kommende Refresh der HD5k, auch nur annähernd, die Tessellationperformance der Fermis erreicht, dann wird es auch hier komplexere Shader geben, die dann mehr verbrauchen.
Ausser AMD findet einen Weg die Spannung noch weiter zusenken.

Womit ich beim eigentlichem Thema wäre.
Ich denke schon das NV einen 512 ALU Fermi bringen wird, wenn A) man die Spannung absenken kann, und es B) überhaupt eine Ausbeute an entsprechenden Chips gibt.
 
Zuletzt bearbeitet:
Annahme anhand hunderter Grafikkartentests inklusive unterschiedlicher GPU-Spannungen, Taktraten und Speichermengen. 2G anstatt 1G braucht 10-20 Watt, mehr Recheneinheiten ebenfalls, eventuell höherer Takt ebenfalls. Eine GTX 460/1G OC (800/1.600/2.000 MHz) saugt im Furmark rund 170 Watt, eine GTX 470 rund 230 Watt – jetzt rechne mal. ;)

Ich schätze jetzt mal ca 190-200 Watt für eine GF104 mit 2GB ohne OC (kommt ja auch immer darauf an wie hoch das Oc ist). Das wäre aucf jeden Fall deutlich weniger als das was eine GTX470 zieht und somit auch leiser zu kühlen ;)
 
Wenn der kommende Refresh der HD5k, auch nur annähernd, die Tessellationperformance der Fermis erreicht, dann wird es auch hier komplexere Shader geben, die dann mehr verbrauchen.
Ausser AMD findet einen Weg nicht Spannung noch weiter zusenken.

Laut AMD soll die Effizienz der kommenden Chips steigen.;)
 
Naja wie sagt man so schön, abwarten und Tee trinken. Es lohnt leider nicht über den Stromverbrauch einer nicht erschienenen Grafikkarte zu diskutieren. Das früher oder später mal ein Gf100 Vollausbau kommt ist ja wohl relativ klar wobei ich anhand eigener Tests sagen muss, das wohl der Speichercontroller das größte Problem des Gf100 ist, soll heißen ich kann die Gpu teilweise um 50Mhz mehr übertakten wenn ich den Ramtakt runternehme, beim undervolten gibt sich bei mir zumindest auch der Speicher zuerst die Kante und höher als 1050Mhz ist nicht drinn ob 1,1v oder 1,2v macht da keinen Unterschied. Also entweder Nv macht doch ein B-Stepping was allerdings laut Gerüchteküche nicht der Fall ist oder sie haben endlich genug funktionierende Chips gesammelt (glaub ich aber ehr nicht) wenn ja dann wirds ne richtige ULTRA :lol:
Find das Pcb schon merkwürdig wenn die zusätzlichen Phasen echt gebraucht werden, dann mal aua :ugly: Ich tendiere daher auch Richtung Fake
 
Zuletzt bearbeitet:
Laut AMD soll die Effizienz der kommenden Chips steigen.;)

Ich erwarte auch nicht, dass AMD den neuen Chip viel größer baut.
Es gibt da sicherlich einige Flaschenhälse die man ohne "in die Breite zugehen", beseitigen kann, was dann ein paar FPS mehr bringt.
Aber, nachdem was man so liest,
scheint in Sachen Tessellation ein wirklich neues Design erforderlich.
 
WENN die gezeigte Karte mal iwan das Licht der Welt erblicken sollte, wird sie sich nicht besser verkaufen können als die jetzige GTX 480. nVidia sollte besser sehen mal das Segment nach unten zu schliessen, mit den High End Karten macht man kein Geld. Ich wette, die haben jetzt mit der GTX 460 schon annähernd so viel Umsatz gemacht wie mit allen darüber liegenden Karten zusammen ;)
Und wenn die Karte dann mal da ist hat ATi eh die HD 6k Reihe am Markt und dann sieht die von den Verkaufszahlen her sicher kein Land mehr :D
 
WENN die gezeigte Karte mal iwan das Licht der Welt erblicken sollte, wird sie sich nicht besser verkaufen können als die jetzige GTX 480. nVidia sollte besser sehen mal das Segment nach unten zu schliessen, mit den High End Karten macht man kein Geld. Ich wette, die haben jetzt mit der GTX 460 schon annähernd so viel Umsatz gemacht wie mit allen darüber liegenden Karten zusammen ;)
Und wenn die Karte dann mal da ist hat ATi eh die HD 6k Reihe am Markt und dann sieht die von den Verkaufszahlen her sicher kein Land mehr :D
Naja das ist sicher ein Fake !
 
Pr0t0type:
Naja das ist sicher ein Fake !
Ich denke nicht, dass die Karte ein Fake ist.
Nvidia hat es schon immer so gemacht.
GTX480 -> ?GTX485?
GTX280 -> GTX285
(9800GTX ->9800gtx+)[G92 Refresh)
8800GTX->8800Ultra
7800GTX->7800GTX 512
...
Die beste Karte im High-End Segment wird nach kurzer Zeit wieder neu aufgelegt und als neue Topkarte dargestellt. (G71 außen vor, denn die erschien als Dual-GPU genauso der G92)
 
Evtl doch ein GF100b (!)

Geld hab ich schon zurecht gespart.

Nun noch son Launch wie bei der GTX 460 wo sofort alle Karten verfügbar sind.
 
Hmm, ich vermute mal das ist ein Fake. Wenn auch ein sehr gut gemachtes.

Aber über kurz oder lang wird ein GF100 mit 512 Alu´s kommen, spätestens als Konter zum DX11 Refresh von AMD.
 
Mal so eine kleine Anmerkung...
Warum ist bei Raffs beitrag der Text so weit rechts draussen das man einen halben 24Zoll Bildschirm nach rechts scrollen muss das man den Text vollständig lesen kann???

Auf der ersten Seite dieses Threat ist dieses Phänomän nicht.
Die einstellung auf der Startseite bezüglich der Bildschirmaufteilung ist übrigens auf dieser 5 Unterseite völlig wirkungslos

lg
 
Ich denke nicht, dass die Karte ein Fake ist.
Nvidia hat es schon immer so gemacht.
GTX480 -> ?GTX485?
GTX280 -> GTX285
(9800GTX ->9800gtx+)[G92 Refresh)
8800GTX->8800Ultra
7800GTX->7800GTX 512
Bei den von dir genannten Beispielen wurden aber nur die Taktraten erhöht und nicht Recheneinheiten frei/hinzugeschaltet.
 
Zurück