PCGH.de: Nvidia Geforce GTX 285: Neue Infos zur Platine

das mit dem Stromverbrauch ist klasse . Aber wo sollen die 10% mehr Leistung den herkommen . Da müste der Takt schon gut 20% steigen um in Spielen 10% mehr Leistung zu bekommen . Na ja . Sind ja noch alles Grüchte und Schätzungen . Ich bin gespannt :kaffee:

Vermute mal, dass eher 10% mehr Grafikleistung gemeint sind - wobei es genug grafiklastige Spiele gibt, die das fast 1:1 umsetzen.

Ich hätte irgendwie trotzdem mehr erwartet, aber der Stromverbrauch und die damit verbundene leisere Kühlung sind sicherlich auch ein gutes Verkaufsargument.
 
Sinnlos würde ich jetzt nicht sagen, vor allem nicht für Nvidia :ugly: .

Für den Verbraucher nicht umsteigenswert, wenn man schon ne gute Karte besitzt, aber Nvidia hat mehr Luft. Die Chips sind kleiner und damit verdient man mehr ... ;)

Da stimmt ich dir voll und ganz zu, zumal die Energieeffienz dieser Karten den hiesigen Ernergiekonzernen nicht so ins Portomonnaie spielt. Auch die Folgekosten sollten bedacht werden ;).

hab gestern im laden eine gtx280 gesehn. die ist ja noch ein stück fetter als meine hd4870 :ugly: .
ein richtiger ziegel :D .

Das dachte ich auch nachdem ich im August den Tower aus dem Paket gezerrt habe und kurz darauf die Seitenwand entfernt habe :D . Habe dann mal meinen alten Tower vom Dachboden geholt, um die "Ziegel" mit der 9700 Pr0 in der UltimateEdition zu vergleichen (damals ein riesen Klopper) und dachte nur: "Wow." :D.

//so long
KeTTe
 
Von 236 auf 183W Leistungsaufnahme. Das klingt wirklich beeindruckend, aber ich kann mir nicht vorstellen, dass ein Minus von 10nm so viel ausmacht, vielleicht kommen noch ein paar andere "Verfeinerungen" mit ins Spiel. Sollten diese Angaben stimmen, werden die neuen GTXen sehr interessant, aber ich geniesse diese Info lieber mit Vorsicht.
 
Hat schon jemand was von RV775XT gehört? Also technische Daten? Die fertigen ja schon in 55nm und für 45 ist es doch noch sehr früh... evtl. mehr Shader? Oder eine sehr hoch getaktete HD4890? Weiß da jemand mehr?
 
Also was Nvidia nicht bracuht ist mehr Leistung, davon haben die GTX260 und GTX280 genug. Das wichtige ist die geringere Leistungsaufnahme und die größere Ausbeute an Chips für Nvidia. Ihre 10 Prozent Leistung können sie auch anders bekommen. Ich Frage mich nur woher die kommen sollen? Da muss dann ja der Takt steigen, was man mit einer "normalen" 280er auch schaffen kann.
Zumal es auch andere wege gibt die Power zu erhöhen , siehe GTX260(216).
Ein guter, aber vllt. auch zu später Zug von Nvidia....
 
Also, die 10% mehr Leistung würden mich als GTX 280 Besitzer noch nicht recht reizen, aber die Tatsache, dass die Leistungsaufnahme so absinkt, stimmt mich nachdenklich...wenn eine "erschwingliche" Amp! Edition von Zotac in Planung ist, überleg ich mir einen Kauf...aber erstmal die ersten Benches und Tests nach dem Release abwarten...;)

Mit erschwinglich mein ich so das Segment der aktuellen GTX 280 Amp! . ;):D:ugly:
 
Leute ich glaube ati wird nvidia gefährlich das wird noch ein harter Konkurrenz Fight !Die hd4870x2 ist ein Hammer (zu mindestens was die Leistung angeht)aber sie benötigt ein eigenes kraftwerk :(
und die gtx 295 soll ja auch ne x2 karte sein ,und das nvidia da an die ati dran kommt das ist ja mal keine frage oder !werden die bestimmt packen !
Aber sind wir doch mal ehrlich !wollt ihr wetten die gtx295 wird so mit 600-650 € die erste zeit im regal stehen P/l von nvidia ist immer schon etwas übertrieben gewesen !
Sobald ati in sachen treiber was tut was ich hoffe ,werde ich mir ne ati kaufen und damit glücklich werden ,ja ich gehe fremd:devil:
aber es ist mir egal !den im vergleich der jetzigen gtx 260 und der hd4870 ist es echt ein ein witz was den leistungsunterschied angeht ,hd4870=ab 200€
gtx260 so ab 250€ ,mal ehrlich ist das ok ? ich finde nicht aber mal sehen was die preise im neuen jahr machen (bei ati) ,nvidia geht mal selber von guter arbeit aus ,wie immer und haut gut drauf :(
wenn man sich überlegt das ne 4850 von ati 8800ultra schlägt und noch fast 70 € billiger ist,dann frag ich mich was ich noch bei nvidia zu suchen habe .
mfg euer totti!
 
@ Vorredner, Setzen 6 Thema verfehlt.

@ Topic Die gesenkte Leistungsaufnahme is ja mal der Hammer.

Hoffentlich bleibt genug Strom für OC mit einem 8-Pin Stecker.
 
wenn man sich überlegt das ne 4850 von ati 8800ultra schlägt und noch fast 70 € billiger ist,dann frag ich mich was ich noch bei nvidia zu suchen habe .
Die Ultra ist seit Monaten EOL ... und Monate brauchte AMD um eine Karte zu bauen, die schneller ist als die Ultra ;)

cYa
 
Das ist ja der HAMMER: GDDR3-Speicher bei einer NEUEN Grafikkarte am Ende des Jahres 2008 - und doch schon 55nm-Fertigung !
Bei Nvidia ist die Moderne eingezogen (IRONIE !!!). Nvidia sollte mal nachsehen, ob noch ein paar alte Voodoo-Chips von "3dfx Interactive" im Keller lagern. Die könnte man dann auch noch verbauen ...
Mal im Ernst, alleine wegen des veralteten GDDR3-Speicher dürfte der Preis 180 Euro nicht übersteigen - ansonsten Tonne auf und rein damit ! :daumen2:
 
Äh sorry aber dir is klar dass man die GPU gleich amal umbasteln müsste um GDDR5 verbauen zu könne (Stichwort Speichercontroller)
zusätzlich würde die Board TDP gleich mal in die öhe schiessen.. denn GDDR%

sind echte Hitzköpfe.. sieht man an den 4870er.. der Grund warum die so Warm werden ist der VRAM.

Wenn du GDDR5 haben willst nimm dir halt eine 4870..

Aber ich will den Preis nicht zahlen den NV draufschlagen müsste wenn sie die GPU umbasteln nur wegen dem Controller
 
Das ist ja der HAMMER: GDDR3-Speicher bei einer NEUEN Grafikkarte am Ende des Jahres 2008 - und doch schon 55nm-Fertigung !
Bei Nvidia ist die Moderne eingezogen (IRONIE !!!). Nvidia sollte mal nachsehen, ob noch ein paar alte Voodoo-Chips von "3dfx Interactive" im Keller lagern. Die könnte man dann auch noch verbauen ...
Mal im Ernst, alleine wegen des veralteten GDDR3-Speicher dürfte der Preis 180 Euro nicht übersteigen - ansonsten Tonne auf und rein damit ! :daumen2:

Der Grund warum die Karte so teuer ist liegt doch auf der hand, was glaubst du was Nvidia für nen Ausschuss produziert und wie schwer es is die GPU zu produzieren, 1,4 Milliarden Transistoren, wenn da was am Fertigungsprozess schief läuft wandert der Chip in die Tonne.
Und der GDDR5 Speicher, siehst doch das die Karte auch ohne extremst geil läuft!
ATI schaffts ja nicht mal ne Single Grafikkarte ins Rennen zu schicken die es mit der GTX 280 aufnehmen kann, nein sie kontern mit MultiGPU Lösungen von denen ich persönlich überhaupt nichts halte!
Ich bleib bei Nvidia, wurde bis jetzt nie enttäuscht, nie.
 
Ich meine der geringere Stromverbrauch ist der richtige Weg. Warum werden High-End-karten nicht energieoptimiert mit der Angabe einer garantierten Übertaktungsmöglichkeit. Mittlerweile gibt es so einfach für jeden bedienbare Software-Übertaktungs-Tools. So könnte man die Leistung der Karte den Anwendungen/Spielen anpassen.

Leistung anpassen = Strom sparen
 
Zurück