PCGH.de: GT200b: Test der 55nm-GTX 260 aufgetaucht

Nicht jeder oder besser die wenigsten haben ne Wakü. Dazu kommt dass nur der Thermalright HR-03 GTX für die GTX2x0 bis jetzt geeignet ist ist und da sollen die VRMs laut PCGH Test sehr heiß werden. also keine Ideallösung. Vielleicht kommt dieser Kühler ja auch für die Reihe raus: ComputerBase - Inno3D: Drei Lüfter für eine GeForce GTX 280

In meinen Augen immer noch unverständlich warum es so wenige alternative Kühllösungen gibt.

Na wir werden sehen wenn die offiziellen Tests kommen.

mfg
 
1. nicht kühler --liegt am Kühler

2. nicht besser taktbar --720 mit stock Kühler ist nicht schlecht, ansonsten: liegt am Kühler

3. nicht sparsamer -- lässt sich noch nicht sagen

4. nicht schneller -- siehe 1 und 2

5. Evtl. nicht leiser -- ? und selbst wenn: liegt am Kühler

als die 65nm Version

Den einzigen Vorteil hat Nvidia, da sie billiger und effizienter produzieren können und am Kühlkonzept auch noch sparen.

Wenn man bereit ist, sich entweder für etwa €20 noch einen ordentlichen Kühler zu holen, oder die Karte sowieso wasserkühlt, ist sie die bessere Wahl als eine 65nm GTX260.
Und da die Temperaturen im Vergleich zu einer HD4870 mit stock Kühler immer noch sehr gut sind, halte ich es für sehr gutes Marktverstädniss von Seiten Nvidias die Karten günstiger auf den Markt zu bringen, um das P/L Verhältniss zu verbessern. Denn gerade in diesem Punkt wird Nvidia ja, teilweise zu Recht, Versagen im Vergleich zu AMD vorgeworfen.

die eigentliche frage ist wieso soll man sich jetzt noch eine 55nm karte der eingesessenen generation holen wenn doch die 40nm-Gen. vor der tuer steht. klar das mit dem "warten" ist ein alter hut, warten kann man immer aber was von der 40nm-Fertigung bekannt gegeben wurde schon beeidruckend.

ich hab irgendow letztens gelesen das mit einem schlechterem kuehler und somit einer hoehren temperatur auch der stromverbrauch anwaechst. ansonsten verstehe ich auch nicht wieso die 55nm varriante des selben chips mit selbem takt mehr strom verbrauchen sollte.

Zu dem einen test moecht ich anmerken das p35 meinboard keine PCI-E 2.0 slots haben! in wieweit das den vergleich einer gtx260 zu einer 4870 1024mb beeinflusst koennte man jetzt genauer untersuchen oder einfach auf p43 bzw p45 boards setzen.

eine idle temperatur anzugeben ohne naeher auf die umdrehungen in rpm oder % vom einem bekanntem maximum anzugeben ist relativ sinnlos. die min. drehzahl einer ganz normalen GTX260 die ich zuhause hatte laesst sich trotz ordentlicher temperatur nicht unter 40% (wars glaub` ich) druecken. eine 4870 geht heisser, stromhungriger aber auch leiser zu werke im idle.

naja gute news mehr davon!
 
Zuletzt bearbeitet:
Nicht jeder oder besser die wenigsten haben ne Wakü. Dazu kommt dass nur der Thermalright HR-03 GTX für die GTX2x0 bis jetzt geeignet ist ist und da sollen die VRMs laut PCGH Test sehr heiß werden. also keine Ideallösung. Vielleicht kommt dieser Kühler ja auch für die Reihe raus: ComputerBase - Inno3D: Drei Lüfter für eine GeForce GTX 280

In meinen Augen immer noch unverständlich warum es so wenige alternative Kühllösungen gibt.

Na wir werden sehen wenn die offiziellen Tests kommen.

mfg


Hm, da ich selbst nur WaKüs benutze war ich mir des Mangels an alternativen Kühlern für die GTX2x0 nicht bewusst. Sorry. Habe es allerdings noch nie erlebt, dass es mehr WaKü Kühlkörper für eine GraKa gibt als Luftkühler... :huh:
Liegt es vll daran, dass Lüftkühlung an sich bei der Die Größe und und Abwärme an seine Grenzen stößt?
Bin mit den Kühlkörpern von watercool für meine GTX280 Karten extrem zufrieden, erreiche unter Last im Schnitt die Werte die hier für die GTX260 55nm bei idle gegeben werden. :daumen:
 
Sorry. Habe es allerdings noch nie erlebt, dass es mehr WaKü Kühlkörper für eine GraKa gibt als Luftkühler

Man munkelt dass Nvidia dem einen Riegel vorgeschoben hat. Frag mich aber nicht warum. Zudem soll es bei den 55nm-Karten keine Einschränkungen mehr geben. Sind aber alles Gerüchte. Spannend wirds allemal. Auch ob Ati nun mit einem Rv770 Refresh kommt oder nicht.

In weiser Voraussicht habe ich mir einen Coolermaster Stacker STC-T01 zugelegt, denn nächstes Jahr werde ich mich wohl auch mal an ne Wakü wagen.

mfg
 
Man munkelt dass Nvidia dem einen Riegel vorgeschoben hat. Frag mich aber nicht warum. Zudem soll es bei den 55nm-Karten keine Einschränkungen mehr geben. Sind aber alles Gerüchte. Spannend wirds allemal. Auch ob Ati nun mit einem Rv770 Refresh kommt oder nicht.

In weiser Voraussicht habe ich mir einen Coolermaster Stacker STC-T01 zugelegt, denn nächstes Jahr werde ich mich wohl auch mal an ne Wakü wagen.

mfg


:daumen: Schönes Case! Ich hab den PC-V2010B von Lian Li, bin auch äußerst zufrieden damit.
Denke Du wirst den Wechsel zu WaKü nicht bereuen, bietet einfach unglaublich viele Vorteile und ist mittlerweile extremst einfach einzubauen.
 
Hm, da ich selbst nur WaKüs benutze war ich mir des Mangels an alternativen Kühlern für die GTX2x0 nicht bewusst. Sorry. Habe es allerdings noch nie erlebt, dass es mehr WaKü Kühlkörper für eine GraKa gibt als Luftkühler... :huh:
Liegt es vll daran, dass Lüftkühlung an sich bei der Die Größe und und Abwärme an seine Grenzen stößt?
Bin mit den Kühlkörpern von watercool für meine GTX280 Karten extrem zufrieden, erreiche unter Last im Schnitt die Werte die hier für die GTX260 55nm bei idle gegeben werden. :daumen:

also wenn es um kuehler geht/ginge die nur auf die GTX280 passen wuerden muss man ein paar dinge in betracht ziehen. schon aufgrund des preises wird eine GTX280 ausschliesslich von enthusiasten gekauft. in dieser speziellen kaeuferschicht muss man zwei grosse gruppen unterscheiden. Ersten die wohlhabenen die sich eventuell sogar einen ueberteuerten fertig-pc kaufen, die intressiert nur das der pc laeuft, sollche kunden ruesten ihre graka nicht mit anderen kuehlern aus bzw. aufjedenfall nicht selbst. Die andere gruppe waeren die spezialisten und es kann druchaus sein das diese gruppe mitlerweile mehr auf wakue setzt als auf lukue.


ich selber habe auch eine wakue und bin damit BESONDERS was die kuehlung der grafikkarte angeht extrem zufrieden. fuer den cpu gibts durchaus gute lukue alternativen, aber allein fuer den durchfluss meines innovatek 8800GTX blocks hat sich die wakue mmn gelohnt

allerdings habe ich hier ueberzogen kritische beitraege gelesen. einige vergessen wohl das ein stock-kuehler auf einer graka nicht zu gross sein darf, frueher waren ein-slot-kuehler/karten das maximum des erlaubten, als die ersten 2-slot-kuehler/karten aufkamen war am anfang der aufschrei gross, es wurde gespottet und geschrien das ein slot verdeckt wird. heute sind 2-slot-k. bei highend-gpus standart geworden, andererseits sind auf hochwertigen mainbaords heutzutage alle ueblichen komponenten enthalten fuer die man frueher pci karten gebraucht hat, wer steckt sich heute noch in einen neuen pc noch ne ethanet karte??
trotzdem duerfen die kuehler nicht groesser werden, wenn man sich ein 3-way-sli gespann anguckt versteht man warum. ansonsten muessten die mainbaords laenger werden, und an andere slots ist bei einem 3-karten-gespann mit lukue ohne hin nicht mehr zu denken.

man muss aber beatchen dass die graikkarten immer leistungsstaerker werden, was die rechenleistung angeht ueberragt eine gtx260 ein Core2Quad cpu um ein vielfaches. vielleicht ist die zeit einfach reif dafuer grafikkarten anders am mobo anzubringen. so das ein towerkuehler wie beim cpu moeglich waere. ich will damit sagen das der aufwand eine highend-grakkarte mittels slot-lukue zu kuehlen moeglicherweise, so langsam zu gross bzw. unrentabel wird.
aber wer kann schon ahnen wie es weiter geht, klar ist nur das aus silizium-basierten chips mit der verwendeten tranistor-bauart nicht mehr all zu viel rauszuholen ist. Gruende: Aufwand bei der belichtung der schaltkreise erreicht astronimische hoehen. 2. Anforderungen an die perschicht steigen. 3. es gibt ein physikalisches minimum was die gatelaenge angeht.
 
Den höheren Stromverbrauch kann ich nur mit dem alten Nvidiatrick erklären.Sie haben bei ihren Mboards immer die Spannung etwas höher bei PCIe geschraubt oder bei den CPUs damit sie in den Tests schneller laufen. Eine GTX 260 mit höherer Spannung wäre demnach besser übertaktbar.Eine andere Erklärung wäre es, wenn die Version mehr Shader beinhaltet, aber das bezweifle ich.
 
Den höheren Stromverbrauch kann ich nur mit dem alten Nvidiatrick erklären.Sie haben bei ihren Mboards immer die Spannung etwas höher bei PCIe geschraubt oder bei den CPUs damit sie in den Tests schneller laufen. Eine GTX 260 mit höherer Spannung wäre demnach besser übertaktbar.Eine andere Erklärung wäre es, wenn die Version mehr Shader beinhaltet, aber das bezweifle ich.


Fieser Trick ;)
 
Meiner Mutter habe ich vor einem Jahr einen PC mit dem nforce 430 Chipsatz zusammengestellt. Der Athlon x2 5000+ mit 2,6 ghz lief mit 2,63 ghz und die CPU war heißer. Das ist auch manchmal der Grund, warum ATI Grafikkarten auf Nvidia-Boards nicht laufen. Die Frequenz bei PCIe ist zumindest bei diesem Board auch höher als normal,102 statt 100. Natürlich kann das nur ein Zufall sein bzw. sind das meine Vermutungen, aber ich habe das 2 mal beim Zusammenbauen beobachtet.
 
Vielleicht haben bei der Karte denn Stomverbrauch gemessen wo die übertaktet war^^
Aber das glaube ich nicht, were eine Erklärung für denn hohen stromverbrauch. Da die die Karte im 2D Betrieb nicht übertaktet ist verbrauch die weniger als die 65nm. Ich denke nicht das die Tester so dumm waren...
 
Dann ist das wohl eher ein Messfehler, wenn die Spannung höher wäre, sollte das Ding auch in idle mehr verbrauchen, was nicht der Fall ist.Soweit ich weiß, bei gt200 schaltet die Karte einfach die meisten Shadercluster ab in idle, die Spannung bleibt aber diegleiche.
 
Zuletzt bearbeitet:
Dann ist das wohl eher ein Messfehler, wenn die Spannung höher wäre, sollte das Ding auch in idle mehr verbrauchen, was nicht der Fall ist.Soweit ich weiß, bei gt200 schaltet die Karte einfach die meisten Shadercluster ab in idle, die Spannung bleibt aber diegleiche.

Eine höhere Spannung muss bei einem feineren und anderen Fertigungsverfahren keinen höheren Stromverbrauch verursachen.
 
Muss natürlich nicht, kann aber.Vergleiche mal den 65nm Prozess bei amd. x2 3800ee in 90nm war anfangs sparsamer als die 65nm Variante und liess sich weiter übertakten.Hersteller erhöhen die Spannung manchmal auch minimal für die Stabilität im Betrieb.Viele Grafikkarten könnte man einfach undervolten und ihren Verbrauch senken (mit vielen meine ich nicht alle).
 
Zurück