PCGH Extreme Direktvergleich Leadtek Winfast PX8800GT vs PX8800GTS

Maeyae

PCGHX-HWbot-Member (m/w)
PCGH Extreme Direktvergleich Leadtek Winfast PX8800GT vs PX8800GTS

Aufgrund eines Rechnerupdates meines Kumpels Mehades, der nun auch ebenfalls im PCGHX Forum herumgeistert, kam ich zu der Gelegenheit, die beiden oben erwähnten Chips einem kleinen Direktvergleich zu unterziehen.

Als Unterbau für den folgenden Test diente mein relativ neues System, welches sich aus folgenden Komponenten zusammen setzt:

Intel Core2Quad Q6600 @ 3,5Ghz
Gigabyte P35-DS3
2x 2GB Transcend PC6400 400Mhz
Tagan TG500-BZ 500W
Windows Vista Home Premium 64bit

Die beiden Grafikkarten kommen beide aus dem Hause Leadtek und unterscheiden sich lediglich durch den verbauten Chip, bzw Chipversion, sowie dem verwendeten Kühlkörper. 8800GT vs 8800GTS und SingleSlot gegen DualSlot. Auch die Ausstattung ist die gleiche (genaue Austattung bitte meinem PX8800GT Test in meiner Signatur entnehmen).



Hier die Daten:


attachment.php



attachment.php
attachment.php




Wie auch schon in meinem vorangegangenen Test der PX8800GT fangen wir wieder mit der Temperatur und der Kühlung an.

Single VS Dual oder Ist eingleisig fahren wirklich die beste Lösung?

Wo Leadtek bei der PX8800GT noch auf eine SingleSlot Kühlung vertraut, wird wie bei dem Referenzdesign der 8800GTS G92 ein DualSlot Kühler mit Luftkanal nach draußen verbaut. Somit wird die warme Abluft der 8800GTS direkt aus dem Gehäuse befördert. Ein Vorteil, der nicht zu verachten ist, denn die Wärmeentwicklung beider Chips ist nicht zu unterschätzen.

Beim Start des PCs drehen beide Lüfter kurz auf und regeln dann wieder auf 29% herunter. Die Lärmentwicklung beider Lüfter auf voller Drehzahl ist enorm, werden aber im Praxiseinsatz praktisch nie erreicht. 50% werden in den seltensten Fällen überschritten.

Um die Effektivität zu testen habe ich beide Karten mit Default Takt mit dem FurMark belastet, siehe hier:

attachment.php
attachment.php







Wie man erkennt, ist der SingleSlot Kühler der GT schon mit Defaulttakt und der Auslastung mit dem FurMark relativ am Limit, wobei der GTS dank des DualSlots einen vergleichsweise kühlen Kopf bewahrt und sogar noch Reserven durch höhere Drehzahlen hat. Die Lüftersteuerung beider Karten regelte die Drehzahl automatisch, Feintuning ist also durchaus drin.
Diese Temperaturen werden natürlich im Spieleeinsatz kaum erreicht. Beide Lüfter, GT wie auch GTS, drehen im normalen Einsatz so gut wie nie über 50%.


3DMark und Crysis oder synthetisch gegen praktisch

Ich weiß, diese Tests sind schon mehr als genug benutzt worden, aber aus Zeitgründen (die Karte stand mir nur ca 3 Std. zum Testen bereit) war ich gezwungen, auf Altbewertes zurückzugreifen.
Trotz der nicht sehr vielfältigen Zusammenstellung der Tests sieht man doch relativ eindeutig, das beide Karten mit identischen Taktraten, trotz des Shaderunterschieds, doch sehr ähnliche Ergebnisse erzielen.

Zwei Crysis Durchläufe:




attachment.php

attachment.php





Und die 3DMarks:

attachment.php




Man mag eine geringe Tendenz erkennen, aber manche Ergebnisse schlagen ein wenig aus dem Rahmen. Somit muss man fast sagen, das mancher Unterschied zwischen den beiden Karten fast in den Bereich Messungenauigkeit fällt. Letztendlich scheinen die zusätzlichen 16 Unified Shader im Praxiseinsatz kaum bemerkbar zu machen. Natürlich ist die GT ab Werk nicht so hoch getaktet wie die GTS, außerdem läßt sie sich nicht so weit übertakten, wie man im folgenden Teil sehen wird.
 
Zuletzt bearbeitet:
Kampf der Preisleistungskönige oder GTS over GT?

Wie erwähnt, sind beide Karten von Haus aus unterschiedlich getaktet. Also testete ich natürlich noch beide Karten mit Werks- und Maximaleinstellungen.

Hierbei jeweils 2 Crysis Durchläufe der Maps Ascension, Ice und Island. Sowie ebenfalls die 3DMarks 03. 05 und 06. Eigentlich sollte auch noch World of Warcraft für einen kleinen Test herhalten, aber selbst mit der, kürzlich per Patch eingeführten, Benchmarkfunktion sind nicht wirklich
rekonstruierbare Ergebnisse möglich.

Crysis:

attachment.php
attachment.php



attachment.php

attachment.php



3DMarks:
attachment.php


Wie man erkennt, liegt die PX8800GTS eindeutig vor der GT Variante, die durch ihre 128 Shader gegenüber 112 der GT und dem erhöhten Taktraten erwartungsgemäß dominiert.
Die maximale Taktraten der beiden Karten sehen wie folgt aus:


attachment.php




Fazit:

Unter den gegebenen Umständen und dem Preisunterschied der beiden Karten von lediglich ca. 26 Euro würde ich momentan stark zur GTS tendieren. Sie hat durch die erhöhten Shader Einheiten, als auch die erhöten Taktreserven einen Vorteil gegenüber der GT und das Kühlkonzept ist der SingleSlot Kühlung ebenfalls um einiges voraus und bietet Spielraum nach oben.

Anregungen, Ideen und Wünsche sind selbstverständlich erwünscht.

Viel Spass erstmal damit. An dieser Stelle noch einmal Danke an Mehades, der mir die Karte für die Tests zur Verfügung gestellt hat.

PS: Sorry wegen der Bilder. War 1. zu wenig Zeit und 2. nur ne HandyCam vor Ort -_-
 
Zuletzt bearbeitet:
Jo man erkennt eine leichte Tendenz, aber ich bin ehrlich gesagt von dem Vorsprung der GTS gegenüber der GT enttäuscht, wenn beide gleich getaktet sind. Obwohl die Texturfüllrate nen Eckchen höher ist.

attachment.php
attachment.php
 
fürs Benchen taugt sie was
Mein "Kleiner" ist lang genug und als Hobby hat mich benchen nie gepackt ;)
Aber als Gamer-Karte - no never!
Danke & Dito.

@ Maeyae

Die 88GTS ist bei 530/1325/900 MHz rechnerisch praktisch gleich zur GT (die GT bei 740/1860/970 MHz, aber das packt die wohl kaum) - kannst du das zB mit dem 3D Mark mal zeigen?

cYa
 
@ Maeyae

Die 88GTS ist bei 530/1325/900 MHz rechnerisch praktisch gleich zur GT (die GT bei 740/1860/970 MHz, aber das packt die wohl kaum) - kannst du das zB mit dem 3D Mark mal zeigen?

cYa

Mhhh ja, müsst ich Mehades mal anhauen, da er die Karte schon zurück hat. Bezweifele es aber stark, das er sie nochmal ausbaut. Er ist (noch) nicht so der Bastler-Typ und bei neuer Hardware ist er etwas empfindlich =)

Aber wollte mir eh demnächst noch n neuen Grakakühler bestellen und ne Voltmod an der GT machen, dann schafft sie die Taktraten denke ich und ich kanns vergleichen.
 
Mhhh ja, müsst ich Mehades mal anhauen, da er die Karte schon zurück hat. Bezweifele es aber stark, das er sie nochmal ausbaut. Er ist (noch) nicht so der Bastler-Typ und bei neuer Hardware ist er etwas empfindlich =)

Aber wollte mir eh demnächst noch n neuen Grakakühler bestellen und ne Voltmod an der GT machen, dann schafft sie die Taktraten denke ich und ich kanns vergleichen.


Hmmm, also wenn du das nomma testen willst, stell ich dir die graka gern nomma zur verfügung ;)
 
Sehr schöner Test. Kleiner Schönheitsfehler bei den Temp-Benches: Du schreibst links und rechts seien Bildern, meinst aber vermutlich oben/unten. Bildunterschriften wären natürlich toll in dem Fall.
 
Sehr schöner Test. Kleiner Schönheitsfehler bei den Temp-Benches: Du schreibst links und rechts seien Bildern, meinst aber vermutlich oben/unten. Bildunterschriften wären natürlich toll in dem Fall.
Hehe danke.
Mhh, hatte sie so formatiert, das sie nebeneinander sind. Bei mir sind sie das auch, mag aber auch an meiner Breitbildauflösung liegen.

Edit: So, Überschriftenproblem gelöst ^^

Edit2: Vielen Herzlichen für die News Thilo!
 
Zuletzt bearbeitet:
Jo echt cooler vergleich hab auf sowas schon ne weile gewartet! hätt echt gedacht, dass der unterschied größer wär... ich könnt vlt ma die benchmarkergebnisse von meinem nachbar posten, der hat nen ähnliches system (den quad auf 3ghz...) und mit ner 9600gt
 
Ich persönlich habe das Gefühl das NVIDIA die GraKa-Performance absichtlich über ihre Treiber steuert und damit den Absatz ihrer neueren Karten regeln möchte... Oder warum kommen z.B. keine finalen 17x-er-Treiber für die 88er? Laut einem PCGH-Artikel soll ja die Performance bei den 88ern schon ein Stück höher sein (wenn es natürlich wirklich stimmt ;))... Ich habe halt wohl auch den Fehler gemacht und eine GTS512 gekauft (und ich Depp sozusagen kurz vor der Cebit) aber zu dem Zeitpunk gab es eben bei eBug ein Angebot für 240 inkl. Versand (+ inkl. einem Gutschein) und eine höher getaktete (und lieferbare) GT hat das gleiche gekostet... Was mich im nachhinein auch stört ist der höhere Stromverbauch der GTS der in keinem Verhältnis zu den paar mehr FPS steht)

Ich denke dass es wohl meine letzte PC-GraKa war da der Wertverlust doch extrem ist (Für meine X1950Pro 512 habe ich z.B. nach einem halben Jahr gerade mal etwas über 70 EUR bekommen -> Neupreis 150,-)
Durch den immer schneller steigenden Wertverlust ihrere GraKas schaufeln die doch ihr eigenes Grab... Mir fällt spontan keine Komponente ein das so schnell an Wert verliert.

Das nächste GraKa-Upgrade heißt wohl PS3, bei dem Teil fehlt nur noch eine Maus + WASD-Minitastatur :ugly:
Vorteile:
- Im Vergleich zu den PC-GraKas unschlagbar im Preis (400 EUR für PS3 / 2xx EUR NUR für eine GraKa)
- Wertverlust nicht so extrem bzw. fast gar nicht vorhanden (wohl erst wenn die PS4 kommt)
- Keine Sorge dass ein gekauftes Spiel, in Bezug auf die FPS, nicht funktioniert.

http://www.sysprofile.de/id46833
 
Zuletzt bearbeitet:
Ich persönlich habe das Gefühl das NVIDIA die GraKa-Performance absichtlich über ihre Treiber steuert und damit den Absatz ihrer neueren Karten regeln möchte... Oder warum kommen z.B. keine finalen 17x-er-Treiber für die 88er? Laut einem PCGH-Artikel soll ja die Performance bei den 88ern schon ein Stück höher sein (wenn es natürlich wirklich stimmt ;))... Ich habe halt wohl auch den Fehler gemacht und eine GTS512 gekauft (und ich Depp sozusagen kurz vor der Cebit) aber zu dem Zeitpunk gab es eben bei eBug ein Angebot für 240 inkl. Versand (+ inkl. einem Gutschein) und eine höher getaktete (und lieferbare) GT hat das gleiche gekostet... Was mich im nachhinein auch stört ist der höhere Stromverbauch der GTS der in keinem Verhältnis zu den paar mehr FPS steht)

Ich denke dass es wohl meine letzte PC-GraKa war da der Wertverlust doch extrem ist (Für meine X1950Pro 512 habe ich z.B. nach einem halben Jahr gerade mal etwas über 70 EUR bekommen -> Neupreis 150,-)
Durch den immer schneller steigenden Wertverlust ihrere GraKas schaufeln die doch ihr eigenes Grab... Mir fällt spontan keine Komponente ein das so schnell an Wert verliert.

Das nächste GraKa-Upgrade heißt wohl PS3, bei dem Teil fehlt nur noch eine Maus + WASD-Minitastatur :ugly:
Vorteile:
- Im Vergleich zu den PC-GraKas unschlagbar im Preis (400 EUR für PS3 / 2xx EUR NUR für eine GraKa)
- Wertverlust nicht so extrem bzw. fast gar nicht vorhanden (wohl erst wenn die PS4 kommt)
- Keine Sorge dass ein gekauftes Spiel, in Bezug auf die FPS, nicht funktioniert.

http://www.sysprofile.de/id46833
ja dann hol dir PS3, du wirds bestimmt nicht damit glücklich wie beim pc ;) habe selbst eine, die steht beim mir im Staub irgendwo rum(ja ich habe ein HD-TV), du darfst natürlich auch für jede Map-pack in zukunft bei store, geld rausschmeißen.:ugly: wenn man bedenkt wie teuer die Spiele sind und das man noch für Update´s bezahlen muss, wer soll sich das leisten.
 
Was mich im nachhinein auch stört ist der höhere Stromverbauch der GTS der in keinem Verhältnis zu den paar mehr FPS steht)

Die Werte für den Verbrauch werden nächste Woche mit der Leistungsaufnahme meinem kompletten Systems nachgereicht, solbad ich die Karte wieder habe.

Hätte ja gern noch 9800er Karten zum Vegleichen, aber da ich das bisher leider nur als Hobby mache, hab ich natürlich keinen, der mir sowas mal zur Verfügung stellen könnte -_- *zwinker* :P
Hab schon überlegt ob ich mal zu meinem Laden des Vertrauens frage, ob sie mir Hardwware zum Testen zur Verfügung stellen, aber die wollen sicherlich Werbung dafür haben und die ist ja hier verständlicher Weise nicht gestattet.
 
Jo echt cooler vergleich hab auf sowas schon ne weile gewartet! hätt echt gedacht, dass der unterschied größer wär... ich könnt vlt ma die benchmarkergebnisse von meinem nachbar posten, der hat nen ähnliches system (den quad auf 3ghz...) und mit ner 9600gt

Klar, hab ich nichts gegen. Verschiedene Systeme liefern zwar selbst mit gleichem Takt etwas abweichende Ergebnisse, aber ich kann ja mal schauen, ob ich durch umtakten meines Systems ein Vergleich möglich wird. Aber ich denke auch, das bei 3GHZ schon langsam die CPU Limitierung in die Ergebnisse mit reinspielen würde.
 
Zurück