Maeyae
PCGHX-HWbot-Member (m/w)
PS: Dies ist der erste Test dieser Art aus meiner Feder und ich bitte deshalb um Nachsicht, sollte etwas fehlen, unwichtig sein oder euch einfach nicht gefallen. Der Bericht wird/wurde nach bestem Wissen und Gewissen angefertigt. Fehler macht jeder einmal, deshalb bitte ich darauf hinzuweisen, sollten mir welche unterlaufen sein. Wer Rechtschreibfehler findet, darf diese natürlich kostenlos kopieren, vervielfältigen und weiter veräußern, wenn er es für nötig erachtet.
PCGH Extreme Lesertest Leadtek Winfast PX8800GT
Aufgrund des von PCGHx veranstalteten Lesertests zur Zotac AMP 8800GT und das Gewinnen der beiden Karten von StellaNor und Letni veranlasste mich dazu, mir selbst eine Karte zu besorgen, um selbstständig einen Lesertest anzufertigen.
Da ja schon 2 Zotac Karten im Test sind, dachte ich es wäre sinnvoll, diesen eine ähnliche, standartmäßig nicht übertaktete Version des 8800GT Chips gegenüber zu stellen. Meine Wahl fiel in diesem Falle auf die Leadtek Winfast PX8800GT, die im PCGH-Preisvergleich mit 153,28 gelistet ist und somit ca 36,- billiger ist als die Zotac AMP! 8800GT (189,77) . Die Daten der beiden Karten sind, abgesehen von den Taktraten, identisch. Im Gegensatz zur Zotac AMP! liegt der Leadtek Winfast allerdings noch die Vollversion des Spiels Neverwinter Nights 2 bei.
Daten der Karte:
- Chip: 8800GT, G92, 112 Unified Shader, 16 ROPs
- Chiptakt: 600 MHZ/1500 MHZ
- Speichertakt: 900 MHZ
- Speichertyp: GDDR3
- Speichermenge: 512mb
- Übertaktungspotenzial: 702/1674/1000
- Temperaturentwicklung Chip 2D/3D: 59°/ 75°-80°
- Lüftersteuerung: 29-100%
- Leistungsaufnahme 2D/3D: 164/244 Watt (ganzer PC)
- Kühlung: Single Slot (Lüftergröße: 72mm/15 Finnen, Aluminium, geschraubt)
- Anschlüsse: 2x Dual Link DVI mit HDCP Unterstützung, S-Video
- Kartenlänge: 23cm
- Besonderheiten: Schwarz eingefärbte Slotblende und Verschraubungen, nur 1 SLI Connector, also kein 3x SLI
Sonstige Ausstattung:
- Treiber CD, Neverwinter Nights 2 Vollversion
- Quick Installation Guide
- S-Video Kabel, VGA -DVI Adapter, 6 Pin Stromadapter-Kabel
Erste Erfahrungen:
Nach dem bitterlichen Verschlafen der Paketsendung und der darauf folgenden Dauerbelästigung des zuständigen Postamts konnte ich es kaum erwarten, meine GF7950GT in Rente zu schicken und durch die 8800GT zu ersetzen.
Der in allen Regenbogenfarben reflektierende Karton der Karte erweckte einen kitschigen, aber trotzdem recht edlen Eindruck. Nach sehr zaghaftem und vorsichtigem Auspacken der Karte setzte ich sie voller Erwartung in den, leider einzigen, PCI-E 16x Slot meines Boards.
Leider musste ich schnell wieder realisieren, dass neue Hardware (jedenfalls bei mir) eigentlich immer mit kleinen Macken oder wenigstens Stolpersteinen beseelt ist. In diesem Falle war es der Kühler der Grafikkarte, der mit meinem PATA Stecker des Mainboards kollidierte. Nach kurzem korrigieren der Karte saß diese dann zwar etwas schräg, aber funktionstüchtig und fest im Slot.
Also am besten einfach darauf achten, das in der unmittelbaren Umgebung des PCI-E Slots keine störenden Bauteile oder Stecker vorhanden sind und ihr solltet das Problem nicht haben. Nicht so wie ich, der oft mal kauft und festellt, das es garnicht passt. Somit hatte ich wohl noch Glück im Unglück.
Beim ersten Einschalten des PCs dreht der Lüfter der Karte kurz voll auf, um dann von der Steuerung gebändigt zu werden.
Windows XP sowie Windows Vista Home Premium 64bit erkannten die Karte mit der dazugehörigen Forceware erwartungsgemäß ohne jegliche Probleme und stellten sofort die gewünschten Auflösungen und TwinView Optionen für meine 2 19 TFTs bereit.
65nm Bratpfanne? oder Eine Frage der Rotation
Als aller erstes wollte ich die oft so ängstlich umschriebene hohe Temperaturentwicklung des G92 Chips im 65nm Format unter die Lupe nehmen. Dazu stellte ich die Lüftersteuerung der Karte im Rivatuner manuell auf 25% und belastete die Karte mit dem GPU Caps Viewer um zu sehen, wie schnell sie sich erhitzt.
Die Frage wurde schnell beantwortet, als nach nur ca. 4 Minuten schon 105°C an der GPU anlagen. Ich weiß, recht riskant, aber irgendwer muss es ja testen. Jedenfalls lief die Karte ob der Hitze einwandfrei, aber mir wurde flau und ich schaltete die Lüftersteuerung wieder auf Auto, diese drehte sofort auf 100% hoch und kühlte den Chip auf unter 75°C, bevor sie langsam wieder auf ca. 30-40% einpendelte.
Im normalen Betrieb in Spielen oder beim Benchmarken bei automatischer Lüftersteuerung steigt die Temperatur nie über 80°C bei einer Raumtemperatur von ca. 24° und der Lüfter dreht bei ca. 50%. Alles im grünen Bereich.
Eine gute Gehäuselüftung halte ich bei so einer Karte allerdings für Pflicht, denn ohne stetigen Umluftaustausch sehe ich schwarz für die Singleslot Kühlung, da sie die warme Abluft nicht direkt aus dem Gehäuse befördern kann. Bei mir steigt die Gehäusetemperatur aber nicht merklich an.
Was sich allerdings meinem Verständnis entzieht ist die Tatsache, dass man dem verwendeten 72mm Lüfter nur ein knapp 60mm großes Loch lässt, was die Leistung des selbigen sicherlich verringert. Eventuell hat es ja strömungsdynamische Gründe, doch das will und kann ich nicht beurteilen.
Testsystem:
-E6600 @ 2,9
-4 GB DDR2 PC 800
-MSI Neo
-Soundblaster X-Fi Xtreme Music
-Windows Vista Home Premium x64 und Windows XP x86
Anmerkung: Leider kann ich meinen E6600 momentan nicht höher takten, denn mein Board lässt keine Vcore Änderung zu und nach einem Biosupdate aufgrund der Vista Installation geht er nur noch bis 2,9 (vorher 3,05). Werde aber noch Ergebnisse mit mehr als 3Ghz nachreichen, sobald ich wieder etwas flüssiger bin.
Gib mir mehr, Baby! oder Wo sind deine Grenzen?
Da mir normal sowieso nie genug ist und es aus PC Hardware eigentlich schon immer ein ordentlicher Leistungsschub heraus zu kitzeln war, muss natürlich auch die Winfast herhalten.
Verwendet habe ich zum übertakten und überwachen den aktuellen Rivatuner und zum Testen der Stabilität das ATI Tool, den GPU Caps Viewer, als auch wirklich marathonreife Durchläufe von Crysis Flyby Demos sowie 3DMark06 Loops.
Nach etlichen Versuchen, Spielabbrüchen, Treibercrashs und Artefakten bin ich schließlich bei einer absolut stabilen Taktrate von 702/1674/1000 angelangt.
Die prozentuale Steigerung sieht wie folgt aus:
Standard: 600/1500/900
OC: 700/1674/1000
Steigerung:+17%/+12%/+11%
Eine Volt-Mod warte ich erst noch ab, bis ich einen besseren Kühler gefunden habe. Da sollte noch einiges mehr zu holen sein.
Immerhin hat sie exakt die Taktraten der Zotac AMP! (im Auslieferungszustand) erreicht und wird damit zumindest aus Leistungssicht gleich ziehen. Sicher ein wenig, aber sicher nicht viel höher wird sich die von Haus aus übertaktete Karte, ohne Voltmod, sicher auch nicht takten lassen. Der Nachteil daran ist natürlich, das man durch jede manuelle Übertaktung die Garantie verliert, aber das ist ja sicherlich den meisten bekannt und ist eigentlich nicht erwähnenswert.
3DMark06 flüssig oder Wo sind all die Ruckler hin, wo sind sie geblieben?
Meine Begeisterung stieg an, als der erste 3DMark06 Durchlauf mit satten 80 FPS startete. Wo es vorher mit meiner GF7950GT (5000 3DMarks) zeitweise ruckelte und zuckelte, fließt der teilweise doch sehr aufwendige Benchmark nur so dahin.
Der Unterschied zwischen Windows XP x86 und Vista x64 ist eindeutig zu erkennen. Rund 500 bis 600 Punkte läuft der Benchmark auf dem alteingesessenen XP schneller, was aber angesichts der gestiegenen Hardwareanforderungen auch nicht weiter verwunderlich ist.
Durch das Overclocking der Karte auf ihr Maximum von 702/1674/1000 wird eine Leistungssteigerung von ca. 500 Punkten, oder 5,8%, erreicht. Der Unterschied zwischen meiner alten 7950GT und der 8800GT mit Standardtakt beträgt satte 124,6 %, wenn man die 5000 3DMarks der 7950GT als Basis nimmt. Eine sehr beachtliche Steigerung, wenn ich bedenke, dass die Grafikkarte vor etwas mehr als einem Jahr sogar noch teurer war, als die 8800GT jetzt.
So das war es auch erstmal. Werde noch meine ganzen Crysis-Benchmarks in schöne Diagramme verwandeln und noch ein paar andere Spiele wie UT3 oder COD4 benchen, hab ja ab nächster Woche Urlaub, da hab ich dann endlich genug Zeit.
PCGH Extreme Lesertest Leadtek Winfast PX8800GT
Aufgrund des von PCGHx veranstalteten Lesertests zur Zotac AMP 8800GT und das Gewinnen der beiden Karten von StellaNor und Letni veranlasste mich dazu, mir selbst eine Karte zu besorgen, um selbstständig einen Lesertest anzufertigen.
Da ja schon 2 Zotac Karten im Test sind, dachte ich es wäre sinnvoll, diesen eine ähnliche, standartmäßig nicht übertaktete Version des 8800GT Chips gegenüber zu stellen. Meine Wahl fiel in diesem Falle auf die Leadtek Winfast PX8800GT, die im PCGH-Preisvergleich mit 153,28 gelistet ist und somit ca 36,- billiger ist als die Zotac AMP! 8800GT (189,77) . Die Daten der beiden Karten sind, abgesehen von den Taktraten, identisch. Im Gegensatz zur Zotac AMP! liegt der Leadtek Winfast allerdings noch die Vollversion des Spiels Neverwinter Nights 2 bei.
Daten der Karte:
- Chip: 8800GT, G92, 112 Unified Shader, 16 ROPs
- Chiptakt: 600 MHZ/1500 MHZ
- Speichertakt: 900 MHZ
- Speichertyp: GDDR3
- Speichermenge: 512mb
- Übertaktungspotenzial: 702/1674/1000
- Temperaturentwicklung Chip 2D/3D: 59°/ 75°-80°
- Lüftersteuerung: 29-100%
- Leistungsaufnahme 2D/3D: 164/244 Watt (ganzer PC)
- Kühlung: Single Slot (Lüftergröße: 72mm/15 Finnen, Aluminium, geschraubt)
- Anschlüsse: 2x Dual Link DVI mit HDCP Unterstützung, S-Video
- Kartenlänge: 23cm
- Besonderheiten: Schwarz eingefärbte Slotblende und Verschraubungen, nur 1 SLI Connector, also kein 3x SLI
Sonstige Ausstattung:
- Treiber CD, Neverwinter Nights 2 Vollversion
- Quick Installation Guide
- S-Video Kabel, VGA -DVI Adapter, 6 Pin Stromadapter-Kabel
Erste Erfahrungen:
Nach dem bitterlichen Verschlafen der Paketsendung und der darauf folgenden Dauerbelästigung des zuständigen Postamts konnte ich es kaum erwarten, meine GF7950GT in Rente zu schicken und durch die 8800GT zu ersetzen.
Der in allen Regenbogenfarben reflektierende Karton der Karte erweckte einen kitschigen, aber trotzdem recht edlen Eindruck. Nach sehr zaghaftem und vorsichtigem Auspacken der Karte setzte ich sie voller Erwartung in den, leider einzigen, PCI-E 16x Slot meines Boards.
Leider musste ich schnell wieder realisieren, dass neue Hardware (jedenfalls bei mir) eigentlich immer mit kleinen Macken oder wenigstens Stolpersteinen beseelt ist. In diesem Falle war es der Kühler der Grafikkarte, der mit meinem PATA Stecker des Mainboards kollidierte. Nach kurzem korrigieren der Karte saß diese dann zwar etwas schräg, aber funktionstüchtig und fest im Slot.
Also am besten einfach darauf achten, das in der unmittelbaren Umgebung des PCI-E Slots keine störenden Bauteile oder Stecker vorhanden sind und ihr solltet das Problem nicht haben. Nicht so wie ich, der oft mal kauft und festellt, das es garnicht passt. Somit hatte ich wohl noch Glück im Unglück.

Beim ersten Einschalten des PCs dreht der Lüfter der Karte kurz voll auf, um dann von der Steuerung gebändigt zu werden.
Windows XP sowie Windows Vista Home Premium 64bit erkannten die Karte mit der dazugehörigen Forceware erwartungsgemäß ohne jegliche Probleme und stellten sofort die gewünschten Auflösungen und TwinView Optionen für meine 2 19 TFTs bereit.
65nm Bratpfanne? oder Eine Frage der Rotation
Als aller erstes wollte ich die oft so ängstlich umschriebene hohe Temperaturentwicklung des G92 Chips im 65nm Format unter die Lupe nehmen. Dazu stellte ich die Lüftersteuerung der Karte im Rivatuner manuell auf 25% und belastete die Karte mit dem GPU Caps Viewer um zu sehen, wie schnell sie sich erhitzt.
Die Frage wurde schnell beantwortet, als nach nur ca. 4 Minuten schon 105°C an der GPU anlagen. Ich weiß, recht riskant, aber irgendwer muss es ja testen. Jedenfalls lief die Karte ob der Hitze einwandfrei, aber mir wurde flau und ich schaltete die Lüftersteuerung wieder auf Auto, diese drehte sofort auf 100% hoch und kühlte den Chip auf unter 75°C, bevor sie langsam wieder auf ca. 30-40% einpendelte.
Im normalen Betrieb in Spielen oder beim Benchmarken bei automatischer Lüftersteuerung steigt die Temperatur nie über 80°C bei einer Raumtemperatur von ca. 24° und der Lüfter dreht bei ca. 50%. Alles im grünen Bereich.
Eine gute Gehäuselüftung halte ich bei so einer Karte allerdings für Pflicht, denn ohne stetigen Umluftaustausch sehe ich schwarz für die Singleslot Kühlung, da sie die warme Abluft nicht direkt aus dem Gehäuse befördern kann. Bei mir steigt die Gehäusetemperatur aber nicht merklich an.
Was sich allerdings meinem Verständnis entzieht ist die Tatsache, dass man dem verwendeten 72mm Lüfter nur ein knapp 60mm großes Loch lässt, was die Leistung des selbigen sicherlich verringert. Eventuell hat es ja strömungsdynamische Gründe, doch das will und kann ich nicht beurteilen.
Testsystem:
-E6600 @ 2,9
-4 GB DDR2 PC 800
-MSI Neo
-Soundblaster X-Fi Xtreme Music
-Windows Vista Home Premium x64 und Windows XP x86
Anmerkung: Leider kann ich meinen E6600 momentan nicht höher takten, denn mein Board lässt keine Vcore Änderung zu und nach einem Biosupdate aufgrund der Vista Installation geht er nur noch bis 2,9 (vorher 3,05). Werde aber noch Ergebnisse mit mehr als 3Ghz nachreichen, sobald ich wieder etwas flüssiger bin.
Gib mir mehr, Baby! oder Wo sind deine Grenzen?
Da mir normal sowieso nie genug ist und es aus PC Hardware eigentlich schon immer ein ordentlicher Leistungsschub heraus zu kitzeln war, muss natürlich auch die Winfast herhalten.
Verwendet habe ich zum übertakten und überwachen den aktuellen Rivatuner und zum Testen der Stabilität das ATI Tool, den GPU Caps Viewer, als auch wirklich marathonreife Durchläufe von Crysis Flyby Demos sowie 3DMark06 Loops.
Nach etlichen Versuchen, Spielabbrüchen, Treibercrashs und Artefakten bin ich schließlich bei einer absolut stabilen Taktrate von 702/1674/1000 angelangt.
Die prozentuale Steigerung sieht wie folgt aus:
Standard: 600/1500/900
OC: 700/1674/1000
Steigerung:+17%/+12%/+11%
Eine Volt-Mod warte ich erst noch ab, bis ich einen besseren Kühler gefunden habe. Da sollte noch einiges mehr zu holen sein.
Immerhin hat sie exakt die Taktraten der Zotac AMP! (im Auslieferungszustand) erreicht und wird damit zumindest aus Leistungssicht gleich ziehen. Sicher ein wenig, aber sicher nicht viel höher wird sich die von Haus aus übertaktete Karte, ohne Voltmod, sicher auch nicht takten lassen. Der Nachteil daran ist natürlich, das man durch jede manuelle Übertaktung die Garantie verliert, aber das ist ja sicherlich den meisten bekannt und ist eigentlich nicht erwähnenswert.
3DMark06 flüssig oder Wo sind all die Ruckler hin, wo sind sie geblieben?
Meine Begeisterung stieg an, als der erste 3DMark06 Durchlauf mit satten 80 FPS startete. Wo es vorher mit meiner GF7950GT (5000 3DMarks) zeitweise ruckelte und zuckelte, fließt der teilweise doch sehr aufwendige Benchmark nur so dahin.
Der Unterschied zwischen Windows XP x86 und Vista x64 ist eindeutig zu erkennen. Rund 500 bis 600 Punkte läuft der Benchmark auf dem alteingesessenen XP schneller, was aber angesichts der gestiegenen Hardwareanforderungen auch nicht weiter verwunderlich ist.
Durch das Overclocking der Karte auf ihr Maximum von 702/1674/1000 wird eine Leistungssteigerung von ca. 500 Punkten, oder 5,8%, erreicht. Der Unterschied zwischen meiner alten 7950GT und der 8800GT mit Standardtakt beträgt satte 124,6 %, wenn man die 5000 3DMarks der 7950GT als Basis nimmt. Eine sehr beachtliche Steigerung, wenn ich bedenke, dass die Grafikkarte vor etwas mehr als einem Jahr sogar noch teurer war, als die 8800GT jetzt.
So das war es auch erstmal. Werde noch meine ganzen Crysis-Benchmarks in schöne Diagramme verwandeln und noch ein paar andere Spiele wie UT3 oder COD4 benchen, hab ja ab nächster Woche Urlaub, da hab ich dann endlich genug Zeit.

Zuletzt bearbeitet: