y33H@
BIOS-Overclocker(in)
veröffentlicht am 27.01.2008 von Marc y33H@ S.
Inhalt
1) Einleitung
2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512
3) Architektur und technische Daten
4) Leistungsaufnahme
5) Referenz-Kühlung
6) Alternative Kühler
Achtung! Alle Arbeiten auf eigene Gefahr!
Nachdem wir uns bereits eingehend mit den verschiedenen Referenzkühlern beschäftigt haben und dabei feststellen mussten, dass eine Lautstärke, die unseren Ohren genehm ist, nur durch inakzeptable 3D-Temperaturen ermöglicht wird, wenden wir uns dem Zubehörmarkt zu. Die HD3800 wie auch die 8800GT verfügen über die identischen Bohrungen rund um die GPU wie ihre jeweiligen Vorgänger Radeon X19x0 und Geforce 79x0. Daher haben wir uns einige kompatible Kühler ausgewählt und diese auf der HD3870 und 8800GT montiert. Als Wärmeleitpaste kam wie in allen Tests Arctic Silver 5 zum Einsatz, den Speicher und die Spannungswandler der 8800GT hielten Heat Sink Kühler von Zalman auf Temperatur, bei der HD3870 nutzten wir die vorhandenen Kühler. Um die Karten zum Kochen zu bringen, kam die bei 4) bereits genannte Methode zum Einsatz, die Raumtemperatur schwankte während der Tests zwischen mit 21.3°C bis 21.7°C in vernachlässigbaren Regionen.
Hier als Beispiel den idle und load Zustand der 8800GT zusammen mit dem Zalman VF-900Cu bei 5 Volt:
Erschreckendes offenbarte sich uns bei der 8800GT und der HD3870 nach der Demontage des Referenzkühlers. Beide GPUs waren in Wärmeleitpaste geradezu ertränkt worden, die verwendete Menge hätte für zehn oder mehr Chips ausgereicht! Die Wärmeleitpads der Radeon fanden wir sorgfältig aufgebracht vor, die der 8800GT dagegen wirkten wie aus der Bastelstunde im Kindergarten. Basteln war bei der Geforce ohnehin angesagt, satte zwölf Schrauben wollen entfernt werden, bevor sich der Kühler abnehmen lässt - sofern man sich nicht scheut, sanfte Gewalt anzuwenden, ohne kann man den Kühlkörper nämlich bei keiner der Karten vom PCB trennen.
Verwendete Kühler und Lüfter:
Der Accelero S1 in der passiven Version ist natürlich unhörbar. In der aktiven Version bestückten wir den Schweizer mit gleich zwei Kaze Jyu, der HR-03 wurde einem S-Flex ventiliert. Alle drei Scythe Lüfter sind absolut frei von störenden Nebengeräuschen wie klackern, schleifen oder brummen. Bereits außerhalb des Gehäuses sind sie aus 10cm Entfernung praktisch lautlos, mit Gummisteckern entkoppelt auf den Kühlern und verbaut im gedämmten Antec P180 Gehäuse ohnehin. Der Klassiker von Zalman dagegen ist auch bei 5 Volt noch leicht hörbar, schlicht aufgrund der Drehzahl des nur 15mm dicken und leicht schnarrenden 0.14 A Lüfters. Unser Exemplar scheint zwar eines der wenigen zu sein, welches keine Schleifgeräusche verursacht - für Freunde der Unhörbarkeit trotzdem nur bedingt zu empfehlen. Der Oldie aus der Silencer Serie passt zwar an den 4-Pin Anschluss der der 8800GT, drehte aber immer mit voller Drehzahl. Auch per Adapter funktionierte die Lüftersteuerung nicht, so dass wir den nV Silencer 5 schließlich mit der Zalman MFC1 auf 6 Volt gedrosselt haben.
Wieder einmal bestätigt es sich - der Accelero S1 ist schlicht der beste Luftkühler am Markt, egal ob aktiv oder passiv. Die 8800GT verfügt offensichtlich über die kühlste GPU, während die HD3870 ihre hitzigen R600 Gene nicht verbergen kann. Aktiv belüftet drückt der S1 die Lasttemperatur des G92 unter den idle-Wert der Referenzkühlung, im passiven Betrieb senkt er die Lasttemperatur satte 20°C. Kaum weniger beeindruckend fallen die Resultate bei der HD3870 aus. Aktiv erzielte 63°C sind ein sehr guter Wert, passiv gekühlt zeigt sich der RV670 als ungemütlicher Kandidat und so unterbietet der S1 die Referenzkühlung nur knapp.
Thermalrights Edelkühler ist zwar optisch dem S1 meilenweit voraus, dafür benötigt er mehr Platz, ist teurer und schwerer. Auch die Kühlleistung lässt im direkten Vergleich zu wünschen übrig, selbst passiv ist der S1 load auf der 8800GT nur 10°C wärmer als der aktive HR-03, zusammen mit den zwei Kaze Jyu deklassiert der S1 den Thermalright. Auf der hitzigen Radeon verringert sich der Abstand allerdings deutlich. Beide GPUs werden gut gekühlt, Besitzer eines High Risers können diesen somit problemlos weiter verwenden.
Der Zalman hat mittlerweile Kultstatus erreicht, doch auch an der Legende nagt der Zahn der Zeit. Zwar erreicht er annähernd die Werte des HR-03, bedenkt man jedoch die Geräuschkulisse des Koreaners, so wird klar, dass der VF-900 angesichts der Konkurrenz zum Altmetall gehört.
Der nV Silencer passt, wie der Name schon andeutet, nur auf die 8800GT. Die HD3870 verfügt über eine abweichende Anordnung der Speicherchips, zudem ist er Silencer schlicht zu lang und kollidiert mit der Slotblende. Die kompatible Geforce kühlt der vermeintliche Rentner überraschend gut, mit 73°C liegt er knapp vor dem passiven S1.
Interessant verhielten sich die Referenzkühlungen nach dem eigentlichen Test. Bei der Remontage verwendeten wir ebenfalls Arctic Silver 5. Anschließend schickten wir die Karten noch einmal auf den Teststand. Die sorgfältig angewendete Paste resultierte bei der HD3870 in einer Verringerung der Lasttemperatur von 7°C, bei der 8800GT sprangen 5°C heraus. Zusätzlich stieg die Drehzahl bei beiden nun nicht mehr über 50%. Offensichtlich isolierte die verschwenderische Nutzung des originalen Kontaktmittels die GPUs.
7) 2D/3D-Modus
8) Modifizierte Lüftersteuerung und Undervolting
Achtung! Alle Arbeiten auf eigene Gefahr!
Ebenfalls suboptimal ist die Temperatur der 8800GT sowie die damit einhergehende Lärmkulisse während dem Spielen. Die beste Möglichkeit, dies zu ändern, ist das so genannte Undervolting, also das Absenken der Spannung des Grafikprozessors per BIOS-Mod. Leistung verliert man dadurch keine, da sich die Spannung aber quadratisch auf die Abwärme auswirkt, winken eine kühlere GPU und ein leiserer, weil langsamer drehender Lüfter. Mit der aktuellsten Version des NiBiTors lässt sich die VCore der Geforce von 1.05 Volt auf 0.95 Volt reduzieren. Hierfür öffnet man über Tools, Read BIOS, Select Device die Grafikkarte aus. Mit den Reitern Clockrates und Voltages und deren Unterpunkten Extra setzt man die Werte für die Taktraten und die Chipspannung. Wir verwendeten die Referenzfrequenzen von 600/1500/900. Hinzu kommt noch eine modifizierte Lüftersteuerung. Bei Temperatures eröffnet der Punkt Fanspeed IC eine Manipulierung der Regelung. Unser BIOS stapelt tief: idle rotiert der Lüfter mit 20% seiner maximalen Drehzahl, ab 61 63°C steigen die Umdrehungen pro Minute linear mit an. Wie stark die Drehzahl dabei ansteigt, ist abhängig vom TRangeSlope-Wert. Je höher TRangeSlope, desto flacher die Drehzahlkurve. min Duty cycle definiert den Startwert des Lüfters, TMin mit einer im BIOS hinterlegten Messwert-Kompensation von acht Grad Celsius addiert stellt die Schwelle dar, ab der die Lüfterdrehzahl bei Automatic Speed zusammen mit der Temperatur ansteigt. Der Wert TCrit legt fest, ab welcher Temperatur der Lüfter mit vollen 100% röhrt.
Wir empfehlen, das eigene BIOS zu öffen und zusätzlich unsere modifizierte Version. Nun die Werte bei der Spannung und der Lüftersteuerung an unser BIOS angleichen, sonst kann es passieren, dass die PCI ID nicht korrekt ist - die Folge wäre, dass die Karte nicht mehr 3D-tauglich ist.
Mit File, Save BIOS speichert man erst das originale (!), dann das veränderte BIOS zusammen mit NvFlash v5.57 auf eine bootbaren Diskette kopieren, der Name darf maximal acht Zeichen enthalten. Mit folgendem Parameter flasht man abschließend das neue BIOS auf:
nvflash -5 -6 name.rom *Download des BIOS
Wir kombinieren die selbst erstellte Taktumschaltung mit dem BIOS-Mod. Das Ergebnis ist grandios:
Die Karte wird deutlich kühler, leiser und der Strombedarf geht stark zurück - was will man mehr?
9) Benchmarks
Vorneweg möchte ich mich bei all denen bedanken, die mich materiell und oder immateriell unterstützt oder mir geholfen haben.
Ohne eure Hilfe wäre der vorliegende Artikel in dieser Form undenkbar gewesen! Mein persönlicher Dank geht an
Ohne eure Hilfe wäre der vorliegende Artikel in dieser Form undenkbar gewesen! Mein persönlicher Dank geht an
- die PCGH-Redaktion für die Bereitstellung der HD3800 und der 8800GT
- meinem Vater für die Bereitstellung seiner Panasonic DMC-FZ7
- Sebastian für die Unterstützung beim Rivatuner und den BIOS-Mods
- Felix E. für die Bereitstellung seiner 7950GT und seines HR-03
- Daniel H. für die Bereitstellung seiner 8800GTX
- Nico M. für die Bereitstellung seines AC nV Silencers
- Dominik P. für die Hilfe bei der Erstellung der Bilder (Beleuchtung)
Inhalt
1) Einleitung
2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512
3) Architektur und technische Daten
4) Leistungsaufnahme
5) Referenz-Kühlung
6) Alternative Kühler
7) 2D/3D-Modus
8) Modifizierte Lüftersteuerung und Undervolting
9) Benchmarks
10) AA/AF-Skalierung
11) VRAM-Skalierung
12) CPU-Skalierung
13) Overclocking-Skalierung
14) Treiber und Bildqualität
15) Finale Worte
2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512
3) Architektur und technische Daten
4) Leistungsaufnahme
5) Referenz-Kühlung
6) Alternative Kühler
7) 2D/3D-Modus
8) Modifizierte Lüftersteuerung und Undervolting
9) Benchmarks
10) AA/AF-Skalierung
11) VRAM-Skalierung
12) CPU-Skalierung
13) Overclocking-Skalierung
14) Treiber und Bildqualität
15) Finale Worte
1) Einleitung
2007 war eindeutig das Jahr von nVidia und Intel, AMD mit samt ihrer Grafiksparte ATI konnten nur hinterhecheln und selbst das viel den Mannen um CEO Hektor Ruiz oft schwer genug. Intels Core2 wischte schon in der Conroe Variante mit den X² CPUs den Boden, dessen Nachfolger Penryn deklassiert aktuell die Phenoms - allerdings kann man dem Triple-Core einen gewissen Reiz nicht absprechen. In Sachen Grafikbeschleunigern erging es AMD etwas besser. Dem R600 krankte es zwar nicht nur an mangelnder Performance, auch der Stromverbrauch und die Lautstärke ließen berechtigte Kritik aufkommen, im Low-End und unteren Mid-Range Bereich konnte ATI mit den HD2400 und den HD2600 aber zwei gute Produktlinien etablieren. nVidia dagegen bietet mit der 8800GTX und deren Update 8800Ultra seit über einem Jahr die schnellste Grafikkarte an. Nun will AMD mit dem RV670 alias HD3800 zurückschlagen, nVidia positioniert die auf dem G92 basierende 8800GT als Gegner und Maßstab.
2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512
Die drei Karten verfügen über ein 23cm langes PCB und einen zusätzlichen Stromanschluss. Wer den 6-Pin Stecker nicht anschließt, wird bei der 8800GT von einem schwarzen Bildschirm und einem lauten, schrillen Warnton auf diese Tatsache hingewiesen. Die Radeons bleiben ruhig, dafür erscheint auf dem Monitor eine rot blinkende Warnung, man möge doch bitte die Karte mit ausreichend Strom versorgen. Allen drei Karten gemein sind die beiden Dual-Link-DVI Anschlüsse und der TV-Out Ausgang.
8800GT
HD3870
HD3850
3) Architektur und technische Daten
Der RV670 basiert auf dem R600, von diesem erbt er die 320 5-Vec Shadereinheiten sowie die restlichen Architekturmerkmale. Aus Kostengründen verbaut AMD ein 256 Bit breites Speicherinterface und quetscht den Universal Video Decoder (UVD) mit in den nur noch halb so großen Chip. Die 55nm Fertigung bei TSMC ist ebenso neu wie die integrierte DX10.1 Unterstützung (Shader Modell 4.1) und Powerplay.
Der G92 ist ein minimal überarbeiteter G86, dieser wiederum basiert auf dem G80. Wirkliche Neuerungen sind aus architektonischer Sicht somit auch hier nicht vorhanden, jedoch nutzt der G92 nun ebenfalls ein 256 Bit Interface. Die vom G86 übernommene HD-Beschleunigung findet sich ebenso in den 754 Millionen Transistoren wieder wie das Shader Modell 4.0 (DX10.0). Ein PCIe-2.0-Interface und 65nm Strukturbreite runden den Chip ab.
Der G92 ist ein minimal überarbeiteter G86, dieser wiederum basiert auf dem G80. Wirkliche Neuerungen sind aus architektonischer Sicht somit auch hier nicht vorhanden, jedoch nutzt der G92 nun ebenfalls ein 256 Bit Interface. Die vom G86 übernommene HD-Beschleunigung findet sich ebenso in den 754 Millionen Transistoren wieder wie das Shader Modell 4.0 (DX10.0). Ein PCIe-2.0-Interface und 65nm Strukturbreite runden den Chip ab.
4) Leistungsaufnahme
Egal ob X1k oder HD2900 - AMDs letzte Generationen waren alles andere als sparsam, gerade der R600 Chip schluckte exorbitante Mengen an Strom. Mit der Neuauflage RV670 wollen die Kanadier diesen Kritikpunkt ausmerzen. So wird der Chip im 55nm statt im 80nm Verfahren gefertigt und das aus dem Notebooksektor übernommene Powerplay soll für eine rekordverdächtig niedrige Leistungsaufnahme sorgen. Im 2D-Betrieb senkt eine HD3870 den Chiptakt dank diesem Feature von 775 MHz auf 300 MHz, zusätzlich verringert sich die VCore von 1.33 Volt auf 1.24 Volt, nur der GDDR4-Speicher rennt konstant mit 1125 MHz. Eine HD3850 verfügt über nahezu identische Features - der Chiptakt fällt zwar ebenso auf 300 MHz, die Spannung wird allerdings von 1.21 Volt auf 1.01 Volt heruntergesetzt.
War der G70 noch bekannt für seine Genügsamkeit, der G80 ist es definitiv nicht. Ein angekündigter Stromspartreiber ist nie erschienen und sämtliche Karten auf G80 Basis takten sich im 2D Betrieb noch nicht einmal herunter. Auch der neue G92 kennt zwar weder Spannungssenkung noch Taktumschaltung und es wird weiterhin GDDR3-RAM angesteuert, dafür stehen nun 65nm statt 90nm Strukturbreite und eine VCore von 1.05 Volt auf dem Papier. Dies dürfte alleine schon für eine drastisch verringerte Leistungsaufnahme sorgen.
Um das System an den Rand seiner maximalen Leistungsaufnahme zu treiben, wurde die jeweilige Grafikkarte mit dem Scanning for Artifacts des ATI Tools in der Version 0.274b belastet, welches auch gleichzeitig einen der beiden Prozessor-Kerne belastet. Der zweite CPU-Kern sowie das RAM und der Chipsatz wurden zudem mit Prime95 Blend in der Version 25.2 zum Stromverbrauch getrieben.
Eine 8800GT genehmigt sich laut nVidia im Lastbetrieb bis 115 Watt, die beiden Radeons 106 Watt respektive 98 Watt. In der Praxis bestätigen sich diese Werte, alle drei GPUs begnügen sich gerade idle mit deutlich weniger Strom als ihre Vorgänger, unter Last verlangt es einer HD3870 samt sonstiger Komponenten nach maximal 185 Watt, eine 8800GT braucht kaum mehr, die 8800GTX dagegen säuft Strom wie ein V8-Motor Sprit. Wirklich grandios sind aber die idle-Werte der beiden HDs, das komplette System zieht mit der kleinen Version nur phänomenale 94 Watt aus der Steckdose! Die 8800GT bringt es auf akzeptable 120 Watt, während eine 8800GTX satte 167 Watt konsumiert.
Wer seine 8800 im 2D-Betrieb zu einer geringeren Leistungsaufnahme überreden will, der kann mit Hilfe des Rivatuners (Neustart erforderlich!) einen Großteil der Shadereinheiten deaktivieren und untertaktet die Karte gleich mit. Undervolten funktioniert nur per BIOS-Mod, mit dem NiBiTor kann man die VCore der 8800GT auch in leicht übertaktetem Zustand auf stabile 0.95 Volt herunterfahren, dazu später mehr.
Die neuen Radeons werden von den gängigen Tools noch nicht erkannt, so dass undervolten nicht möglich ist. Einzig ein weiteres Absenken des Taktes bietet sich an, dies bringt aber nur wenige Watt.
War der G70 noch bekannt für seine Genügsamkeit, der G80 ist es definitiv nicht. Ein angekündigter Stromspartreiber ist nie erschienen und sämtliche Karten auf G80 Basis takten sich im 2D Betrieb noch nicht einmal herunter. Auch der neue G92 kennt zwar weder Spannungssenkung noch Taktumschaltung und es wird weiterhin GDDR3-RAM angesteuert, dafür stehen nun 65nm statt 90nm Strukturbreite und eine VCore von 1.05 Volt auf dem Papier. Dies dürfte alleine schon für eine drastisch verringerte Leistungsaufnahme sorgen.
Um das System an den Rand seiner maximalen Leistungsaufnahme zu treiben, wurde die jeweilige Grafikkarte mit dem Scanning for Artifacts des ATI Tools in der Version 0.274b belastet, welches auch gleichzeitig einen der beiden Prozessor-Kerne belastet. Der zweite CPU-Kern sowie das RAM und der Chipsatz wurden zudem mit Prime95 Blend in der Version 25.2 zum Stromverbrauch getrieben.
Eine 8800GT genehmigt sich laut nVidia im Lastbetrieb bis 115 Watt, die beiden Radeons 106 Watt respektive 98 Watt. In der Praxis bestätigen sich diese Werte, alle drei GPUs begnügen sich gerade idle mit deutlich weniger Strom als ihre Vorgänger, unter Last verlangt es einer HD3870 samt sonstiger Komponenten nach maximal 185 Watt, eine 8800GT braucht kaum mehr, die 8800GTX dagegen säuft Strom wie ein V8-Motor Sprit. Wirklich grandios sind aber die idle-Werte der beiden HDs, das komplette System zieht mit der kleinen Version nur phänomenale 94 Watt aus der Steckdose! Die 8800GT bringt es auf akzeptable 120 Watt, während eine 8800GTX satte 167 Watt konsumiert.
Wer seine 8800 im 2D-Betrieb zu einer geringeren Leistungsaufnahme überreden will, der kann mit Hilfe des Rivatuners (Neustart erforderlich!) einen Großteil der Shadereinheiten deaktivieren und untertaktet die Karte gleich mit. Undervolten funktioniert nur per BIOS-Mod, mit dem NiBiTor kann man die VCore der 8800GT auch in leicht übertaktetem Zustand auf stabile 0.95 Volt herunterfahren, dazu später mehr.
Die neuen Radeons werden von den gängigen Tools noch nicht erkannt, so dass undervolten nicht möglich ist. Einzig ein weiteres Absenken des Taktes bietet sich an, dies bringt aber nur wenige Watt.
5) Referenz-Kühlung
Wir haben alle drei Pixelschleudern in einem ultra-silent Testsystem (siehe bei 7)) auf ihre Lautstärke geprüft. Die Bewertung erfolgt nach sehr hohen Maßstäben, denn unhörbar ist aus oder kaputt. Der Großteil der Käufer wird die Probanden als unhörbar empfinden, idle wie load. Zumal das Scanning for Artifacts des ATI Tools zusammen mit Prime95 Blend getrost als Worst Case Szenario angesehen werden kann, beides ließen wir 30 Minuten laufen um das komplette System und die GPU maximal aufzuheizen. Wer vergleichsweise anspruchslose oder ältere Titel wie Unreal Tournament 3 oder Half Life 2 spielt, der wird gut und gerne 10° unter dem hier im Folgenden genannten Werten liegen. Um die Temperaturen aufzuzeichnen musste der Rivatuner v2.06 zeigen, was er kann.
Auf den ersten Blick glaubt man bei der HD3870 den Kühler einer X1950XTX vor sich zu haben. Doch bei genauerem Hinsehen finden wir einige Unterschiede - AMD verzichtet auf die Heatpipe und der aus Kupfer gefertigte mit Lamellen bestückte Kühlkörper ist etwas kleiner. Geblieben ist die großflächige nun mit Lüftungsschlitzen nahe der Slotblende versehene Plastikummantelung, auch der Radiallüfter mit 75mm Durchmesser und 0.6 A wurde weiter verwendet. Erwähnenswert ist die separate Passivkühlung der Spannungswandler und des VRAMs durch verschraubte Kupferschienen samt Wärmeleitpads sowie die Tatsache, dass die heiße Abluft nach dem Prinzip der bekannten Arctic Cooling Silencer Serie aus dem Gehäuse geblasen wird, zwei weitere Fortführungen althergebrachter Methoden. Glücklicherweise erinnert nur die Optik an eine X1950XTX, die Lautstärke liegt deutlich darunter. Einzig der Kickstart beim Booten lässt erahnen zu welch höllischem Lärm diese Konstruktion in der Lage ist. Solange der geneigte User einzig mit Word, Internet und Co beschäftigt ist, könnte man dem Dual-Slot-Layout fast silent Tauglichkeit attestieren, in unserem Testrechner war die HD3870 aber aufgrund der surrenden und röhrenden Frequenz leider problemlos heraus hörbar und störte mit der Zeit. Der Lüfter dreht idle mit 23% (es ist uns übrigens nicht gelungen den Lüfter zum Stillstand zu überreden, stellt man die Drehzahl auf 0% rotiert der Propeller weiter fröhlich wie zu vor), die Temperatur liegt bei 58°C. Startet man ein Spiel oder einen Benchmark, dreht der kleine Rotor auf und wird deutlich lauter. Besonders nervig ist das heulende Auf- und Abschwellen der Drehzahl, welche unter Last munter zwischen 40% und maximal 54% hin und her pendelt - generell wirkt die ganze Steuerung nervös. Hier wäre eine feste Geschwindigkeit angenehmer für die Ohren, zumal die GPU mit bis zu 93°C relativ heiß wird. Setzt man nämlich manuell eine Drehzahl von 45% fest, ist das Geräusch deutlich weniger penetrant und die Temperatur bleibt kurioserweise sogar 2°C unter der Automatik. Leise ist die HD3870 dank dieser Maßnahme aber auch weiterhin nicht. Man muss ATI jedoch definitiv zugestehen, dass das neue Flagschiff im Vergleich zu den Vorgängern nur ein laues Lüftchen von sich gibt und den Kunden nicht mit einem Orkan verschreckt.
Gegen die optisch wuchtige Kühlung der großen Schwester mutet die Lösung der HD3850 fast schon lächerlich an. So wird dank des schlanken Kühlers nur noch ein Slot blockiert und die Größe des Lüfters schrumpft auf 60mm, das Prinzip bleibt aber das Gleiche. Aus dem Gehäuseinneren wird Luft angesaugt und durch Kupferlamellen über die GPU geleitet. Ein kleines Nadelkissen kümmert sich zusätzlich um die Spannungswandler während die Speicherchips passiv von der Bodenplatte auf Temperatur gehalten werden. Der Luftauslass des Kühlers krümmt sich kurz vor der Slotblende in Richtung Gehäusemitte, so staut sich die Abluft nicht an - eine gute Idee. Wie die HD3870 kommt auch die kleinere Version durch einen 12 Volt Start in die Gänge, dann regelt sie sich auf 16% herunter. So sehr sich unsere Ohren auch anstrengten, wir konnten die HD3850 höchstens erahnen, so unhörbar leise ist der Radiallüfter im idle-Zustand - nur passiv ist leiser! Die Chiptemperatur befindet sich mit 54°C auf dem Niveau der HD3870. Ebenso erfreulich verhält sich die Konstruktion unter Last, die Drehzahl wird gemächlich in sehr feinen 1-2% Schritten bis maximal 53% angehoben, das reicht um die GPU auf 92°C zu kühlen. Ein Schwanken der Drehzahl konnte ebenso wenig festgestellt werden wie ein unsauberes Laufgeräusch. Zwar hört man den Lüfter der Radeon aufgrund seiner recht hohen Frequenz minimal vor sich hin säuseln, eine leisere Referenzkühlung haben wir aber noch nicht bejubeln dürfen, selbst der legendäre Quadro-Kühler (7900GTX/GTO) kann da nicht mithalten.
Schon vor dem Release häuften sich die Gerüchte, der Kühler des G92 sei zu schwach, die GPU zu hitzig oder gleich beides zusammen. Das finale Produkt straft diese Spekulationen Lügen. nVidia nutzt ein vorwiegend auf Aluminium basierendes kompaktes Single-Slot-Design mit einer 65mm-Turbine. Bei dieser fast durchgehend geschlossenen Konstruktion kann heiße Luft nur in der Nähe der Slotblende schräg nach oben und durch ein paar Schlitze entweichen. Für die Kühlung der Spannungswandler und des Speichers sorgen der Kühlerboden und ein geringer Luftstrom des Lüfters. Der Propeller rotiert nach dem Anlaufen mit 30% respektive 1670rpm. Damit agiert er ein bisschen lauter als die HD3870, das Laufgeräusch der Geforce ist dafür subjektiv deutlich angenehmer, aber hörbar. Muss die GPU schuften, steigt deren Temperatur von 50°C auf maximal 94°C, die der Umgebung stoppt bei 74°C. nVidias Lüftersteuerung greift erst bei 88°C, die Drehzahl wird ab dieser Schwelle fast linear bis maximal 41% bzw. 2250rpm angehoben. Auch hier übertrifft man rein von der Lautstärke her wieder die Konkurrenz, die konstante Drehzahl sowie die anliegende Frequenz empfinden die meisten User aber als angenehmer. Wie heißt es so schön: Design follows function. Die eher simpel anmutende Konstruktion ist zwar hörbar, arbeitet aber effizient und ergänzt den kühlen Chip nahezu optimal.
Alle drei Pixelprozessoren knacken die mittlerweile übliche 90°C Grenze. Diese Temperatur erscheint dem ein oder anderen vielleicht zu hoch, da sich die Hersteller dessen jedoch bewusst sind und trotzdem zwei Jahre Garantie geben sind die Werte aber nicht weiter bedenklich - auch unser Langzeittest über mehr als vier Monate mit einer passiven X1900XT bei über 100°C bestätigt das. Absolute Ruhe erreichte leider keiner der Kandidaten, nur die HD3850 gibt sich idle nicht zu erkennen. Den Versuch, alle Referenzkühler unter Last auf absolutes ultra-silent Niveau zu trimmen, haben wir sehr schnell aufgegeben, mehr als 100°C mögen zwar noch nicht schädlich sein, anfreunden können sich mit einer dreistelligen Zahl im Rivatuner unter dem Punkt Core temperature aber nur wenige. Anzumerken ist, neben der Tatsache, dass alle Lüfter mit einem Mini-4-Pin Anschluss versehen sind, eine Art leises Fiepen oder gar Tuten unter Last verursacht durch die Spannungswandler. Gerade im folgenden Test mit einem passiven Kühlkörper störte dieses Geräusch sehr.
HD3870
Auf den ersten Blick glaubt man bei der HD3870 den Kühler einer X1950XTX vor sich zu haben. Doch bei genauerem Hinsehen finden wir einige Unterschiede - AMD verzichtet auf die Heatpipe und der aus Kupfer gefertigte mit Lamellen bestückte Kühlkörper ist etwas kleiner. Geblieben ist die großflächige nun mit Lüftungsschlitzen nahe der Slotblende versehene Plastikummantelung, auch der Radiallüfter mit 75mm Durchmesser und 0.6 A wurde weiter verwendet. Erwähnenswert ist die separate Passivkühlung der Spannungswandler und des VRAMs durch verschraubte Kupferschienen samt Wärmeleitpads sowie die Tatsache, dass die heiße Abluft nach dem Prinzip der bekannten Arctic Cooling Silencer Serie aus dem Gehäuse geblasen wird, zwei weitere Fortführungen althergebrachter Methoden. Glücklicherweise erinnert nur die Optik an eine X1950XTX, die Lautstärke liegt deutlich darunter. Einzig der Kickstart beim Booten lässt erahnen zu welch höllischem Lärm diese Konstruktion in der Lage ist. Solange der geneigte User einzig mit Word, Internet und Co beschäftigt ist, könnte man dem Dual-Slot-Layout fast silent Tauglichkeit attestieren, in unserem Testrechner war die HD3870 aber aufgrund der surrenden und röhrenden Frequenz leider problemlos heraus hörbar und störte mit der Zeit. Der Lüfter dreht idle mit 23% (es ist uns übrigens nicht gelungen den Lüfter zum Stillstand zu überreden, stellt man die Drehzahl auf 0% rotiert der Propeller weiter fröhlich wie zu vor), die Temperatur liegt bei 58°C. Startet man ein Spiel oder einen Benchmark, dreht der kleine Rotor auf und wird deutlich lauter. Besonders nervig ist das heulende Auf- und Abschwellen der Drehzahl, welche unter Last munter zwischen 40% und maximal 54% hin und her pendelt - generell wirkt die ganze Steuerung nervös. Hier wäre eine feste Geschwindigkeit angenehmer für die Ohren, zumal die GPU mit bis zu 93°C relativ heiß wird. Setzt man nämlich manuell eine Drehzahl von 45% fest, ist das Geräusch deutlich weniger penetrant und die Temperatur bleibt kurioserweise sogar 2°C unter der Automatik. Leise ist die HD3870 dank dieser Maßnahme aber auch weiterhin nicht. Man muss ATI jedoch definitiv zugestehen, dass das neue Flagschiff im Vergleich zu den Vorgängern nur ein laues Lüftchen von sich gibt und den Kunden nicht mit einem Orkan verschreckt.
HD3850
Gegen die optisch wuchtige Kühlung der großen Schwester mutet die Lösung der HD3850 fast schon lächerlich an. So wird dank des schlanken Kühlers nur noch ein Slot blockiert und die Größe des Lüfters schrumpft auf 60mm, das Prinzip bleibt aber das Gleiche. Aus dem Gehäuseinneren wird Luft angesaugt und durch Kupferlamellen über die GPU geleitet. Ein kleines Nadelkissen kümmert sich zusätzlich um die Spannungswandler während die Speicherchips passiv von der Bodenplatte auf Temperatur gehalten werden. Der Luftauslass des Kühlers krümmt sich kurz vor der Slotblende in Richtung Gehäusemitte, so staut sich die Abluft nicht an - eine gute Idee. Wie die HD3870 kommt auch die kleinere Version durch einen 12 Volt Start in die Gänge, dann regelt sie sich auf 16% herunter. So sehr sich unsere Ohren auch anstrengten, wir konnten die HD3850 höchstens erahnen, so unhörbar leise ist der Radiallüfter im idle-Zustand - nur passiv ist leiser! Die Chiptemperatur befindet sich mit 54°C auf dem Niveau der HD3870. Ebenso erfreulich verhält sich die Konstruktion unter Last, die Drehzahl wird gemächlich in sehr feinen 1-2% Schritten bis maximal 53% angehoben, das reicht um die GPU auf 92°C zu kühlen. Ein Schwanken der Drehzahl konnte ebenso wenig festgestellt werden wie ein unsauberes Laufgeräusch. Zwar hört man den Lüfter der Radeon aufgrund seiner recht hohen Frequenz minimal vor sich hin säuseln, eine leisere Referenzkühlung haben wir aber noch nicht bejubeln dürfen, selbst der legendäre Quadro-Kühler (7900GTX/GTO) kann da nicht mithalten.
8800GT
Schon vor dem Release häuften sich die Gerüchte, der Kühler des G92 sei zu schwach, die GPU zu hitzig oder gleich beides zusammen. Das finale Produkt straft diese Spekulationen Lügen. nVidia nutzt ein vorwiegend auf Aluminium basierendes kompaktes Single-Slot-Design mit einer 65mm-Turbine. Bei dieser fast durchgehend geschlossenen Konstruktion kann heiße Luft nur in der Nähe der Slotblende schräg nach oben und durch ein paar Schlitze entweichen. Für die Kühlung der Spannungswandler und des Speichers sorgen der Kühlerboden und ein geringer Luftstrom des Lüfters. Der Propeller rotiert nach dem Anlaufen mit 30% respektive 1670rpm. Damit agiert er ein bisschen lauter als die HD3870, das Laufgeräusch der Geforce ist dafür subjektiv deutlich angenehmer, aber hörbar. Muss die GPU schuften, steigt deren Temperatur von 50°C auf maximal 94°C, die der Umgebung stoppt bei 74°C. nVidias Lüftersteuerung greift erst bei 88°C, die Drehzahl wird ab dieser Schwelle fast linear bis maximal 41% bzw. 2250rpm angehoben. Auch hier übertrifft man rein von der Lautstärke her wieder die Konkurrenz, die konstante Drehzahl sowie die anliegende Frequenz empfinden die meisten User aber als angenehmer. Wie heißt es so schön: Design follows function. Die eher simpel anmutende Konstruktion ist zwar hörbar, arbeitet aber effizient und ergänzt den kühlen Chip nahezu optimal.
Alle drei Pixelprozessoren knacken die mittlerweile übliche 90°C Grenze. Diese Temperatur erscheint dem ein oder anderen vielleicht zu hoch, da sich die Hersteller dessen jedoch bewusst sind und trotzdem zwei Jahre Garantie geben sind die Werte aber nicht weiter bedenklich - auch unser Langzeittest über mehr als vier Monate mit einer passiven X1900XT bei über 100°C bestätigt das. Absolute Ruhe erreichte leider keiner der Kandidaten, nur die HD3850 gibt sich idle nicht zu erkennen. Den Versuch, alle Referenzkühler unter Last auf absolutes ultra-silent Niveau zu trimmen, haben wir sehr schnell aufgegeben, mehr als 100°C mögen zwar noch nicht schädlich sein, anfreunden können sich mit einer dreistelligen Zahl im Rivatuner unter dem Punkt Core temperature aber nur wenige. Anzumerken ist, neben der Tatsache, dass alle Lüfter mit einem Mini-4-Pin Anschluss versehen sind, eine Art leises Fiepen oder gar Tuten unter Last verursacht durch die Spannungswandler. Gerade im folgenden Test mit einem passiven Kühlkörper störte dieses Geräusch sehr.
6) Alternative Kühler
Achtung! Alle Arbeiten auf eigene Gefahr!
Nachdem wir uns bereits eingehend mit den verschiedenen Referenzkühlern beschäftigt haben und dabei feststellen mussten, dass eine Lautstärke, die unseren Ohren genehm ist, nur durch inakzeptable 3D-Temperaturen ermöglicht wird, wenden wir uns dem Zubehörmarkt zu. Die HD3800 wie auch die 8800GT verfügen über die identischen Bohrungen rund um die GPU wie ihre jeweiligen Vorgänger Radeon X19x0 und Geforce 79x0. Daher haben wir uns einige kompatible Kühler ausgewählt und diese auf der HD3870 und 8800GT montiert. Als Wärmeleitpaste kam wie in allen Tests Arctic Silver 5 zum Einsatz, den Speicher und die Spannungswandler der 8800GT hielten Heat Sink Kühler von Zalman auf Temperatur, bei der HD3870 nutzten wir die vorhandenen Kühler. Um die Karten zum Kochen zu bringen, kam die bei 4) bereits genannte Methode zum Einsatz, die Raumtemperatur schwankte während der Tests zwischen mit 21.3°C bis 21.7°C in vernachlässigbaren Regionen.
Hier als Beispiel den idle und load Zustand der 8800GT zusammen mit dem Zalman VF-900Cu bei 5 Volt:
Erschreckendes offenbarte sich uns bei der 8800GT und der HD3870 nach der Demontage des Referenzkühlers. Beide GPUs waren in Wärmeleitpaste geradezu ertränkt worden, die verwendete Menge hätte für zehn oder mehr Chips ausgereicht! Die Wärmeleitpads der Radeon fanden wir sorgfältig aufgebracht vor, die der 8800GT dagegen wirkten wie aus der Bastelstunde im Kindergarten. Basteln war bei der Geforce ohnehin angesagt, satte zwölf Schrauben wollen entfernt werden, bevor sich der Kühler abnehmen lässt - sofern man sich nicht scheut, sanfte Gewalt anzuwenden, ohne kann man den Kühlkörper nämlich bei keiner der Karten vom PCB trennen.
Verwendete Kühler und Lüfter:
- stock (auto)
- Artic Cooling Accelero S1 aktiv (2x Scythe Kaze Jyu 100mm @ 5 Volt bzw. 571rpm)
- Artic Cooling Accelero passiv
- Arctic Cooling nV Silencer 5 (@ 6 Volt)
- nV Silencer 5 Rev.3
- Thermalright HR-03 (Scythe S-Flex SFF21F @ 5 Volt bzw. 534rpm)
- ZalmanVF-900Cu (@ 5 Volt bzw. 1437rpm)
Der Accelero S1 in der passiven Version ist natürlich unhörbar. In der aktiven Version bestückten wir den Schweizer mit gleich zwei Kaze Jyu, der HR-03 wurde einem S-Flex ventiliert. Alle drei Scythe Lüfter sind absolut frei von störenden Nebengeräuschen wie klackern, schleifen oder brummen. Bereits außerhalb des Gehäuses sind sie aus 10cm Entfernung praktisch lautlos, mit Gummisteckern entkoppelt auf den Kühlern und verbaut im gedämmten Antec P180 Gehäuse ohnehin. Der Klassiker von Zalman dagegen ist auch bei 5 Volt noch leicht hörbar, schlicht aufgrund der Drehzahl des nur 15mm dicken und leicht schnarrenden 0.14 A Lüfters. Unser Exemplar scheint zwar eines der wenigen zu sein, welches keine Schleifgeräusche verursacht - für Freunde der Unhörbarkeit trotzdem nur bedingt zu empfehlen. Der Oldie aus der Silencer Serie passt zwar an den 4-Pin Anschluss der der 8800GT, drehte aber immer mit voller Drehzahl. Auch per Adapter funktionierte die Lüftersteuerung nicht, so dass wir den nV Silencer 5 schließlich mit der Zalman MFC1 auf 6 Volt gedrosselt haben.
Wieder einmal bestätigt es sich - der Accelero S1 ist schlicht der beste Luftkühler am Markt, egal ob aktiv oder passiv. Die 8800GT verfügt offensichtlich über die kühlste GPU, während die HD3870 ihre hitzigen R600 Gene nicht verbergen kann. Aktiv belüftet drückt der S1 die Lasttemperatur des G92 unter den idle-Wert der Referenzkühlung, im passiven Betrieb senkt er die Lasttemperatur satte 20°C. Kaum weniger beeindruckend fallen die Resultate bei der HD3870 aus. Aktiv erzielte 63°C sind ein sehr guter Wert, passiv gekühlt zeigt sich der RV670 als ungemütlicher Kandidat und so unterbietet der S1 die Referenzkühlung nur knapp.
Thermalrights Edelkühler ist zwar optisch dem S1 meilenweit voraus, dafür benötigt er mehr Platz, ist teurer und schwerer. Auch die Kühlleistung lässt im direkten Vergleich zu wünschen übrig, selbst passiv ist der S1 load auf der 8800GT nur 10°C wärmer als der aktive HR-03, zusammen mit den zwei Kaze Jyu deklassiert der S1 den Thermalright. Auf der hitzigen Radeon verringert sich der Abstand allerdings deutlich. Beide GPUs werden gut gekühlt, Besitzer eines High Risers können diesen somit problemlos weiter verwenden.
Der Zalman hat mittlerweile Kultstatus erreicht, doch auch an der Legende nagt der Zahn der Zeit. Zwar erreicht er annähernd die Werte des HR-03, bedenkt man jedoch die Geräuschkulisse des Koreaners, so wird klar, dass der VF-900 angesichts der Konkurrenz zum Altmetall gehört.
Der nV Silencer passt, wie der Name schon andeutet, nur auf die 8800GT. Die HD3870 verfügt über eine abweichende Anordnung der Speicherchips, zudem ist er Silencer schlicht zu lang und kollidiert mit der Slotblende. Die kompatible Geforce kühlt der vermeintliche Rentner überraschend gut, mit 73°C liegt er knapp vor dem passiven S1.
Interessant verhielten sich die Referenzkühlungen nach dem eigentlichen Test. Bei der Remontage verwendeten wir ebenfalls Arctic Silver 5. Anschließend schickten wir die Karten noch einmal auf den Teststand. Die sorgfältig angewendete Paste resultierte bei der HD3870 in einer Verringerung der Lasttemperatur von 7°C, bei der 8800GT sprangen 5°C heraus. Zusätzlich stieg die Drehzahl bei beiden nun nicht mehr über 50%. Offensichtlich isolierte die verschwenderische Nutzung des originalen Kontaktmittels die GPUs.
7) 2D/3D-Modus
Achtung! Alle Arbeiten auf eigene Gefahr!
Der größten Kritikpunkte der 8800GT sind der fehlende 2D-Modus und der vergleichsweise hohe Stromverbrauch auf dem Desktop. Abhilfe schaffen hier diverse Tools. Unter zur Handnahme des Rivatuners erlernt die Geforce sich abhängig vom Füllstand des Videospeichers hoch und runter zu takten.
Nach der Installation der aktuellen Version 2.06 erscheint nach einem Klick auf das Tray-Icon das Hauptfenster. Damit die Taktumschaltung immer greift, packen wir das Tool via Startup registry Key in den Autostart. Ein Rechtsklick auf den Eintrag MinClockLimit und ein Klick auf das graue Lämpchen lässt uns ab sofort freie Hand die Taktfrequenzen sind nun bis auf den Nullpunkt absenkbar.
Zurück zum Main-Reiter. Dort klickt man auf das kleine Dreieck rechts neben dem unteren Customize, aus den sechs erscheinenden Möglichkeiten wählt man die System Settings.
Der Reiter Overclocking ermöglicht die Justierung der Taktfrequenzen. Die Werte für 2D und 3D sollten nur schrittweise gesenkt und erst nach einer peniblen Stabilitätsprüfung (siehe 13)) eingetragen werden! Zuerst editiert man durch verschieben der Schalter und klicken auf Übernehmen die idle-Taktraten, per Apply overclocking at Windows startup werden diese immer nach dem Booten angelegt. Mit einem Klick auf die Diskette bei Overclocking Profile Settings sichert man die Werte und vergibt einen Namen, 2D etwa. Ebenso verfährt man für die 3D-Werte, allerdings ohne einen Haken bei Apply overclocking at Windows startup.
Weiter geht es über das grüne Pluszeichen im übergeordneten Reiter Launcher. Hier wählt man Regular item aus, im erscheinenden Fenster fügt man per Associated overclocking profile und driver-level einmal den 2D- und einmal den 3D-Wert ein, sinnigerweise benennt man beide auch so. Beide erscheinen nun in der Liste der zu launchenden Settings.
Dieses Mal nun bemüht man das kleine Dreieck rechts neben dem oberen Customize und dann das Symbol mit der Lupe. Über Setup und Plugins hangeln wir uns bis zu Aktivierung der VidMem durch und aktivieren diese per Häkchen. Per Rechtsklick Setup auf den im Hardware Monitor erscheinenden Punkt local videomemory usage erscheint wieder ein Fenster mit dem bekannten grünen Pluszeichen. Wie gehabt vergeben wir einen Namen, bei value (MB) hat sich 20 als sinnvoll erwiesen. Wir lassen zwei Mal item mit starten, bei upward threshold wählen wir das 3D-Profil, bei downward threshold dagegen die 2D-Taktraten.
Der anschließende Praxistest zeigt, dass die 8800GT läuft idle nun mit reduziertem Takt läuft, in unserem Fall mit 150/378/300 MHz. Sobald aber mehr als 20 Mb im Speicher sind, marschiert die Geforce mit voller Leistung. Damit auch alles ordnungsgemäß klappt, ist ein Neustart des Rivatuners notwendig. Die fertige Taktumschaltung befindet sich in Form eines Registry-Keys im Anhang *klick mich*
Der größten Kritikpunkte der 8800GT sind der fehlende 2D-Modus und der vergleichsweise hohe Stromverbrauch auf dem Desktop. Abhilfe schaffen hier diverse Tools. Unter zur Handnahme des Rivatuners erlernt die Geforce sich abhängig vom Füllstand des Videospeichers hoch und runter zu takten.
Nach der Installation der aktuellen Version 2.06 erscheint nach einem Klick auf das Tray-Icon das Hauptfenster. Damit die Taktumschaltung immer greift, packen wir das Tool via Startup registry Key in den Autostart. Ein Rechtsklick auf den Eintrag MinClockLimit und ein Klick auf das graue Lämpchen lässt uns ab sofort freie Hand die Taktfrequenzen sind nun bis auf den Nullpunkt absenkbar.
Zurück zum Main-Reiter. Dort klickt man auf das kleine Dreieck rechts neben dem unteren Customize, aus den sechs erscheinenden Möglichkeiten wählt man die System Settings.
Der Reiter Overclocking ermöglicht die Justierung der Taktfrequenzen. Die Werte für 2D und 3D sollten nur schrittweise gesenkt und erst nach einer peniblen Stabilitätsprüfung (siehe 13)) eingetragen werden! Zuerst editiert man durch verschieben der Schalter und klicken auf Übernehmen die idle-Taktraten, per Apply overclocking at Windows startup werden diese immer nach dem Booten angelegt. Mit einem Klick auf die Diskette bei Overclocking Profile Settings sichert man die Werte und vergibt einen Namen, 2D etwa. Ebenso verfährt man für die 3D-Werte, allerdings ohne einen Haken bei Apply overclocking at Windows startup.
Weiter geht es über das grüne Pluszeichen im übergeordneten Reiter Launcher. Hier wählt man Regular item aus, im erscheinenden Fenster fügt man per Associated overclocking profile und driver-level einmal den 2D- und einmal den 3D-Wert ein, sinnigerweise benennt man beide auch so. Beide erscheinen nun in der Liste der zu launchenden Settings.
Dieses Mal nun bemüht man das kleine Dreieck rechts neben dem oberen Customize und dann das Symbol mit der Lupe. Über Setup und Plugins hangeln wir uns bis zu Aktivierung der VidMem durch und aktivieren diese per Häkchen. Per Rechtsklick Setup auf den im Hardware Monitor erscheinenden Punkt local videomemory usage erscheint wieder ein Fenster mit dem bekannten grünen Pluszeichen. Wie gehabt vergeben wir einen Namen, bei value (MB) hat sich 20 als sinnvoll erwiesen. Wir lassen zwei Mal item mit starten, bei upward threshold wählen wir das 3D-Profil, bei downward threshold dagegen die 2D-Taktraten.
Der anschließende Praxistest zeigt, dass die 8800GT läuft idle nun mit reduziertem Takt läuft, in unserem Fall mit 150/378/300 MHz. Sobald aber mehr als 20 Mb im Speicher sind, marschiert die Geforce mit voller Leistung. Damit auch alles ordnungsgemäß klappt, ist ein Neustart des Rivatuners notwendig. Die fertige Taktumschaltung befindet sich in Form eines Registry-Keys im Anhang *klick mich*
8) Modifizierte Lüftersteuerung und Undervolting
Achtung! Alle Arbeiten auf eigene Gefahr!
Ebenfalls suboptimal ist die Temperatur der 8800GT sowie die damit einhergehende Lärmkulisse während dem Spielen. Die beste Möglichkeit, dies zu ändern, ist das so genannte Undervolting, also das Absenken der Spannung des Grafikprozessors per BIOS-Mod. Leistung verliert man dadurch keine, da sich die Spannung aber quadratisch auf die Abwärme auswirkt, winken eine kühlere GPU und ein leiserer, weil langsamer drehender Lüfter. Mit der aktuellsten Version des NiBiTors lässt sich die VCore der Geforce von 1.05 Volt auf 0.95 Volt reduzieren. Hierfür öffnet man über Tools, Read BIOS, Select Device die Grafikkarte aus. Mit den Reitern Clockrates und Voltages und deren Unterpunkten Extra setzt man die Werte für die Taktraten und die Chipspannung. Wir verwendeten die Referenzfrequenzen von 600/1500/900. Hinzu kommt noch eine modifizierte Lüftersteuerung. Bei Temperatures eröffnet der Punkt Fanspeed IC eine Manipulierung der Regelung. Unser BIOS stapelt tief: idle rotiert der Lüfter mit 20% seiner maximalen Drehzahl, ab 61 63°C steigen die Umdrehungen pro Minute linear mit an. Wie stark die Drehzahl dabei ansteigt, ist abhängig vom TRangeSlope-Wert. Je höher TRangeSlope, desto flacher die Drehzahlkurve. min Duty cycle definiert den Startwert des Lüfters, TMin mit einer im BIOS hinterlegten Messwert-Kompensation von acht Grad Celsius addiert stellt die Schwelle dar, ab der die Lüfterdrehzahl bei Automatic Speed zusammen mit der Temperatur ansteigt. Der Wert TCrit legt fest, ab welcher Temperatur der Lüfter mit vollen 100% röhrt.
Wir empfehlen, das eigene BIOS zu öffen und zusätzlich unsere modifizierte Version. Nun die Werte bei der Spannung und der Lüftersteuerung an unser BIOS angleichen, sonst kann es passieren, dass die PCI ID nicht korrekt ist - die Folge wäre, dass die Karte nicht mehr 3D-tauglich ist.
Mit File, Save BIOS speichert man erst das originale (!), dann das veränderte BIOS zusammen mit NvFlash v5.57 auf eine bootbaren Diskette kopieren, der Name darf maximal acht Zeichen enthalten. Mit folgendem Parameter flasht man abschließend das neue BIOS auf:
nvflash -5 -6 name.rom *Download des BIOS
Wir kombinieren die selbst erstellte Taktumschaltung mit dem BIOS-Mod. Das Ergebnis ist grandios:
Die Karte wird deutlich kühler, leiser und der Strombedarf geht stark zurück - was will man mehr?
9) Benchmarks
Für die Benchmarks kam folgendes Testsystem zum Einsatz:
Verwendete Spiele und Benchmarks:
Alle Spiele wurden, sofern nicht angegeben, mit maximalen Details getestet!
Die realen Spielszenen sind mindestens 3 Minuten lang und sehr anspruchsvoll. Jedes Setting zeichnen wir drei Mal mit Fraps v2.92 auf und bilden daraus einen Mittelwert um Messfehler zu vermeiden bzw. zu erkennen. Sämtliche Werte sind auf ganze Fps auf- oder abgerundet.
Futuremarks synthetischer Klassiker darf natürlich nicht fehlen. Zwar verfügt er über keine reelle Spieleengine, so dass die Ergebnisse mit Vorsicht zu genießen sind, eine wirkliche Vergleichbarkeit verschiedener GPUs ist nicht möglich. Der 3D Mark 2006 bildet aber einen guten Maßstab um schnell und einfach eine Leistungsprognose abgeben zu können. Die CPU erreicht hierbei einen Score von 2066 Punkten.
Die HD Serie überzeugt, sämtliche Vorgänger werden deutlich geschlagen, die HD3870 nähert sich der 8800GT. Diese wiederum kapituliert an der 10k Grenze und kommt der GTX gefährlich nahe, welche diese Schwelle überschreitet.
Die Ehre ruft uns zurück aufs Schlachtfeld - Call of Duty 4, wir kommen! Infinity Wards versetzen uns nicht nur zeitlich in die Gegenwart, auch die aufgemotzte Grafikengine des Vorgängers befindet sich mit atmosphärischen Lichtspielen und fantastischen Modells ebenso wie der eindringliche Sound auf dem aktuellen Stand der Technik. Mit über 400 Mb entspricht der Speicherbedarf etwa einem Drittel unserer verballerten Munition, denn unser Alter Ego Sergeant Paul Jackson holzt sich 3 Minuten lang mit Rambo Manier durch Al-Asads Mohrhuhn gleiche Schergen und den Level War Pig.
Die HD3850/512 liegt mit AA/AF satte 20% vor dem gleichen Chip mit weniger Speicher, trotzdem muss auch sie sich der alten X1900XT beugen. nVidias Riege liegt knapp in Führung, der G92 kann sich mit Qulitätssettings vor der HD3870 positionieren, fällt aber bis zu 22% hinter die GTX.
Warum stirbt man in Crysis trotz Nano Suit schneller als man Maximum Armor sagen kann? Weil die grafische und akustische Qualität derartig grandios und brillant ist, dass man die Gegner trotz hämmernden Kalaschnikows vor lauter Staunen schlicht vergisst. Die Macher von Far Cry ziehen im wohl meist erwarteten Shooter aller Zeiten sämtliche Register, die in Sachen bombastischer und phänomenaler Inszenierung nur denkbar sind - leider befinden sich KI und Story nicht auf dem selben Level. Cryteks technisches Meisterwerk bringt den hier genutzten GPU-Benchmark mit sich, das eigentliche Spiel läuft allerdings rund 15-25% langsamer und verlangt den Grafikkarten nebenbei noch fast 400 Mb ab.
Offensichtlich haben die Jungs von nVidia bei Crytek nicht nur Werbung für die eigene Chipschmiede programmiert, sondern die popagierte Zusammenarbeit auch für Optimierungen genutzt, denn die 8800GT liegt mit bis zu satten 53% vor der HD3870. Die HD3850/512 zieht der Version mit 256 Mb um 7-14% davon, mit AA/AF sind aber alle RV670 zu langsam. Eine 8800GT muss sich der GTX um maximal 20% beugen, während eine 7950GT mit unspielbaren 17Fps noch nicht einmal halb so viel packt. Wer das Spiel ingame allerdings wirklich flüssig genießen möchte, der sollte sich selbst mit einer 8800GT auf die 1024er Auflösung beschränken, Besitzer einer High-End CPU a la E6850 und einer 8800Ultra können sich auch an 1280x1024 wagen.
Wer Angst vor kleinen Mädchen hat, sollte Monoliths Schocker im Regal stehen lassen, die Schreckmomente sorgen für eine drastisch erhöhte Pulsfrequenz. Die Grafik lässt das Blut zwar ebenfalls in Wallung geraten, aber nicht aus Angst, sondern vor allem dank der Zeitlupenfunktion und den wahnwitzigen Partikeleffekten. Nie war der Einsatz der von uns favorisierten Schrotflinte auf surreale Art und Weise schöner und effektvoller, nie eine Shooter-KI schlauer. Die immer gleichen Räume des unübersichtlichen Leveldesigns verzögern allerdings die Hatz nach Paxton Fettel ebenso wie die Slow motion. Unsere Lieblingswaffe kommt im integrierten Performancetest zwar nicht vor, verwenden tun wir ihn trotzdem.
Einmal mehr zeigt sich die Kantenglättungsschwäche der HD3800 Familie. Eine X1900XT/512 überholt beide HD3850/512 und positioniert sich an dritter Stelle, während die 8800GT auftrumpft und mit minimal 31Fps ein durchgehend absolut flüssiges Spielerlebnis ermöglicht. Ingame kann sich die HD3850/512 dank bis zu 370Mb Speicherverbrauch leicht von der 256Mb Schwester absetzen. FEAR steht aber nicht nur auf Shaderpower und 512Mb, sondern auch auf Bandbreite. Daher liegt dieses Spiel der HD3870 ebenso gut wie der 8800GTX, 27% bzw. 24% Unterschied zu den schwächeren Modellen ihrer Art zeigen, dass GFLOP/s eben nicht alles sind.
Dröhnende Motoren, quietschende Reifen und beißender Gummigeruch liegen in der Luft - ein neuer Need for Speed Titel steht in der Garage. Zwar basiert der Titel weiterhin auf der Underground Engine, jedoch ist die Optik meist über jeden Zweifel erhaben: Extrem detaillierte Autos, deren Lack und Scheiben die komplette Umgebung spiegeln und realistischer Staub würden den neuesten Ableger von EAs Erfolgsserie zu einem richtigen Hingucker machen - wären da nicht die öden und detailarmen Landschaften. Der Sound der Motoren lässt dafür die Wände wackeln und man spürt förmlich wie der Fahrtwind am Rennwagen zerrt, denn das Geschwindigkeitsgefühl wirkt ebenso echt wie der Ärger über die schwammige Steuerung und das nervige Menü. Wir rasen die komplette Strecke Nevada Desert entlang und zeigen der mäßigen KI den Rückspiegel, während sich knapp 280 Mb im Videospeicher sammeln.
Pro Street ist kein allzu anspruchsvoller Titel, selbst eine 7950GT erreicht in der kleinsten Auflösung passabel spielbare Werte. Für 1280x1024 muss es dann aber schon eine HD3800 sein, wer auch noch AA/AF hinzuschalten möchte, sollte einer 8800 den Vorzug geben. Mehr als 256 Mb erzeugen zwar höhere, nicht aber flüssigere Fps.
Der innovative Shooter rund um den Indianer Tommy, der seine Freundin und sich vor Aliens rettet, basiert auf Doom 3 Engine von id Software, welche erstmals im namensgebenden Horrorspiel zum Einsatz kam. Stencil Shadows und sehr organische Strukturen machen die Hatz durch fremde Welten optisch zu einem Genuss. Die verwendete Timedemo führt den Cherokee durch das Raumschiff der Außerirdischen und zeigt diverse Schießereien und Physikspielereien, hierbei fallen knapp 400 Mb VRAM an.
Den HDs schmeckt die Doom3-Engine überhaupt nicht, egal ob mit oder ohne AA/AF. Den enormen Speicherbedarf kann die HD3850/256 nicht lokal decken und fällt 20% hinter die besser bestückte Schwester zurück. Die 8800er deklassieren alle anderen GPUs, die GTX liegt keine 10% vor der GT.
Double Kill, Flak Cannon und Damage Amp - das Spielprinzip, die Waffen und der Sound von Unreal Tournament 3 befinden sich über dem Niveau des hoch gelobten Vorgängers, neu ist die bombastische Unreal Engine 3. Der Speicherverbrauch liegt bei nur rund 200 Mb, das Fps-Limit haben wir für den Test deaktiviert. Auf der Map Shangri La müssen sich fünf Masterful Bots vermöbeln lassen. Drei Minuten reichen um ihnen zu zeigen, wo der Impact Hammer hängt.
Eben lag die Engine den HD3800 nicht, nun funktioniert die Taktumschaltung nicht korrekt bis zu drei Mikro-Ruckler pro Sekunde und niedrige Fps lassen keinerlei Spielspaß aufkommen. Möglicherweise schafft der Catalyst 8.2 (der 8.1 tat es nicht) oder die Vollversion von UT3 Abhilfe. Während die 8800GT aufgrund ihrer vergleichsweise geringen Speicherbandbreite mit höheren Einstellungen leicht schwächelt, bleibt die GTX unbeeindruckt und fällt fast nie unter 40Fps optimal für den Kampf im Internet.
Der kalte Krieg ist vorbei? Mitnichten, World in Conflict macht ihn mit sehenswerten, herrlich rauchigen Explosionen, grandioser Beleuchtung und knackigen Texturen heiß und aktuell wie nie zuvor. Zusammen mit der ebenfalls gelungenen Physiksimulation und satten 350 Mb Speicherhunger ist diese Engine ein harter Brocken für das komplette System. Wir verwenden die integrierte Benchmarkfunktion, welche deutlich anspruchsvoller als das eigentliche Spiel ist.
Dieser Titel zeigt deutlich: Es gibt Spiele, die trotz grafischer Opulenz vor allem eine sehr potente CPU benötigen, das 512 Mb heutzutage Pflicht sind und das beides zusammen die regelrechte AA-Allergie der RV670 nicht kompensieren kann. Ohne Kantenglättung und den anisotropen Filter ist World in Conflict außerhalb des Benchmarks auf allen Karten gut spielbar, auf den beiden 8800 ist es auch mit AA/AF ein durchgehender Genuss.
- Intel Core2Duo E6300 @ 2.4 GHz @ 1.088v (idle 2.0 GHz @ 1.104v)
- Gigabyte 965P-DS3 Rev.3.3
- 2x 1024 Mb Kingston DDR-667 CL5
- Creative SB Audigy 2
- Be Quiet P5 520W
- komplettes System
- X1950Pro/512 (575/690)
- X1900XT/512 (621/720)
- HD3850/256 (669/829)
- HD3850/512 (simuliert durch eine HD3870 @ 669/829)
- HD3870/512 (777/1126)
- 7950GT/512 (550/700)
- 8800GT/512 (602/1512/900)
- 8800GTX/768 (575/1350/900)
- Intel Core2Duo E6300 @ 2.4GHz bei 1.088v (idle @ 2.0GHz bei 1.104v)
- 2 x 1024Mb DDR2-667 CL5
- Gigabyte 965P-DS3 (+0.1v NB)
- Creative SB Audigy 2 ZS
- Be Quiet P5 520W
- Windows XP Professional SP2 32Bit
- Forceware 169.21 (Hohe Qualität, Optimierungen aus)
- Catalyst 7.12 (A.I. Standard, Optimierungen aus)
Verwendete Spiele und Benchmarks:
- 3D Mark 2006 v1.0.2 free
- Call of Duty 4 v1.4 (reale Spielszene)
- Crysis v1.1 (integrierte Timedemo Island)
- FEAR v1.08 (integrierte Benchmarkfunktion)
- Need for Speed Pro Street Demo (reale Spielszene)
- Prey v1.4 (HWZone-Timedemo)
- Unreal Tournament 3 Demo Beta (reale Spielszene)
- World in Conflict Demo (integrierte Benchmarkfunktion)
Alle Spiele wurden, sofern nicht angegeben, mit maximalen Details getestet!
Die realen Spielszenen sind mindestens 3 Minuten lang und sehr anspruchsvoll. Jedes Setting zeichnen wir drei Mal mit Fraps v2.92 auf und bilden daraus einen Mittelwert um Messfehler zu vermeiden bzw. zu erkennen. Sämtliche Werte sind auf ganze Fps auf- oder abgerundet.
Futuremarks synthetischer Klassiker darf natürlich nicht fehlen. Zwar verfügt er über keine reelle Spieleengine, so dass die Ergebnisse mit Vorsicht zu genießen sind, eine wirkliche Vergleichbarkeit verschiedener GPUs ist nicht möglich. Der 3D Mark 2006 bildet aber einen guten Maßstab um schnell und einfach eine Leistungsprognose abgeben zu können. Die CPU erreicht hierbei einen Score von 2066 Punkten.
Die HD Serie überzeugt, sämtliche Vorgänger werden deutlich geschlagen, die HD3870 nähert sich der 8800GT. Diese wiederum kapituliert an der 10k Grenze und kommt der GTX gefährlich nahe, welche diese Schwelle überschreitet.
Call of Duty 4
Die Ehre ruft uns zurück aufs Schlachtfeld - Call of Duty 4, wir kommen! Infinity Wards versetzen uns nicht nur zeitlich in die Gegenwart, auch die aufgemotzte Grafikengine des Vorgängers befindet sich mit atmosphärischen Lichtspielen und fantastischen Modells ebenso wie der eindringliche Sound auf dem aktuellen Stand der Technik. Mit über 400 Mb entspricht der Speicherbedarf etwa einem Drittel unserer verballerten Munition, denn unser Alter Ego Sergeant Paul Jackson holzt sich 3 Minuten lang mit Rambo Manier durch Al-Asads Mohrhuhn gleiche Schergen und den Level War Pig.
Die HD3850/512 liegt mit AA/AF satte 20% vor dem gleichen Chip mit weniger Speicher, trotzdem muss auch sie sich der alten X1900XT beugen. nVidias Riege liegt knapp in Führung, der G92 kann sich mit Qulitätssettings vor der HD3870 positionieren, fällt aber bis zu 22% hinter die GTX.
Warum stirbt man in Crysis trotz Nano Suit schneller als man Maximum Armor sagen kann? Weil die grafische und akustische Qualität derartig grandios und brillant ist, dass man die Gegner trotz hämmernden Kalaschnikows vor lauter Staunen schlicht vergisst. Die Macher von Far Cry ziehen im wohl meist erwarteten Shooter aller Zeiten sämtliche Register, die in Sachen bombastischer und phänomenaler Inszenierung nur denkbar sind - leider befinden sich KI und Story nicht auf dem selben Level. Cryteks technisches Meisterwerk bringt den hier genutzten GPU-Benchmark mit sich, das eigentliche Spiel läuft allerdings rund 15-25% langsamer und verlangt den Grafikkarten nebenbei noch fast 400 Mb ab.
Offensichtlich haben die Jungs von nVidia bei Crytek nicht nur Werbung für die eigene Chipschmiede programmiert, sondern die popagierte Zusammenarbeit auch für Optimierungen genutzt, denn die 8800GT liegt mit bis zu satten 53% vor der HD3870. Die HD3850/512 zieht der Version mit 256 Mb um 7-14% davon, mit AA/AF sind aber alle RV670 zu langsam. Eine 8800GT muss sich der GTX um maximal 20% beugen, während eine 7950GT mit unspielbaren 17Fps noch nicht einmal halb so viel packt. Wer das Spiel ingame allerdings wirklich flüssig genießen möchte, der sollte sich selbst mit einer 8800GT auf die 1024er Auflösung beschränken, Besitzer einer High-End CPU a la E6850 und einer 8800Ultra können sich auch an 1280x1024 wagen.
Wer Angst vor kleinen Mädchen hat, sollte Monoliths Schocker im Regal stehen lassen, die Schreckmomente sorgen für eine drastisch erhöhte Pulsfrequenz. Die Grafik lässt das Blut zwar ebenfalls in Wallung geraten, aber nicht aus Angst, sondern vor allem dank der Zeitlupenfunktion und den wahnwitzigen Partikeleffekten. Nie war der Einsatz der von uns favorisierten Schrotflinte auf surreale Art und Weise schöner und effektvoller, nie eine Shooter-KI schlauer. Die immer gleichen Räume des unübersichtlichen Leveldesigns verzögern allerdings die Hatz nach Paxton Fettel ebenso wie die Slow motion. Unsere Lieblingswaffe kommt im integrierten Performancetest zwar nicht vor, verwenden tun wir ihn trotzdem.
Einmal mehr zeigt sich die Kantenglättungsschwäche der HD3800 Familie. Eine X1900XT/512 überholt beide HD3850/512 und positioniert sich an dritter Stelle, während die 8800GT auftrumpft und mit minimal 31Fps ein durchgehend absolut flüssiges Spielerlebnis ermöglicht. Ingame kann sich die HD3850/512 dank bis zu 370Mb Speicherverbrauch leicht von der 256Mb Schwester absetzen. FEAR steht aber nicht nur auf Shaderpower und 512Mb, sondern auch auf Bandbreite. Daher liegt dieses Spiel der HD3870 ebenso gut wie der 8800GTX, 27% bzw. 24% Unterschied zu den schwächeren Modellen ihrer Art zeigen, dass GFLOP/s eben nicht alles sind.
Dröhnende Motoren, quietschende Reifen und beißender Gummigeruch liegen in der Luft - ein neuer Need for Speed Titel steht in der Garage. Zwar basiert der Titel weiterhin auf der Underground Engine, jedoch ist die Optik meist über jeden Zweifel erhaben: Extrem detaillierte Autos, deren Lack und Scheiben die komplette Umgebung spiegeln und realistischer Staub würden den neuesten Ableger von EAs Erfolgsserie zu einem richtigen Hingucker machen - wären da nicht die öden und detailarmen Landschaften. Der Sound der Motoren lässt dafür die Wände wackeln und man spürt förmlich wie der Fahrtwind am Rennwagen zerrt, denn das Geschwindigkeitsgefühl wirkt ebenso echt wie der Ärger über die schwammige Steuerung und das nervige Menü. Wir rasen die komplette Strecke Nevada Desert entlang und zeigen der mäßigen KI den Rückspiegel, während sich knapp 280 Mb im Videospeicher sammeln.
Pro Street ist kein allzu anspruchsvoller Titel, selbst eine 7950GT erreicht in der kleinsten Auflösung passabel spielbare Werte. Für 1280x1024 muss es dann aber schon eine HD3800 sein, wer auch noch AA/AF hinzuschalten möchte, sollte einer 8800 den Vorzug geben. Mehr als 256 Mb erzeugen zwar höhere, nicht aber flüssigere Fps.
Der innovative Shooter rund um den Indianer Tommy, der seine Freundin und sich vor Aliens rettet, basiert auf Doom 3 Engine von id Software, welche erstmals im namensgebenden Horrorspiel zum Einsatz kam. Stencil Shadows und sehr organische Strukturen machen die Hatz durch fremde Welten optisch zu einem Genuss. Die verwendete Timedemo führt den Cherokee durch das Raumschiff der Außerirdischen und zeigt diverse Schießereien und Physikspielereien, hierbei fallen knapp 400 Mb VRAM an.
Den HDs schmeckt die Doom3-Engine überhaupt nicht, egal ob mit oder ohne AA/AF. Den enormen Speicherbedarf kann die HD3850/256 nicht lokal decken und fällt 20% hinter die besser bestückte Schwester zurück. Die 8800er deklassieren alle anderen GPUs, die GTX liegt keine 10% vor der GT.
Double Kill, Flak Cannon und Damage Amp - das Spielprinzip, die Waffen und der Sound von Unreal Tournament 3 befinden sich über dem Niveau des hoch gelobten Vorgängers, neu ist die bombastische Unreal Engine 3. Der Speicherverbrauch liegt bei nur rund 200 Mb, das Fps-Limit haben wir für den Test deaktiviert. Auf der Map Shangri La müssen sich fünf Masterful Bots vermöbeln lassen. Drei Minuten reichen um ihnen zu zeigen, wo der Impact Hammer hängt.
Eben lag die Engine den HD3800 nicht, nun funktioniert die Taktumschaltung nicht korrekt bis zu drei Mikro-Ruckler pro Sekunde und niedrige Fps lassen keinerlei Spielspaß aufkommen. Möglicherweise schafft der Catalyst 8.2 (der 8.1 tat es nicht) oder die Vollversion von UT3 Abhilfe. Während die 8800GT aufgrund ihrer vergleichsweise geringen Speicherbandbreite mit höheren Einstellungen leicht schwächelt, bleibt die GTX unbeeindruckt und fällt fast nie unter 40Fps optimal für den Kampf im Internet.
Der kalte Krieg ist vorbei? Mitnichten, World in Conflict macht ihn mit sehenswerten, herrlich rauchigen Explosionen, grandioser Beleuchtung und knackigen Texturen heiß und aktuell wie nie zuvor. Zusammen mit der ebenfalls gelungenen Physiksimulation und satten 350 Mb Speicherhunger ist diese Engine ein harter Brocken für das komplette System. Wir verwenden die integrierte Benchmarkfunktion, welche deutlich anspruchsvoller als das eigentliche Spiel ist.
Dieser Titel zeigt deutlich: Es gibt Spiele, die trotz grafischer Opulenz vor allem eine sehr potente CPU benötigen, das 512 Mb heutzutage Pflicht sind und das beides zusammen die regelrechte AA-Allergie der RV670 nicht kompensieren kann. Ohne Kantenglättung und den anisotropen Filter ist World in Conflict außerhalb des Benchmarks auf allen Karten gut spielbar, auf den beiden 8800 ist es auch mit AA/AF ein durchgehender Genuss.
Zuletzt bearbeitet von einem Moderator: