• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

[Review] G92 vs. RV670

y33H@

BIOS-Overclocker(in)
veröffentlicht am 27.01.2008 von Marc y33H@ S.


Vorneweg möchte ich mich bei all denen bedanken, die mich materiell und oder immateriell unterstützt oder mir geholfen haben.
Ohne eure Hilfe wäre der vorliegende Artikel in dieser Form undenkbar gewesen! Mein persönlicher Dank geht an​


  • die PCGH-Redaktion für die Bereitstellung der HD3800 und der 8800GT
  • meinem Vater für die Bereitstellung seiner Panasonic DMC-FZ7
  • Sebastian für die Unterstützung beim Rivatuner und den BIOS-Mods
  • Felix E. für die Bereitstellung seiner 7950GT und seines HR-03
  • Daniel H. für die Bereitstellung seiner 8800GTX
  • Nico M. für die Bereitstellung seines AC nV Silencers
  • Dominik P. für die Hilfe bei der Erstellung der Bilder (Beleuchtung)


Inhalt

1) Einleitung
2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512
3) Architektur und technische Daten
4) Leistungsaufnahme
5) Referenz-Kühlung
6) Alternative Kühler
7) 2D/3D-Modus
8) Modifizierte Lüftersteuerung und Undervolting
9) Benchmarks
10) AA/AF-Skalierung
11) VRAM-Skalierung
12) CPU-Skalierung
13) Overclocking-Skalierung
14) Treiber und Bildqualität
15) Finale Worte





1) Einleitung

2007 war eindeutig das Jahr von nVidia und Intel, AMD mit samt ihrer Grafiksparte ATI konnten nur hinterhecheln und selbst das viel den Mannen um CEO Hektor Ruiz oft schwer genug. Intels Core2 wischte schon in der Conroe Variante mit den X² CPUs den Boden, dessen Nachfolger Penryn deklassiert aktuell die Phenoms - allerdings kann man dem Triple-Core einen gewissen Reiz nicht absprechen. In Sachen Grafikbeschleunigern erging es AMD etwas besser. Dem R600 krankte es zwar nicht nur an mangelnder Performance, auch der Stromverbrauch und die Lautstärke ließen berechtigte Kritik aufkommen, im Low-End und unteren Mid-Range Bereich konnte ATI mit den HD2400 und den HD2600 aber zwei gute Produktlinien etablieren. nVidia dagegen bietet mit der 8800GTX und deren Update 8800Ultra seit über einem Jahr die schnellste Grafikkarte an. Nun will AMD mit dem RV670 alias HD3800 zurückschlagen, nVidia positioniert die auf dem G92 basierende 8800GT als Gegner und Maßstab.​


2) Impressionen der HD3850/256, HD3870/512 und 8800GT/512

Die drei Karten verfügen über ein 23cm langes PCB und einen zusätzlichen Stromanschluss. Wer den 6-Pin Stecker nicht anschließt, wird bei der 8800GT von einem schwarzen Bildschirm und einem lauten, schrillen Warnton auf diese Tatsache hingewiesen. Die Radeons bleiben ruhig, dafür erscheint auf dem Monitor eine rot blinkende Warnung, man möge doch bitte die Karte mit ausreichend Strom versorgen. Allen drei Karten gemein sind die beiden Dual-Link-DVI Anschlüsse und der TV-Out Ausgang.

8800GT





HD3870





HD3850







3) Architektur und technische Daten

Der RV670 basiert auf dem R600, von diesem erbt er die 320 5-Vec Shadereinheiten sowie die restlichen Architekturmerkmale. Aus Kostengründen verbaut AMD ein 256 Bit breites Speicherinterface und quetscht den Universal Video Decoder (UVD) mit in den nur noch halb so großen Chip. Die 55nm Fertigung bei TSMC ist ebenso neu wie die integrierte DX10.1 Unterstützung (Shader Modell 4.1) und Powerplay.
Der G92 ist ein minimal überarbeiteter G86, dieser wiederum basiert auf dem G80. Wirkliche Neuerungen sind aus architektonischer Sicht somit auch hier nicht vorhanden, jedoch nutzt der G92 nun ebenfalls ein 256 Bit Interface. Die vom G86 übernommene HD-Beschleunigung findet sich ebenso in den 754 Millionen Transistoren wieder wie das Shader Modell 4.0 (DX10.0). Ein PCIe-2.0-Interface und 65nm Strukturbreite runden den Chip ab.






4) Leistungsaufnahme

Egal ob X1k oder HD2900 - AMDs letzte Generationen waren alles andere als sparsam, gerade der R600 Chip schluckte exorbitante Mengen an Strom. Mit der Neuauflage RV670 wollen die Kanadier diesen Kritikpunkt ausmerzen. So wird der Chip im 55nm statt im 80nm Verfahren gefertigt und das aus dem Notebooksektor übernommene Powerplay soll für eine rekordverdächtig niedrige Leistungsaufnahme sorgen. Im 2D-Betrieb senkt eine HD3870 den Chiptakt dank diesem Feature von 775 MHz auf 300 MHz, zusätzlich verringert sich die VCore von 1.33 Volt auf 1.24 Volt, nur der GDDR4-Speicher rennt konstant mit 1125 MHz. Eine HD3850 verfügt über nahezu identische Features - der Chiptakt fällt zwar ebenso auf 300 MHz, die Spannung wird allerdings von 1.21 Volt auf 1.01 Volt heruntergesetzt.

War der G70 noch bekannt für seine Genügsamkeit, der G80 ist es definitiv nicht. Ein angekündigter Stromspartreiber ist nie erschienen und sämtliche Karten auf G80 Basis takten sich im 2D Betrieb noch nicht einmal herunter. Auch der neue G92 kennt zwar weder Spannungssenkung noch Taktumschaltung und es wird weiterhin GDDR3-RAM angesteuert, dafür stehen nun 65nm statt 90nm Strukturbreite und eine VCore von 1.05 Volt auf dem Papier. Dies dürfte alleine schon für eine drastisch verringerte Leistungsaufnahme sorgen.

Um das System an den Rand seiner maximalen Leistungsaufnahme zu treiben, wurde die jeweilige Grafikkarte mit dem Scanning for Artifacts des ATI Tools in der Version 0.274b belastet, welches auch gleichzeitig einen der beiden Prozessor-Kerne belastet. Der zweite CPU-Kern sowie das RAM und der Chipsatz wurden zudem mit Prime95 Blend in der Version 25.2 zum Stromverbrauch getrieben.


Eine 8800GT genehmigt sich laut nVidia im Lastbetrieb bis 115 Watt, die beiden Radeons 106 Watt respektive 98 Watt. In der Praxis bestätigen sich diese Werte, alle drei GPUs begnügen sich gerade idle mit deutlich weniger Strom als ihre Vorgänger, unter Last verlangt es einer HD3870 samt sonstiger Komponenten nach maximal 185 Watt, eine 8800GT braucht kaum mehr, die 8800GTX dagegen säuft Strom wie ein V8-Motor Sprit. Wirklich grandios sind aber die idle-Werte der beiden HDs, das komplette System zieht mit der kleinen Version nur phänomenale 94 Watt aus der Steckdose! Die 8800GT bringt es auf akzeptable 120 Watt, während eine 8800GTX satte 167 Watt konsumiert.
Wer seine 8800 im 2D-Betrieb zu einer geringeren Leistungsaufnahme überreden will, der kann mit Hilfe des Rivatuners (Neustart erforderlich!) einen Großteil der Shadereinheiten deaktivieren und untertaktet die Karte gleich mit. Undervolten funktioniert nur per BIOS-Mod, mit dem NiBiTor kann man die VCore der 8800GT auch in leicht übertaktetem Zustand auf stabile 0.95 Volt herunterfahren, dazu später mehr.
Die neuen Radeons werden von den gängigen Tools noch nicht erkannt, so dass undervolten nicht möglich ist. Einzig ein weiteres Absenken des Taktes bietet sich an, dies bringt aber nur wenige Watt.​


5) Referenz-Kühlung


Wir haben alle drei Pixelschleudern in einem ultra-silent Testsystem (siehe bei 7)) auf ihre Lautstärke geprüft. Die Bewertung erfolgt nach sehr hohen Maßstäben, denn unhörbar ist aus oder kaputt. Der Großteil der Käufer wird die Probanden als unhörbar empfinden, idle wie load. Zumal das Scanning for Artifacts des ATI Tools zusammen mit Prime95 Blend getrost als Worst Case Szenario angesehen werden kann, beides ließen wir 30 Minuten laufen um das komplette System und die GPU maximal aufzuheizen. Wer vergleichsweise anspruchslose oder ältere Titel wie Unreal Tournament 3 oder Half Life 2 spielt, der wird gut und gerne 10° unter dem hier im Folgenden genannten Werten liegen. Um die Temperaturen aufzuzeichnen musste der Rivatuner v2.06 zeigen, was er kann.

HD3870

Auf den ersten Blick glaubt man bei der HD3870 den Kühler einer X1950XTX vor sich zu haben. Doch bei genauerem Hinsehen finden wir einige Unterschiede - AMD verzichtet auf die Heatpipe und der aus Kupfer gefertigte mit Lamellen bestückte Kühlkörper ist etwas kleiner. Geblieben ist die großflächige nun mit Lüftungsschlitzen nahe der Slotblende versehene Plastikummantelung, auch der Radiallüfter mit 75mm Durchmesser und 0.6 A wurde weiter verwendet. Erwähnenswert ist die separate Passivkühlung der Spannungswandler und des VRAMs durch verschraubte Kupferschienen samt Wärmeleitpads sowie die Tatsache, dass die heiße Abluft nach dem Prinzip der bekannten Arctic Cooling Silencer Serie aus dem Gehäuse geblasen wird, zwei weitere Fortführungen althergebrachter Methoden. Glücklicherweise erinnert nur die Optik an eine X1950XTX, die Lautstärke liegt deutlich darunter. Einzig der Kickstart beim Booten lässt erahnen zu welch höllischem Lärm diese Konstruktion in der Lage ist. Solange der geneigte User einzig mit Word, Internet und Co beschäftigt ist, könnte man dem Dual-Slot-Layout fast silent Tauglichkeit attestieren, in unserem Testrechner war die HD3870 aber aufgrund der surrenden und röhrenden Frequenz leider problemlos heraus hörbar und störte mit der Zeit. Der Lüfter dreht idle mit 23% (es ist uns übrigens nicht gelungen den Lüfter zum Stillstand zu überreden, stellt man die Drehzahl auf 0% rotiert der Propeller weiter fröhlich wie zu vor), die Temperatur liegt bei 58°C. Startet man ein Spiel oder einen Benchmark, dreht der kleine Rotor auf und wird deutlich lauter. Besonders nervig ist das heulende Auf- und Abschwellen der Drehzahl, welche unter Last munter zwischen 40% und maximal 54% hin und her pendelt - generell wirkt die ganze Steuerung nervös. Hier wäre eine feste Geschwindigkeit angenehmer für die Ohren, zumal die GPU mit bis zu 93°C relativ heiß wird. Setzt man nämlich manuell eine Drehzahl von 45% fest, ist das Geräusch deutlich weniger penetrant und die Temperatur bleibt kurioserweise sogar 2°C unter der Automatik. Leise ist die HD3870 dank dieser Maßnahme aber auch weiterhin nicht. Man muss ATI jedoch definitiv zugestehen, dass das neue Flagschiff im Vergleich zu den Vorgängern nur ein laues Lüftchen von sich gibt und den Kunden nicht mit einem Orkan verschreckt.





HD3850

Gegen die optisch wuchtige Kühlung der großen Schwester mutet die Lösung der HD3850 fast schon lächerlich an. So wird dank des schlanken Kühlers nur noch ein Slot blockiert und die Größe des Lüfters schrumpft auf 60mm, das Prinzip bleibt aber das Gleiche. Aus dem Gehäuseinneren wird Luft angesaugt und durch Kupferlamellen über die GPU geleitet. Ein kleines Nadelkissen kümmert sich zusätzlich um die Spannungswandler während die Speicherchips passiv von der Bodenplatte auf Temperatur gehalten werden. Der Luftauslass des Kühlers krümmt sich kurz vor der Slotblende in Richtung Gehäusemitte, so staut sich die Abluft nicht an - eine gute Idee. Wie die HD3870 kommt auch die kleinere Version durch einen 12 Volt Start in die Gänge, dann regelt sie sich auf 16% herunter. So sehr sich unsere Ohren auch anstrengten, wir konnten die HD3850 höchstens erahnen, so unhörbar leise ist der Radiallüfter im idle-Zustand - nur passiv ist leiser! Die Chiptemperatur befindet sich mit 54°C auf dem Niveau der HD3870. Ebenso erfreulich verhält sich die Konstruktion unter Last, die Drehzahl wird gemächlich in sehr feinen 1-2% Schritten bis maximal 53% angehoben, das reicht um die GPU auf 92°C zu kühlen. Ein Schwanken der Drehzahl konnte ebenso wenig festgestellt werden wie ein unsauberes Laufgeräusch. Zwar hört man den Lüfter der Radeon aufgrund seiner recht hohen Frequenz minimal vor sich hin säuseln, eine leisere Referenzkühlung haben wir aber noch nicht bejubeln dürfen, selbst der legendäre Quadro-Kühler (7900GTX/GTO) kann da nicht mithalten.





8800GT

Schon vor dem Release häuften sich die Gerüchte, der Kühler des G92 sei zu schwach, die GPU zu hitzig oder gleich beides zusammen. Das finale Produkt straft diese Spekulationen Lügen. nVidia nutzt ein vorwiegend auf Aluminium basierendes kompaktes Single-Slot-Design mit einer 65mm-Turbine. Bei dieser fast durchgehend geschlossenen Konstruktion kann heiße Luft nur in der Nähe der Slotblende schräg nach oben und durch ein paar Schlitze entweichen. Für die Kühlung der Spannungswandler und des Speichers sorgen der Kühlerboden und ein geringer Luftstrom des Lüfters. Der Propeller rotiert nach dem Anlaufen mit 30% respektive 1670rpm. Damit agiert er ein bisschen lauter als die HD3870, das Laufgeräusch der Geforce ist dafür subjektiv deutlich angenehmer, aber hörbar. Muss die GPU schuften, steigt deren Temperatur von 50°C auf maximal 94°C, die der Umgebung stoppt bei 74°C. nVidias Lüftersteuerung greift erst bei 88°C, die Drehzahl wird ab dieser Schwelle fast linear bis maximal 41% bzw. 2250rpm angehoben. Auch hier übertrifft man rein von der Lautstärke her wieder die Konkurrenz, die konstante Drehzahl sowie die anliegende Frequenz empfinden die meisten User aber als angenehmer. Wie heißt es so schön: Design follows function. Die eher simpel anmutende Konstruktion ist zwar hörbar, arbeitet aber effizient und ergänzt den kühlen Chip nahezu optimal.


Alle drei Pixelprozessoren knacken die mittlerweile übliche 90°C Grenze. Diese Temperatur erscheint dem ein oder anderen vielleicht zu hoch, da sich die Hersteller dessen jedoch bewusst sind und trotzdem zwei Jahre Garantie geben sind die Werte aber nicht weiter bedenklich - auch unser Langzeittest über mehr als vier Monate mit einer passiven X1900XT bei über 100°C bestätigt das. Absolute Ruhe erreichte leider keiner der Kandidaten, nur die HD3850 gibt sich idle nicht zu erkennen. Den Versuch, alle Referenzkühler unter Last auf absolutes ultra-silent Niveau zu trimmen, haben wir sehr schnell aufgegeben, mehr als 100°C mögen zwar noch nicht schädlich sein, anfreunden können sich mit einer dreistelligen Zahl im Rivatuner unter dem Punkt Core temperature aber nur wenige. Anzumerken ist, neben der Tatsache, dass alle Lüfter mit einem Mini-4-Pin Anschluss versehen sind, eine Art leises Fiepen oder gar Tuten unter Last verursacht durch die Spannungswandler. Gerade im folgenden Test mit einem passiven Kühlkörper störte dieses Geräusch sehr.


6) Alternative Kühler


Achtung! Alle Arbeiten auf eigene Gefahr!

Nachdem wir uns bereits eingehend mit den verschiedenen Referenzkühlern beschäftigt haben und dabei feststellen mussten, dass eine Lautstärke, die unseren Ohren genehm ist, nur durch inakzeptable 3D-Temperaturen ermöglicht wird, wenden wir uns dem Zubehörmarkt zu. Die HD3800 wie auch die 8800GT verfügen über die identischen Bohrungen rund um die GPU wie ihre jeweiligen Vorgänger Radeon X19x0 und Geforce 79x0. Daher haben wir uns einige kompatible Kühler ausgewählt und diese auf der HD3870 und 8800GT montiert. Als Wärmeleitpaste kam wie in allen Tests Arctic Silver 5 zum Einsatz, den Speicher und die Spannungswandler der 8800GT hielten Heat Sink Kühler von Zalman auf Temperatur, bei der HD3870 nutzten wir die vorhandenen Kühler. Um die Karten zum Kochen zu bringen, kam die bei 4) bereits genannte Methode zum Einsatz, die Raumtemperatur schwankte während der Tests zwischen mit 21.3°C bis 21.7°C in vernachlässigbaren Regionen.
Hier als Beispiel den idle und load Zustand der 8800GT zusammen mit dem Zalman VF-900Cu bei 5 Volt:


Erschreckendes offenbarte sich uns bei der 8800GT und der HD3870 nach der Demontage des Referenzkühlers. Beide GPUs waren in Wärmeleitpaste geradezu ertränkt worden, die verwendete Menge hätte für zehn oder mehr Chips ausgereicht! Die Wärmeleitpads der Radeon fanden wir sorgfältig aufgebracht vor, die der 8800GT dagegen wirkten wie aus der Bastelstunde im Kindergarten. Basteln war bei der Geforce ohnehin angesagt, satte zwölf Schrauben wollen entfernt werden, bevor sich der Kühler abnehmen lässt - sofern man sich nicht scheut, sanfte Gewalt anzuwenden, ohne kann man den Kühlkörper nämlich bei keiner der Karten vom PCB trennen.


Verwendete Kühler und Lüfter:

  • stock (auto)
  • Artic Cooling Accelero S1 aktiv (2x Scythe Kaze Jyu 100mm @ 5 Volt bzw. 571rpm)
  • Artic Cooling Accelero passiv
  • Arctic Cooling nV Silencer 5 (@ 6 Volt)
  • nV Silencer 5 Rev.3
  • Thermalright HR-03 (Scythe S-Flex SFF21F @ 5 Volt bzw. 534rpm)
  • ZalmanVF-900Cu (@ 5 Volt bzw. 1437rpm)

Der Accelero S1 in der passiven Version ist natürlich unhörbar. In der aktiven Version bestückten wir den Schweizer mit gleich zwei Kaze Jyu, der HR-03 wurde einem S-Flex ventiliert. Alle drei Scythe Lüfter sind absolut frei von störenden Nebengeräuschen wie klackern, schleifen oder brummen. Bereits außerhalb des Gehäuses sind sie aus 10cm Entfernung praktisch lautlos, mit Gummisteckern entkoppelt auf den Kühlern und verbaut im gedämmten Antec P180 Gehäuse ohnehin. Der Klassiker von Zalman dagegen ist auch bei 5 Volt noch leicht hörbar, schlicht aufgrund der Drehzahl des nur 15mm dicken und leicht schnarrenden 0.14 A Lüfters. Unser Exemplar scheint zwar eines der wenigen zu sein, welches keine Schleifgeräusche verursacht - für Freunde der Unhörbarkeit trotzdem nur bedingt zu empfehlen. Der Oldie aus der Silencer Serie passt zwar an den 4-Pin Anschluss der der 8800GT, drehte aber immer mit voller Drehzahl. Auch per Adapter funktionierte die Lüftersteuerung nicht, so dass wir den nV Silencer 5 schließlich mit der Zalman MFC1 auf 6 Volt gedrosselt haben.




Wieder einmal bestätigt es sich - der Accelero S1 ist schlicht der beste Luftkühler am Markt, egal ob aktiv oder passiv. Die 8800GT verfügt offensichtlich über die kühlste GPU, während die HD3870 ihre hitzigen R600 Gene nicht verbergen kann. Aktiv belüftet drückt der S1 die Lasttemperatur des G92 unter den idle-Wert der Referenzkühlung, im passiven Betrieb senkt er die Lasttemperatur satte 20°C. Kaum weniger beeindruckend fallen die Resultate bei der HD3870 aus. Aktiv erzielte 63°C sind ein sehr guter Wert, passiv gekühlt zeigt sich der RV670 als ungemütlicher Kandidat und so unterbietet der S1 die Referenzkühlung nur knapp.
Thermalrights Edelkühler ist zwar optisch dem S1 meilenweit voraus, dafür benötigt er mehr Platz, ist teurer und schwerer. Auch die Kühlleistung lässt im direkten Vergleich zu wünschen übrig, selbst passiv ist der S1 load auf der 8800GT nur 10°C wärmer als der aktive HR-03, zusammen mit den zwei Kaze Jyu deklassiert der S1 den Thermalright. Auf der hitzigen Radeon verringert sich der Abstand allerdings deutlich. Beide GPUs werden gut gekühlt, Besitzer eines High Risers können diesen somit problemlos weiter verwenden.
Der Zalman hat mittlerweile Kultstatus erreicht, doch auch an der Legende nagt der Zahn der Zeit. Zwar erreicht er annähernd die Werte des HR-03, bedenkt man jedoch die Geräuschkulisse des Koreaners, so wird klar, dass der VF-900 angesichts der Konkurrenz zum Altmetall gehört.
Der nV Silencer passt, wie der Name schon andeutet, nur auf die 8800GT. Die HD3870 verfügt über eine abweichende Anordnung der Speicherchips, zudem ist er Silencer schlicht zu lang und kollidiert mit der Slotblende. Die kompatible Geforce kühlt der vermeintliche Rentner überraschend gut, mit 73°C liegt er knapp vor dem passiven S1.

Interessant verhielten sich die Referenzkühlungen nach dem eigentlichen Test. Bei der Remontage verwendeten wir ebenfalls Arctic Silver 5. Anschließend schickten wir die Karten noch einmal auf den Teststand. Die sorgfältig angewendete Paste resultierte bei der HD3870 in einer Verringerung der Lasttemperatur von 7°C, bei der 8800GT sprangen 5°C heraus. Zusätzlich stieg die Drehzahl bei beiden nun nicht mehr über 50%. Offensichtlich isolierte die verschwenderische Nutzung des originalen Kontaktmittels die GPUs.




7) 2D/3D-Modus


Achtung! Alle Arbeiten auf eigene Gefahr!

Der größten Kritikpunkte der 8800GT sind der fehlende 2D-Modus und der vergleichsweise hohe Stromverbrauch auf dem Desktop. Abhilfe schaffen hier diverse Tools. Unter zur Handnahme des Rivatuners erlernt die Geforce sich abhängig vom Füllstand des Videospeichers hoch und runter zu takten.


Nach der Installation der aktuellen Version 2.06 erscheint nach einem Klick auf das Tray-Icon das Hauptfenster. Damit die Taktumschaltung immer greift, packen wir das Tool via Startup registry Key in den Autostart. Ein Rechtsklick auf den Eintrag MinClockLimit und ein Klick auf das graue Lämpchen lässt uns ab sofort freie Hand die Taktfrequenzen sind nun bis auf den Nullpunkt absenkbar.


Zurück zum Main-Reiter. Dort klickt man auf das kleine Dreieck rechts neben dem unteren Customize, aus den sechs erscheinenden Möglichkeiten wählt man die System Settings.


Der Reiter Overclocking ermöglicht die Justierung der Taktfrequenzen. Die Werte für 2D und 3D sollten nur schrittweise gesenkt und erst nach einer peniblen Stabilitätsprüfung (siehe 13)) eingetragen werden! Zuerst editiert man durch verschieben der Schalter und klicken auf Übernehmen die idle-Taktraten, per Apply overclocking at Windows startup werden diese immer nach dem Booten angelegt. Mit einem Klick auf die Diskette bei Overclocking Profile Settings sichert man die Werte und vergibt einen Namen, 2D etwa. Ebenso verfährt man für die 3D-Werte, allerdings ohne einen Haken bei Apply overclocking at Windows startup.


Weiter geht es über das grüne Pluszeichen im übergeordneten Reiter Launcher. Hier wählt man Regular item aus, im erscheinenden Fenster fügt man per Associated overclocking profile und driver-level einmal den 2D- und einmal den 3D-Wert ein, sinnigerweise benennt man beide auch so. Beide erscheinen nun in der Liste der zu launchenden Settings.


Dieses Mal nun bemüht man das kleine Dreieck rechts neben dem oberen Customize und dann das Symbol mit der Lupe. Über Setup und Plugins hangeln wir uns bis zu Aktivierung der VidMem durch und aktivieren diese per Häkchen. Per Rechtsklick Setup auf den im Hardware Monitor erscheinenden Punkt local videomemory usage erscheint wieder ein Fenster mit dem bekannten grünen Pluszeichen. Wie gehabt vergeben wir einen Namen, bei value (MB) hat sich 20 als sinnvoll erwiesen. Wir lassen zwei Mal item mit starten, bei upward threshold wählen wir das 3D-Profil, bei downward threshold dagegen die 2D-Taktraten.


Der anschließende Praxistest zeigt, dass die 8800GT läuft idle nun mit reduziertem Takt läuft, in unserem Fall mit 150/378/300 MHz. Sobald aber mehr als 20 Mb im Speicher sind, marschiert die Geforce mit voller Leistung. Damit auch alles ordnungsgemäß klappt, ist ein Neustart des Rivatuners notwendig. Die fertige Taktumschaltung befindet sich in Form eines Registry-Keys im Anhang *klick mich*






8) Modifizierte Lüftersteuerung und Undervolting

Achtung! Alle Arbeiten auf eigene Gefahr!

Ebenfalls suboptimal ist die Temperatur der 8800GT sowie die damit einhergehende Lärmkulisse während dem Spielen. Die beste Möglichkeit, dies zu ändern, ist das so genannte Undervolting, also das Absenken der Spannung des Grafikprozessors per BIOS-Mod. Leistung verliert man dadurch keine, da sich die Spannung aber quadratisch auf die Abwärme auswirkt, winken eine kühlere GPU und ein leiserer, weil langsamer drehender Lüfter. Mit der aktuellsten Version des NiBiTors lässt sich die VCore der Geforce von 1.05 Volt auf 0.95 Volt reduzieren. Hierfür öffnet man über Tools, Read BIOS, Select Device die Grafikkarte aus. Mit den Reitern Clockrates und Voltages und deren Unterpunkten Extra setzt man die Werte für die Taktraten und die Chipspannung. Wir verwendeten die Referenzfrequenzen von 600/1500/900. Hinzu kommt noch eine modifizierte Lüftersteuerung. Bei Temperatures eröffnet der Punkt Fanspeed IC eine Manipulierung der Regelung. Unser BIOS stapelt tief: idle rotiert der Lüfter mit 20% seiner maximalen Drehzahl, ab 61 63°C steigen die Umdrehungen pro Minute linear mit an. Wie stark die Drehzahl dabei ansteigt, ist abhängig vom TRangeSlope-Wert. Je höher TRangeSlope, desto flacher die Drehzahlkurve. min Duty cycle definiert den Startwert des Lüfters, TMin mit einer im BIOS hinterlegten Messwert-Kompensation von acht Grad Celsius addiert stellt die Schwelle dar, ab der die Lüfterdrehzahl bei Automatic Speed zusammen mit der Temperatur ansteigt. Der Wert TCrit legt fest, ab welcher Temperatur der Lüfter mit vollen 100% röhrt.
Wir empfehlen, das eigene BIOS zu öffen und zusätzlich unsere modifizierte Version. Nun die Werte bei der Spannung und der Lüftersteuerung an unser BIOS angleichen, sonst kann es passieren, dass die PCI ID nicht korrekt ist - die Folge wäre, dass die Karte nicht mehr 3D-tauglich ist.
Mit File, Save BIOS speichert man erst das originale (!), dann das veränderte BIOS zusammen mit NvFlash v5.57 auf eine bootbaren Diskette kopieren, der Name darf maximal acht Zeichen enthalten. Mit folgendem Parameter flasht man abschließend das neue BIOS auf:

nvflash -5 -6 name.rom *Download des BIOS

Wir kombinieren die selbst erstellte Taktumschaltung mit dem BIOS-Mod. Das Ergebnis ist grandios:


Die Karte wird deutlich kühler, leiser und der Strombedarf geht stark zurück - was will man mehr?



9) Benchmarks


Für die Benchmarks kam folgendes Testsystem zum Einsatz:

  • Intel Core2Duo E6300 @ 2.4 GHz @ 1.088v (idle 2.0 GHz @ 1.104v)
  • Gigabyte 965P-DS3 Rev.3.3
  • 2x 1024 Mb Kingston DDR-667 CL5
  • Creative SB Audigy 2
  • Be Quiet P5 520W
  • komplettes System

  • X1950Pro/512 (575/690)
  • X1900XT/512 (621/720)
  • HD3850/256 (669/829)
  • HD3850/512 (simuliert durch eine HD3870 @ 669/829)
  • HD3870/512 (777/1126)
  • 7950GT/512 (550/700)
  • 8800GT/512 (602/1512/900)
  • 8800GTX/768 (575/1350/900)
  • Intel Core2Duo E6300 @ 2.4GHz bei 1.088v (idle @ 2.0GHz bei 1.104v)
  • 2 x 1024Mb DDR2-667 CL5
  • Gigabyte 965P-DS3 (+0.1v NB)
  • Creative SB Audigy 2 ZS
  • Be Quiet P5 520W
  • Windows XP Professional SP2 32Bit
  • Forceware 169.21 (Hohe Qualität, Optimierungen aus)
  • Catalyst 7.12 (A.I. Standard, Optimierungen aus)

Verwendete Spiele und Benchmarks:

  • 3D Mark 2006 v1.0.2 free
  • Call of Duty 4 v1.4 (reale Spielszene)
  • Crysis v1.1 (integrierte Timedemo Island)
  • FEAR v1.08 (integrierte Benchmarkfunktion)
  • Need for Speed Pro Street Demo (reale Spielszene)
  • Prey v1.4 (HWZone-Timedemo)
  • Unreal Tournament 3 Demo Beta (reale Spielszene)
  • World in Conflict Demo (integrierte Benchmarkfunktion)

Alle Spiele wurden, sofern nicht angegeben, mit maximalen Details getestet!



Die realen Spielszenen sind mindestens 3 Minuten lang und sehr anspruchsvoll. Jedes Setting zeichnen wir drei Mal mit Fraps v2.92 auf und bilden daraus einen Mittelwert um Messfehler zu vermeiden bzw. zu erkennen. Sämtliche Werte sind auf ganze Fps auf- oder abgerundet.


3D Mark 06

http://www.abload.de/img/3dmark060up.jpg​

Futuremarks synthetischer Klassiker darf natürlich nicht fehlen. Zwar verfügt er über keine reelle Spieleengine, so dass die Ergebnisse mit Vorsicht zu genießen sind, eine wirkliche Vergleichbarkeit verschiedener GPUs ist nicht möglich. Der 3D Mark 2006 bildet aber einen guten Maßstab um schnell und einfach eine Leistungsprognose abgeben zu können. Die CPU erreicht hierbei einen Score von 2066 Punkten.


Die HD Serie überzeugt, sämtliche Vorgänger werden deutlich geschlagen, die HD3870 nähert sich der 8800GT. Diese wiederum kapituliert an der 10k Grenze und kommt der GTX gefährlich nahe, welche diese Schwelle überschreitet.


Call of Duty 4


Die Ehre ruft uns zurück aufs Schlachtfeld - Call of Duty 4, wir kommen! Infinity Wards versetzen uns nicht nur zeitlich in die Gegenwart, auch die aufgemotzte Grafikengine des Vorgängers befindet sich mit atmosphärischen Lichtspielen und fantastischen Modells ebenso wie der eindringliche Sound auf dem aktuellen Stand der Technik. Mit über 400 Mb entspricht der Speicherbedarf etwa einem Drittel unserer verballerten Munition, denn unser Alter Ego Sergeant Paul Jackson holzt sich 3 Minuten lang mit Rambo Manier durch Al-Asads Mohrhuhn gleiche Schergen und den Level War Pig.


Die HD3850/512 liegt mit AA/AF satte 20% vor dem gleichen Chip mit weniger Speicher, trotzdem muss auch sie sich der alten X1900XT beugen. nVidias Riege liegt knapp in Führung, der G92 kann sich mit Qulitätssettings vor der HD3870 positionieren, fällt aber bis zu 22% hinter die GTX.


Crysis

http://www.abload.de/img/crysisjwk.jpg​

Warum stirbt man in Crysis trotz Nano Suit schneller als man Maximum Armor sagen kann? Weil die grafische und akustische Qualität derartig grandios und brillant ist, dass man die Gegner trotz hämmernden Kalaschnikows vor lauter Staunen schlicht vergisst. Die Macher von Far Cry ziehen im wohl meist erwarteten Shooter aller Zeiten sämtliche Register, die in Sachen bombastischer und phänomenaler Inszenierung nur denkbar sind - leider befinden sich KI und Story nicht auf dem selben Level. Cryteks technisches Meisterwerk bringt den hier genutzten GPU-Benchmark mit sich, das eigentliche Spiel läuft allerdings rund 15-25% langsamer und verlangt den Grafikkarten nebenbei noch fast 400 Mb ab.


Offensichtlich haben die Jungs von nVidia bei Crytek nicht nur Werbung für die eigene Chipschmiede programmiert, sondern die popagierte Zusammenarbeit auch für Optimierungen genutzt, denn die 8800GT liegt mit bis zu satten 53% vor der HD3870. Die HD3850/512 zieht der Version mit 256 Mb um 7-14% davon, mit AA/AF sind aber alle RV670 zu langsam. Eine 8800GT muss sich der GTX um maximal 20% beugen, während eine 7950GT mit unspielbaren 17Fps noch nicht einmal halb so viel packt. Wer das Spiel ingame allerdings wirklich flüssig genießen möchte, der sollte sich selbst mit einer 8800GT auf die 1024er Auflösung beschränken, Besitzer einer High-End CPU a la E6850 und einer 8800Ultra können sich auch an 1280x1024 wagen.



FEAR

http://www.abload.de/img/fearv1l.jpg​

Wer Angst vor kleinen Mädchen hat, sollte Monoliths Schocker im Regal stehen lassen, die Schreckmomente sorgen für eine drastisch erhöhte Pulsfrequenz. Die Grafik lässt das Blut zwar ebenfalls in Wallung geraten, aber nicht aus Angst, sondern vor allem dank der Zeitlupenfunktion und den wahnwitzigen Partikeleffekten. Nie war der Einsatz der von uns favorisierten Schrotflinte auf surreale Art und Weise schöner und effektvoller, nie eine Shooter-KI schlauer. Die immer gleichen Räume des unübersichtlichen Leveldesigns verzögern allerdings die Hatz nach Paxton Fettel ebenso wie die Slow motion. Unsere Lieblingswaffe kommt im integrierten Performancetest zwar nicht vor, verwenden tun wir ihn trotzdem.


Einmal mehr zeigt sich die Kantenglättungsschwäche der HD3800 Familie. Eine X1900XT/512 überholt beide HD3850/512 und positioniert sich an dritter Stelle, während die 8800GT auftrumpft und mit minimal 31Fps ein durchgehend absolut flüssiges Spielerlebnis ermöglicht. Ingame kann sich die HD3850/512 dank bis zu 370Mb Speicherverbrauch leicht von der 256Mb Schwester absetzen. FEAR steht aber nicht nur auf Shaderpower und 512Mb, sondern auch auf Bandbreite. Daher liegt dieses Spiel der HD3870 ebenso gut wie der 8800GTX, 27% bzw. 24% Unterschied zu den schwächeren Modellen ihrer Art zeigen, dass GFLOP/s eben nicht alles sind.




Need for Speed - Pro Street

http://www.abload.de/img/nfs_picdtv.jpg​

Dröhnende Motoren, quietschende Reifen und beißender Gummigeruch liegen in der Luft - ein neuer Need for Speed Titel steht in der Garage. Zwar basiert der Titel weiterhin auf der Underground Engine, jedoch ist die Optik meist über jeden Zweifel erhaben: Extrem detaillierte Autos, deren Lack und Scheiben die komplette Umgebung spiegeln und realistischer Staub würden den neuesten Ableger von EAs Erfolgsserie zu einem richtigen Hingucker machen - wären da nicht die öden und detailarmen Landschaften. Der Sound der Motoren lässt dafür die Wände wackeln und man spürt förmlich wie der Fahrtwind am Rennwagen zerrt, denn das Geschwindigkeitsgefühl wirkt ebenso echt wie der Ärger über die schwammige Steuerung und das nervige Menü. Wir rasen die komplette Strecke Nevada Desert entlang und zeigen der mäßigen KI den Rückspiegel, während sich knapp 280 Mb im Videospeicher sammeln.


Pro Street ist kein allzu anspruchsvoller Titel, selbst eine 7950GT erreicht in der kleinsten Auflösung passabel spielbare Werte. Für 1280x1024 muss es dann aber schon eine HD3800 sein, wer auch noch AA/AF hinzuschalten möchte, sollte einer 8800 den Vorzug geben. Mehr als 256 Mb erzeugen zwar höhere, nicht aber flüssigere Fps.



Prey

http://www.abload.de/img/prey7kl.jpg​

Der innovative Shooter rund um den Indianer Tommy, der seine Freundin und sich vor Aliens rettet, basiert auf Doom 3 Engine von id Software, welche erstmals im namensgebenden Horrorspiel zum Einsatz kam. Stencil Shadows und sehr organische Strukturen machen die Hatz durch fremde Welten optisch zu einem Genuss. Die verwendete Timedemo führt den Cherokee durch das Raumschiff der Außerirdischen und zeigt diverse Schießereien und Physikspielereien, hierbei fallen knapp 400 Mb VRAM an.


Den HDs schmeckt die Doom3-Engine überhaupt nicht, egal ob mit oder ohne AA/AF. Den enormen Speicherbedarf kann die HD3850/256 nicht lokal decken und fällt 20% hinter die besser bestückte Schwester zurück. Die 8800er deklassieren alle anderen GPUs, die GTX liegt keine 10% vor der GT.


Unreal Tournament 3

http://www.abload.de/img/ut3sht.jpg​

Double Kill, Flak Cannon und Damage Amp - das Spielprinzip, die Waffen und der Sound von Unreal Tournament 3 befinden sich über dem Niveau des hoch gelobten Vorgängers, neu ist die bombastische Unreal Engine 3. Der Speicherverbrauch liegt bei nur rund 200 Mb, das Fps-Limit haben wir für den Test deaktiviert. Auf der Map Shangri La müssen sich fünf Masterful Bots vermöbeln lassen. Drei Minuten reichen um ihnen zu zeigen, wo der Impact Hammer hängt.


Eben lag die Engine den HD3800 nicht, nun funktioniert die Taktumschaltung nicht korrekt bis zu drei Mikro-Ruckler pro Sekunde und niedrige Fps lassen keinerlei Spielspaß aufkommen. Möglicherweise schafft der Catalyst 8.2 (der 8.1 tat es nicht) oder die Vollversion von UT3 Abhilfe. Während die 8800GT aufgrund ihrer vergleichsweise geringen Speicherbandbreite mit höheren Einstellungen leicht schwächelt, bleibt die GTX unbeeindruckt und fällt fast nie unter 40Fps optimal für den Kampf im Internet.


World in Conflict

http://www.abload.de/img/wicxdi.jpg​

Der kalte Krieg ist vorbei? Mitnichten, World in Conflict macht ihn mit sehenswerten, herrlich rauchigen Explosionen, grandioser Beleuchtung und knackigen Texturen heiß und aktuell wie nie zuvor. Zusammen mit der ebenfalls gelungenen Physiksimulation und satten 350 Mb Speicherhunger ist diese Engine ein harter Brocken für das komplette System. Wir verwenden die integrierte Benchmarkfunktion, welche deutlich anspruchsvoller als das eigentliche Spiel ist.


Dieser Titel zeigt deutlich: Es gibt Spiele, die trotz grafischer Opulenz vor allem eine sehr potente CPU benötigen, das 512 Mb heutzutage Pflicht sind und das beides zusammen die regelrechte AA-Allergie der RV670 nicht kompensieren kann. Ohne Kantenglättung und den anisotropen Filter ist World in Conflict außerhalb des Benchmarks auf allen Karten gut spielbar, auf den beiden 8800 ist es auch mit AA/AF ein durchgehender Genuss.​
 
Zuletzt bearbeitet von einem Moderator:
TE
y33H@

y33H@

BIOS-Overclocker(in)
10) AA/AF-Skalierung

Nach den eigentlichen Benchmarks gehen wir nun ins Detail. Zuerst wollen wir wissen, wie gut die 8800GT und die HD3870 mit den verschiedenen Stufen des anisotropen Filters skalieren, also wie hoch der Fps-Verlust bei welcher Einstellung ausfällt. Wir setzen auf die Crysis Timedemo mit 1280x1024 Bildpunkten und mittlere Details.


Die Radeon verfügt über die klar schlechtere Texturierungsleistung (12.4 GTex/s) im Vergleich zur Geforce (33.6 GTex/s), dank der 25% höheren Bandbreite rendert die HD3870 scharfe Texturen aber mit einem geringeren Leistungsabfall.


Weiter geht es mit den gleichen Settings sowie den verschiedenen Kantenglättungsmodi. ATI bietet im Gegensatz zu nVidia mehrere Unteroptionen bei Super- und Multisampling, wir wählten bei Multisampling zusätzlich "Sharp", bei Supersampling "Qualität".


Der R600 lässt grüßen - die HD3870 bricht mit Kantenglättung extrem ein, die 8800GT verkraftet dieses Feature deutlich besser. Multisampling klappt in Crysis leider nicht wirklich, Supersampling dafür umso mehr. Sehr ärgerlich: die ATI Karte kennt offenbar nur Multisampling - aktiviert man Supersampling, ändert sich weder die Optik noch die Performance! Der Test mit weiteren Spielen bestätigte dies - hier sollten die Kanadier schnellstmöglich nach bessern!​



11) VRAM-Skalierung


Nächster Punkt ist der Vergleich der beiden HD3850 Varianten. Wir haben die Ergebnisse der Benchmarks noch einmal zusammengefasst und dem prozentualen Vorsprung des 512 Mb Modells hinzugefügt. Die Werte wurden mit den jeweils höchsten Einstellungen, die oben in den Benchmarks zu finden sind, ermittelt.


Es ist mehr als eindeutig 512 Mb sind Pflicht. Besonders mit Kantenglättung ist der Uunterschied mehr als deutlich. Je mehr Speicher benötigt wird, desto größer ist der Vorsprung.


Unterschied Speicherverbrauch nVidia vs. ATI

Welche Karte braucht bei gleichen Settings wohl mehr Video-Speicher? Wir haben den Rivatuner ausgepackt und nachgemessen, als Testkandidaten kamen die 8800GT und die HD3870 zum Einsatz beide verfügen über 512 Mb.


Es ist eindeutig, die Geforce Hand habt ihr Speicherpolster deutlich verschwenderischer. Leider erreichte uns das 8800GT/1024 Testsample nicht mehr rechtzeitig zum Test mit SSAA bekommt man nämlich die 512 Mb des G92 problemlos voll. Gerne hätten wir nachgeprüft, ob der so genannte VRAM-Bug der Geforce G8x noch vorhanden ist.



12) CPU-Skalierung

Eine übliche Frage in Foren ist die Folgende: Ich möchte auf diese Karte aufrüsten, reicht mein Prozessor noch? Zwar kann man hier pauschal keine Antwort geben, wer aber eine HD3870 oder 8800GT einbauen möchte, bekommt meistens die Antwort, dass ein Core2Duo mit mindestens 2.4 GHz oder ein Athlon 64 X² mit mindestens 2.8 GHz schon verbaut sein sollte. Wir haben diese weit verbreitete Annahme mit mehreren Taktraten auf einem E6300 mit 2 Mb Cache ausführlich getestet. Im Folgenden die Taktraten, die CPUs in den Klammern bieten im Spiele Alltag eine einigermaßen vergleichbare Leistung und sind nur als Orientierung zu verstehen.

  • 1.8 GHz (E4300/E2180 oder X² 4800+)
  • 2.2 GHz (E6420 oder X² 5600+)
  • 2.6 GHz (E6600/E6550 oder X² 6000+)
  • 3.0 GHz (E67x0/E68x0 oder fiktiver X² 6600+)
Als Benchmarks kamen die Crysis Timedemo Island und der integrierte Performancetest von World in Conflict zum Einsatz.


Der Edel Shooter gilt gemeinhin als absolut grafiklimitiert - meist zu Recht. Wer in 1280x1024 high samt 2xAA und 4xAF spielt, dem nützen auch Monster wie der QX9770 nichts, selbst eine 8800Ultra rendert mit diesen Settings ingame wie auch auf einem E4300 unterhalb der kritischen 30Fps Marke. Lässt man die zusätzlichen Qualitätssteigerungen weg, erhalten Besitzer einer 8800GT 12% mehr Fps beim Sprung von 1.8 GHz auf 3.0 GHz, eine HD3870 erfreut den Nutzer einem Plus von knapp 20%. Bereits in 1024x768 high zeigt sich, dass die CPU viel mehr zu Gesamtleistung beitragen kann als angenommen. Mit 31% mehr Power im Vergleich zu den 1.8 GHz geben die 3.0 GHz und die 8800GT ein harmonisches Doppel ab und Cryis läuft mit geschmeidigen 46Fps, die HD3870 bleibt weiterhin unter 30Fps. Befreit man die CPUs durch eine Reduktion der grafischen Qualität auf mittel von der bremsenden Grafiklast, steigt die Performance um über 40% an - flüssiger wird Crysis dadurch allerdings nicht mehr. Cryteks Meilenstein verlangt es also nicht nur nach einer High-End Grafikkarte, auch ein sehr leistungsstarker Prozessor verhilft konstant zu mehr Performance sofern man die Settings mit Bedacht wählt.


Wenig überraschend kommt der fiktive Dritte Weltkrieg aus dem Lager der Spiele, welches nach möglichst schnellen Prozessoren giert. Beide GPUs skalieren bis 2.6 GHz auch in 1280x1024 samt AA/AF hervorragend mit mehr Takt im Rücken, erst die 3.0 GHz offenbaren eine deutliche Limitierung durch den Grafikchip. Ohne AA/AF erzielt die 8800GT dank des 67% höheren CPU Taktes 52% mehr Fps, die HD3870 sogar satte 54% mehr.


Heutige Grafikkarten begrenzen sichtlich das Potential schneller Prozessoren. Bei beiden Titeln fällt auf, dass der Sprung von 2.2 GHz auf 2.6 GHz prozentual die höchste Steigerung der Fps mit sich bringt. Somit bestätigt sich die im ersten Absatz vorgetragene Annahme. Wer seine neue Grafikkarte voll ausfahren will, sollte diese mindestens mit einem E6550 oder einem X² 6000+ kombinieren, die Übertaktung eines kleineren Modells in diese Region hat natürlich den gleichen Effekt. Schnelleren Karten wie auch SLI und Crossfire stellt man am besten gleich einen Quadcore mit über 3.0 GHz zur Seite.


13) Overclocking-Skalierung


Besonders Mittelklasse Grafikkarten, die per Die-Shrink neu aufgelegt werden, gelten als übertaktungsfreudig - die HD3800 und die 8800GT bilden hier keine Ausnahme und so wollten wir wissen, welcher Takt und damit einhergehend wie viel Leistung sich aus diesen drei Karten kitzeln lässt. Hierfür nutzen wir das wieder das ATI Toolsche Scanning for Artifacts sowie diverse Spiele um die Stabilität bei erhöhten Frequenzen zu prüfen. Ein Takt gilt dann als stabil, wenn alle Spiele fehlerfrei laufen und das ATI Tool auch nach 30 Minuten keine gelben Punkte oder gar Errors anzeigt. Für alle drei Karten gibt es bereits gemoddete BIOS Varianten, die den Takt wie auch die Spannung anheben, im Kurztest resultierte eine solche Möglichkeit bei allen GPUs mit erfreulichen Ergebnissen. Im eigentlichen Test verzichteten wir jedoch darauf, da nur wenige Käufer ihren Grafikbeschleuniger derart modifizieren möchten und die gewonnene Leistung im Alltag einzig bei der HD3850 gerechtfertigt ist, diese katapultierte sich über das Niveau der großen Schwester. Bei den Radeons muss man beachten, dass Powerplay im übertakteten Zustand nicht mehr funktioniert. Deren Kern erreicht dann auch idle über 80° und der Lüfter agiert somit konstant hörbar bis nervend.

HD3850

Unser HD3850 Exemplar zeigte sich relativ taktfreudig und brachte es auf 742/1026 MHz, eine Steigerung von 11% respektive knapp 24%. Die Temperatur blieb bei maximal 93°C, der Lüfter beschleunigte auf gut hörbare 57%, der Strombedarf erhöhte sich um 17 Watt. Da sich die 512 Mb Version in einigen Benchmarks vor die 256 Mb Variante setzen konnte, haben wir Erstere mit in das Diagramm aufgenommen, um zu zeigen, ob man die geringere Speicherkapazität mit der Taktkeule ausgleichen kann.


Die HD3850 legt um bis zu 16% zu. Die 512Mb Version liegt aufgrund des größeren Speichers (CoD4) oder aufgrund der CPU-Limitierung (WiC und NfS) trotz geringerem Takt vorne, eine HD3870 bleibt unerreichbar. Offensichtlich limitiert die kleine HD vor allem die Bandbreite. Erhöht man nur den Chiptakt, erzielt man keinen großartigen Performancesprung - eine auf 669/1125 herunter getaktete HD3870 lag durchgehend vor dem übertakteten HD3850 Modell.

HD3870

Unser Exemplar der HD3870 ließ sich gerade einmal um magere 40 MHz bzw. 126 MHz übertakten. Den Lüfter interessierte das ebenso wenig wie Chiptemperatur, beide blieben unverändert. Einzig die Leistungsaufnahme stieg um 5 Watt.


Wenig überraschend bringen diese marginal erhöhten Frequenzen in der Praxis rein gar nichts, kein Spiel läuft auch nur ansatzweise spürbar schneller.

8800GT

Die Geforce glänzt in dieser Disziplin und schafft es auf 729/1726/1044 MHz. Die Karte schluckt in diesem Zustand in 3D über 20 Watt mehr. Da die Temperatur auf leicht bedenkliche 97°C und der 65mm-Propeller dreht daher hoch bis zur 47% Marke.


Crysis und FEAR danken die Übertaktung mit satten 20% mehr Fps, Need for Speed legt um 15% zu, Call of Duty 4 um immerhin 11%. Wie bei der HD3850 ist Overclocking also ein probates Mittel zur kostenlosen Leistungssteigerung.


14) Treiber und Bildqualität


Wie aufmerksame Leser bereits wissen, verwendeten wir für die Radeons die Catalyst Version 7.12. In Sachen Performance ist es je nach GPU-Generation von großer Bedeutung welcher Treiber zur Pixelberechnung heran gezogen wird. Die X19x0 etwa kommen mit den Treiberversionen 7.8 und 7.9 überhaupt nicht zurecht und gehen geradezu unter, die Fps oder die 3D Mark Punkte sinken um satte 20-30%. Ab dem 7.10 ist dieser Fehler behoben, die beste Leistung erzielt jedoch nach wie vor der 7.4. Die HD3800 legen ab dem 7.10 im niedrigen einstelligen Bereich zu, der neue 7.12 birgt also nicht nur Bugfixes. Wo wir gerade bei Bugs sind, die sind beileibe nicht alle gefixt, der 7.12 bringt sogar einen mit sich, wir tauften ihn Farbfehlerbug. Dieser äußert sich bei allen Radeon HD u.a. in roten statt blauen Links. Das Linkproblem ist durchgehend vorhanden, zwar werden die Links manchmal blau, wenn man sie mit dem Cursor tangiert, nervig ist das aber definitiv. Der 8.1 behob den Bug nicht und erzielte auch keine Performancesteigerungen, dafür kommt ein neuer Bug hinzu. Ist das CCC-Tray-Icon aktiviert, erscheint oben links auf dem Desktop ein kleines weißes Quadrat, hier hilft nur das Abschalten des Tray-Icons (im geöffneten CCC bei Preferences --> Enable Systemtray den Haken entfernen). Ein weiterer Nervtöter ist das immer noch recht langsame Catalyst Control Center (CCC). Als Ersatz prädestiniert sind die schlanken und flotten ATI Tray Tools, diese bieten deutlich mehr Optionen und benötigen kein .NET Framework. Besonders ärgerlich finden wir, dass ATI bei den neueren Treibern für die X1k Serie nur noch die sehr leistungshungrige adaptive Kantenglättung (AAA) auf Super-Sampling Basis anbietet, bei den ohnehin oft schnelleren HD Karten setzt man einzig auf das schonende EATM, welches Multi-Sampling nutzt und dessen Qualität hinter AAA zurückfällt.

nVidias Karten wurden mithilfe der Forceware 169.21 befeuert. Während den Tests spielte der Treiber einige Starts lang verrückt und war nicht dazu zu bewegen, die anisotrope Filterung von Anwendungsgesteuert auf einen anderen Wert zu setzen. Zudem blieb regelmäßig die Trilineare Optimierung aktiv, obwohl wir sie zuvor deaktiviert hatten. Die Beta 171.16 brachte in Crysis ein wenig mehr Performance, allerdings nur im unspielbaren Bereich unterhalb von 25Fps. Besonders negativ fielen uns trotz deaktivierten Optimierungen und Hohe Qualität bei der 7950GT die bekannten flimmerigen und schlecht gefilterten Texturen auf.

Womit wir bei der Bildqualität wären. Waren die Geforce 7 wie angesprochen eine optische Nullnummer was die Texturfilterung anbelangt, legten die Kalifornier mit der Geforce 8 die Messlatte weit nach oben und bieten eine sehr saubere Optik. Selbst die für ihre Qualität oft gelobten X19x0 erreichen ähnlich gute Ergebnisse nur mit deaktivierten Optimierungen und aktiviertem Area-AF sowie abgeschaltetem A.I. - bei gleichzeitig relativ hohem Leistungsverlust im Vergleich zu A.I. auf Standard. Mit der HD Serie konnte ATI wieder Boden gut machen, auf Screenshots erkennt man auch bei genauem Hinsehen und deaktiviertem A.I. keine Unterschiede zu nVidias HQ-Modus, in der Bewegung ist ein leichtes Flimmern bei RV670 wie auch G92 je nach Spiel leider allgegenwärtig. Aktiviertes A.I. (auf Standard) wie auch Qualität senken die optische Qualität, die Leistung erhöht sich dadurch allerdings teils spürbar.
In Sachen Kantenglättung gibt es auf den ersten Blick keine großen Differenzen, der RV670 wie auch der G92 bieten drei Multi-Sampling Modi von 2x über 4x zu 8x (nVidia bis zu 16x), welche sich abgesehen von der aufsteigenden Qualität optisch nicht erkennbar von einander unterscheiden. Hinzu kommen Optionen wie transparenz- bzw. adaptive Kantenglättung, welche auch Texturen abrunden, also beispielsweise Gras, Blätter oder Zäune. Hier bieten Forceware und Catalyst zwei Unteroptionen: Multi- und Supersampling. Der ATIsche Treiber übertreibt es allerdings: Bei Supersampling kann man zwischen Qualität und Leistung (halbe Abtastrate von Qualität) wählen, bei Multisampling (einst EATM genannt) gibt es gar vier Optionen alle sechs Variationen erzielen aber wie bereits erwähnt die gleiche Optik und Performance, ebenso unverständlich wie unnötig. Besondere Schmankerl sind die inoffiziellen Hybrid-Modi der Geforce 8, die HDs bieten dagegen ganz offen einen Punkt namens Custom-Filter an. Während die Hybrid-Modi eine mehr als grandiose Optik mit extremem Leistungsverlust kombinieren, erhält man bei den drei Custom-Filtern weniger Performance bei gleichzeitig leichter Unschärfe. Einen wahren Sieger bei den gewöhnlichen Glättungsoptionen gibt es unserer Meinung nach zwar nicht, die Hybrid-Modi lassen AMD aber ganz schön alt aussehen, ebenso wie die verwendete Grafikkarte - selbst eine 8800Ultra zwingt man hiermit zu einstelligen Fps-Raten.

Man muss bei all diesen Unterschieden jedoch eines klar herausstellen: Sieht man von flimmernden Texturen und der miesen Filterung der Geforce 7 ab, sind die Unterschiede während dem Spielen nicht wirklich auszumachen und sind daher nur für absolute Grafikfetischisten von Bedeutung. Wie passend, dass eine 8800Ultra nicht nur die beste Leistung, sondern auch die beste Bildqualität abliefern kann.​


15) Finale Worte


Der RV670 ist ein zweischneidiges Schwert, das beste Beispiel hierfür ist Powerplay. Auf der einen Seite stellen die Radeons dank diesem Feature zusammen mit der 55nm Fertigung neue (positive) Rekorde in Sachen Leistungsaufnahme auf, andererseits sorgt die Technik für Probleme in einigen Spielen. Bereits die X19x0XT litten hin und wieder an dieser Problematik - unverständlich, warum es bei den HD3800 immer noch nicht einwandfrei klappt. Bezüglich der Kühlung hinterlässt die HD3870 einen faden Beigeschmack, der sehr leisen HD3850 mangelt es dagegen teils an zu wenig Speicher. Wer eine HD3800 kaufen möchte, der investiert am besten in eine HD3870 und montiert einen alternativen Kühler oder übertaktet eine HD3850/512.

Mit dem G92 alias 8800GT kann nVidia den kühlsten Chip und eine berauschend schöne Bildqualität vorweisen. Die Geforce lässt sich zudem exzellent übertakten, einzig der fehlende 2D/3D Modus zusammen mit der hörbaren Kühlung muss sich Kritik gefallen lassen. Wie sich die 8800GT bei übervollem Speicher schlägt, testen und reichen wir nach sollte der VRAM-Bug noch vorhanden sein, würde dieser die Karte dank der verschwenderischen Speicherverwaltung in Zukunft wohl stark zurück werfen, nach dem aktuellen Stand der Dinge gibt es bis 250 aber momentan schlicht keine bessere Grafikkarte.

cYa
Kritik und Feedback sind wie immer erwünscht!
 
Zuletzt bearbeitet:
TE
y33H@

y33H@

BIOS-Overclocker(in)
Hier kommt später noch ein Bericht über die Probleme, Nervereien und Kuriositäten rein :D
In die beiden Posts oben kommen zudem noch Anker...

cYa
 
Zuletzt bearbeitet:

Letni

PC-Selbstbauer(in)
Auch wenn ich bislang noch nicht alles lesen konnte, dennoch meine höchste Anerkennung. Hat mir bisher sehe gut gefallen. Man sieht, dass du dir Super viel Mühe gegeben hast. Gratulation zu dem Artikel!!

Gruß, Letni
 

X_SXPS07

PCGH-Community-Veteran(in)
Riesen Respekt :hail: Sehr gutes und ausführliches Review. Du weißt echt was du machst :daumen:
Jetzt nach deinen Review wird es wohl die HD3850 512MB, hast mich noch mal bestätigt :D
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
Danke :)

Fehlen bei euch auch sämtliche Bilder bis auf die beiden Thumnails und die Gamepics bei den Benches?

Heute nacht waren die noch da *Kopf kratz*

cYa
 

Invain

PC-Selbstbauer(in)
Wow, super Leistung! :daumen:
Sehr ausführlich und umfassend *Kinnlade wieder hochklapp*

Leider fehlen bei mir die Bilder ebenfalls, wie du schon angemerkt hast.
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
Das hängt wohl mit den Anhängen zusammen, ich bin grade mit Oliver dran ...

EDIT
Es lag an der Server-Synchro, die Bilder sind in den nexten 30-60min wieder online :)

cYa
 
Zuletzt bearbeitet:

Adrenalize

BIOS-Overclocker(in)
Erstmal Danke für den schönen Testbericht! :)

Dann hätte ich eine Frage. Eventuell hab ich es auch einfach überlesen, aber wieviel hat das Heruntertakten der 8800GT in 2D denn gebracht?
Die 8800GT bringt es auf akzeptable 120 Watt, während eine 8800GTX satte 167 Watt konsumiert
Da würde mich interessieren, wiviel Strom man sparen kann.

Ich habe mir für meine 8800GTS 640 nämlich auch schon überlegt, die mal einzubremsen, bisher aber keine definitiven Aussagen gefundeen, ob sich die Sache lohnt. Weil 5 Watt hin oder her ist Pillepalle, aber wenn die Leistungsaufnahme um sagen wir 20-30W sinkt, wäre es eine lohnende Arbeit, denke ich.
Daher meine Frage. ;)
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
@ Adrenalize

Da würde mich interessieren, wiviel Strom man sparen kann.
Die Bilder lade ich gerade wieder hoch, warte, dann siehst du den Stromverbrauch mit dem BIOS-Mod :)

cYa
 
Zuletzt bearbeitet:
TE
y33H@

y33H@

BIOS-Overclocker(in)
So, jetzt ist alles im Thread drin :)

EDIT
Specs korrigiert - die HD3850 war fäschlicherweise mit GDDR4 angegeben.

cYa
 
Zuletzt bearbeitet:

Schnitzel

PCGHX-HWbot-Member (m/w)
Schöner Test-sehr ausführlich und vor allen Dingen incl. CPU.Skalierung.
Allerdings hat er mich auch darin bestärkt meine Palit1950GT@pro 512MB noch ein bisschen weiter zu schluffen.
Die 3850 hat zwar überall Vorteile,die 1950 liegt aber in meinen Spielen noch gut im Rennen.
 

puntarenas

Kabelverknoter(in)
Zunächst einmal vielen Dank für diesen exzellenten Beitrag, ausführlich und mit Liebe zum Detail, dazu kompetent und gut geschrieben, einfach Spitzenklasse!
:daumen:

Eine Frage hätte ich noch, hast du Ergebnisse oder kannst du abschätzen, wieviel der Voltmod ohne die Taktabsenkung einspart?

Meine Hochachtung
puntarenas
 

Zsinj

BIOS-Overclocker(in)
klasse Review!
nur hätte ich mir noch die auflösung 1680*1050 gewünscht ;)
1680*1050 scheint durch die äußerst beliebten 22" zu einem wet verbreitetten standart zu werden, wie auch schon 1280*1024
 

PiEpS

PCGH-Community-Veteran(in)
Wow, super Artikel, echt n1 :)
Hab schon überlegt meine x1900xt gegen die hd3850 512mb auszutauschen, aber die liegen ja fast gleichauf. Ich glaube da werde ich wohl noch ein bissl aushalten müssen....
@y33h: weißt du schon wann du deine xt in Rente schicken wirst ?
 

p1t

Komplett-PC-Aufrüster(in)
Echt gutes Review! :hail:
Besonders die VRAM-Skalierung und die CPU-Skalierung gefällt mir gut, findet man nicht oft. Viele Benchmarks und gute Bilder! :daumen:
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
@ puntarenas

Nur mit dem Voltmod kam ich auf 114 Watt idle - also bringen 2D-Clocks 6 Watt.

@ Zsinj

1680*1050 folgt im nexten Review, allerdings dann ohne die 88GT und die HD3850/256.

@ PiEpS

Die HD3000 sind mir zu unausgereift und bieten mir mit AA/AF nicht genug Mehrleistung zur XT/512, die 88GT braucht mir zuviel Strom und bricht in der 512er Version bei vollem VRAM total in sich zusammen --> VRAM-Bug. Die X2 ist Schrott, CF klappt wie SLI nie gescheit, zickt mir zu sehr rum und ich habe keinen Bock vollkommen von den Treibern abhängig zu sein. Ich will eine GraKa, die immer ihre Power bringt und nicht so eine dämliche Dual-GPU-auf-einem-PCB Karte ... Ich denke an eine 88GTX oder Palit GT/1024. Eine 512er Geforce kommt mir wegen dem Bug nicht ins Haus.
Ich werde wohl einfach noch warten, glücklichweise habe ich hier eine EVGA 8800Ultra KO rumliegen, gesurft wird mit der VIA-PCI-Karte :D

cYa
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
Alleine die reine Zeit, die nur (!) für alle Benches drauf ging, beträgt rechnerisch über 20 Stunden, von Fließtext tippen und Pics sowie Diagrammen erstellen, den Volt-Mods, den Kühlern, dem Online-stellen, den Ladezeiten und dem kleinen 2D/3D-Clocks-HowTo ganz zu schweigen.

Ich gehe grob von guten 30 bis an die 40 Stunden aus, also bei einem theoretischen 8h-Arbeitstag eine Woche - alles (fast) alleine :D

cYa
 
Zuletzt bearbeitet:

Doohan

Schraubenverwechsler(in)
250 Euro für eine GT sind def zuviel, da würde ich lieber ein paar Teuros drauflegen und eine GTX kaufen.
 

Maeyae

PCGHX-HWbot-Member (m/w)
Unfassbar ausfürhlicher Artikel. Hat wohl seeehr viel Zeit gekostet. Gratulation, weiter so!

MfG
Maeyae
 

Morris25

Schraubenverwechsler(in)
Hi Zusammen.

Ersteinmal ein grosses Lob für den Artikel.

Ich hätte da eine Frage oder bitte. Und zwar wo kann man die Shadereinheiten deaktivieren?

Normalerweise stand bei mir NVStrap unter Low-level-system tweaks im Riva Tuner. Ist kein Eintrag mehr da, habe schon bei google geschaut aber nichts richtiges gefunden.

Wäre nett wenn jemand das Wüsste.

Danke
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
nVStrap gibts nur bei den G7x und dem G8x, bei den G92ern leider nicht mehr --> klicke halt bei beiden Customize mal alle Punkte an und guck dann, es gibt den Punkt noch - aber wie gesagt nicht bei den G92.

cYa
 

devastor

Schraubenverwechsler(in)
Diese Temperatur erscheint dem ein oder anderen vielleicht zu hoch, da sich die Hersteller dessen jedoch bewusst sind und trotzdem zwei Jahre Garantie geben sind die Werte aber nicht weiter bedenklich
Das ist die Gewährleistung und hat rein gar nichts mit irgendwelchen freiwilligen Garantieleistungen seitens der Hersteller zu tun.
 

killer89

Volt-Modder(in)
Heyho! Sehr gute Arbeit! :hail: :daumen:
Ich hab da nur ne klitzekleine Frage: Du bekommst doch sicher Geld von der PCGH oder? Wenn ich mich recht entsinne hast du das im How-To zum Silent-PC gesagt... lieg ich da richtig? 30-40 Stunden würde bestimmt keiner freiwillig machen... .
Wie gesagt: saubere Arbeit! :daumen:
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
@ killer89

Ich bekomme für diese Artikel kein Geld, ich habe sicherlich auch diesbezüglich nichts gesagt ;)
All meine Reviews mache ich freiwillig und unentgeldlich, schlicht, weil ich es machen will und Spaß dran habe!

@ Kreisverkehr

Ich tue mir so was regelmäßig an ... das nexte Review ist schon in Mache :D

cYa
 

Kreisverkehr

BIOS-Overclocker(in)
Aber opferst du dann nur deine Freizeit, oder geht auch jede Menge Geld drauf?
Sprich: bekommst du die Testexemplare gestellt?
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
@ Kreisverkehr

Ich opfere meine Freizeit bzw. zumeist meine Nächte. Während dieses Review hier entstand, hatte ich frei, da ich im Januar Abitur geschrieben habe; d.h. tagsüber lernen und ab 0h bis morgends um 4-5h wurde dann gebencht usw. 4-5h schlafen und weiter gehts. Wenn ich Schule habe, dann halt von 23-3h - habe ich nie Probleme mit gehabt.

Klar, Geld kostet es mich auch immer wieder, manche Produkte habe ich nicht oder sie verschleissen bzw. werden leer, zB VRAM-Kühler oder Wärmeleitpaste. Auch Lüfter und Kühler wollen gekauft werden - wobei ich die nach dem Test dann wieder unters Volk werfe.

Ich habe für diesen Test, wie ganz oben steht, Samples von PCGH erhalten,
ich beziehe jedoch auch über Bekannte/Kumpels und über "andere" Quellen ;)

Im Endeffekt ist es wie immer - es es kostet Zeit, Geld, Nerven und Aufwand; dafür machts mit aber Spaß und wenn ich das finale Monster-Machwerk und das Feedback sehe, dann weiß ich, dass ich etwas geleistet habe. Zumal ich ja nur das teste, was mich auch interessiert, es ist ja nicht so, dass mir irgendjemand Vorschriften macht oder mich einschränkt, einziges Limit sind die Finanzen, alles andere kann man sich andersweitig (auf legalem) Wege beschaffen.

cYa
 
TE
y33H@

y33H@

BIOS-Overclocker(in)
Das Ergebnis und die Erkenntnisse sowie das basteln macht viel Spaß, sich hunderte von
min Ladebalken und zich mal die gleiche Benchsequenz rein zu ziehen macht weniger Fun^^

cYa
 
Oben Unten