Nvidia Geforce GTX 670 im Test: Abgespeckt und trotzdem gut?

@Manner1a

Auch wenn es preislich oft keinen Sinn macht: Ich stehe auch auf voll funktionstüchtige GPUs! :D Das ist auch der Grund, warum ich mir nun gerade eine gebrauchte 560 Ti gegönnt habe. Ich finde an ihr auch interessant, dass der kleine gegenüber dem großen Fermi schon mehr Shader pro Cluster hat, auch wenn mir das nichts bringt. :ugly:

So, habe eben die uns bekannten Fälle unter die Lupe genommen: Eine GTX 560 Ti ist ja ein sowas von perfekt und schnell laufender GF 114-Chip. GTX 560 und GTX 560 SE sind teildeaktivierte, langsamere Varianten des Chips. Die GTX 560 448 Cores ist technisch eine gemütlich laufende GTX 570 mit 3Mrd Transistoren, 1280 MB Speicher und allem Schnickschnack, wodurch die "nur" 5-10% Geschwindigkeitsunterschied zustande kommen.

Meine 9800 GTX äähm GTS 250 war an sich ja schon ziemlich "vollständig", dazu wurde sie auf DirectX 10 getrimmt. Und das für 130€ damals in 2009...man war ich ein Glückspilz! Zu schade nur für mich, dass es sich um eine ältere Architektur handelte, die feingeschliffen wurde und den damals aktuellen Karten in anderen Punkten (leicht) unterlag.

Am kniffligsten (musste ich googeln, weil ich viel Kniffel mit "e" spiele) ist es nun bei meiner nigelnagelneuen Sapphire Radeon HD 7750. Wir haben bei den 28nm-Karten von AMD Tahiti, Pitcairn und den klitzekleinen Einsteiger-Chip Cape Verde zur Verfügung.

Der Vollausbau wäre eine Overclocking-Variante einer HD 7770, also 1000+ MHz statt 800 MHz Taktrate von Chip und Shader, 40 statt 32 Textureinheiten und 640 statt 512 Shader Recheneinheiten. Damit ist meine kleine HD 7750 von Werk aus schon sowas von kaputt :D.

In einem DTM-Rennwagen wäre die Deaktivierung eines von 8 Zylindern mit Nachteilen verbunden, was die Effizienz des Motors betrifft, weil der abgeschaltete Zylinder Masse hat und mitbewegt werden muss. Dieses Problem haben wir bei Transistoren nicht. Da Computer nur rechnen und keine Bäume ausreißen müssen, hat sich die Performance von Halbleiter-Chips mehr verbessert als die Effizienz bewegter Massen in Kraftfahrzeugen.

Ein i7-3960X ist "THE ULTIMATE DESKTOP PROCESSOR" mit 2 deaktivierten Kernen, 5MB weniger L3 Cache etc. zu einem 8-Kern Sockel 2011 Xeon. Na und? Für Desktop optimal durch höheren Takt und trotzdem nicht höherem Verbrauch. Dem i7-3930K fehlen mit 12MB schon 40% des verfügbaren L3 Caches. Mein i7-2600 war ja schon halbwegs vollständig, doch ich habe mir bei YouTube bei Overclocking Videos einiges anhören müssen, weil das "K" fehlt.

Jetzt zur Schwierigkeit, die Atma empfindet: Beim Fehlen vom K bei Sandy Bridge wurden 6 EUs in der Grafikeinheit deaktiviert, während beim Ivy Bridge i7-3770 im Vergleich zur K-Variante 100 MHz Basis - und Turbotakt kaputtgegangen sind :daumen:. Der Hersteller hat nicht so den Einfluss drauf und kann abhängig davon, wie die Produktion läuft, entweder Funktion/Teil A, B oder C deaktivieren im Vergleich zu einem perfekten Chip.

Nie und nimmer möchte Nvidia den Atma verarschen (und die ca. 100€ mehr für die GTX 680 zur 670 sind nicht wirklich mies ergaunert und helfen dem Unternehmen relativ gesehen kaum). Außerdem weiß ich nicht, ob frühe Produkte einer Reihe mehr Fehler aufweisen als schon 3 Monate in Produktion befindliche, "gleiche" Chips, sprich ob die früher kaputtgehen als später gemachte Chips. Wird ja alles getestet! Bezweifeln tue ich auch, ob ein teildeaktivierter Chip bei gleicher Belastung länger oder weniger lange läuft im Vergleich zum "perfekten" Chip.

Die im Test benutzte GTX 670 hatte einen hohen Turbo, über dem garantierten. Und trotzdem brauch Nvidia da keine Absicht unterstellt werden.

Was die GTX 560 Ti angeht, so ist die Shader pro Cluster-Sache schon lustig. Dieses Wissen macht dich zum Nerd, Belle. Dazu ist sie gebraucht und wenn sie um die 85,31€ gekostet hat, hast du bei gleichem Preis teilweise 60 bis über 100% mehr Benchmark-Performance als ich mit meiner megaschrotten, nagelneuen HD 7750 bei in den meisten Situationen etwas höherem Stromverbrauch. Ich hab´s gar nicht versucht, maximal viele FPS/Euro zu bekommen und die Enttäuschung von Freunden ist jetzt auch hoch, weil die HD 6850 hätte doch so einen guten Job gemacht ;). Ja genau, aber am Kauftag der neuen Karte hatte ich irgendwie keine Lust auf Fermi oder HD 5000er Karten, wo die 1. Zahl durch eine 6 ersetzt wurde (da wollte ich rumzicken) und habe in wenigen Tagen damit die Performance einer GTX 550 Ti bei Skyrim. Und unser Atma wird sich in so mancher Situation freuen, die Extra-Performance zur sowieso schon starken GTX 670 zu haben.

Nun zur Frage vom Geld und von der Zeit, die eine Architektur auf dem Markt ist: Bei z.B. i3-21XX gegen Phenom 2 x6 wird´s ähnlich viele grinsende Gesichter geben (das könnte eine Lüge von mir sein, denn ein i3 ist sowas von gut!). Eine nagelneue Architektur hat auch so seine Vorzüge, selbst teildeaktiviert. Senkt Verbrauch und Temperaturen, Lautstärke und Kosten und in machen Anwendungen gibt´s quasi genauso viel Performance wie bei den großen Brüdern.

Hätte ich einen Wunsch frei, dann den dass Atma nicht sauer auf Nvidia ist (die können nichts dafür, ok außer ein starkes, turbofestes Modell der GTX 670 zu Testzwecken geliefert zu haben), denn wenn nicht der Preis geringer wäre oder die Performance der GTX 680 noch höher, dann muss Atma gehofft haben, dass die GTX 670 weniger leistet. Kein Grund neidisch zu sein, wenn der Gegenspieler keine Ruckeler hat und ein würdiger Kontrahent im Spiel ist. Problematisch wird der Mehrpreis der 680er evtl. nur bei der Neuanschaffung in anderen Bereichen. Soviel dazu :schief:

MfG
 
Zuletzt bearbeitet:
Um was geht es hier eigendlich???? Fakt ist 99% der leute kaufen sich ne Grafikkarte zum zocken. Wenn man dann schaut welche Grafikkarte beim Spielen vorne liegt dann kauft man oder nimmt ne leistungsmäßig etwas schlechter jenachdem was fürn Geldbeutel man hat bzw was einem der Spaß wert ist. Da ist es doch ---- egal ob der gk104 ein beschnittener Chip oist oder nicht. Fakt ist er bringt derzeit ne Superleistung bei moderaten Stromverbrauch und was er nicht kann oder wenigerkann wie andere das kümmert mich nicht. Denn das wozu ich ihn gekauft habe also Spiele in guter flüssiger Qualität darstellen das macht er.
Wennjemand meint er muss sich ne gtx 560 ti kaufen weil er ein "vollwertiger" chip ist dann frage ich mich was kann diese Grafikkarte denn besser außer das sie weniger kostet als ne gtx 670??
Also ich rüste meine Grafikkarte ca. alle zwei jahre bzw alle 2 Generationen auf bzw wenn ich merke meine aktuelle stellt meine derzeitigen Spiele nicht in den Details da wie ich es gern hätte.
Nrmal war mein limit auch bei 300-350 Euro Aber diesmal habe ich ne Ausnahme gemacht ( dafür fällt der Urlaub kürzer aus dies jahr :-) ) und muss sagen ich freu mich auf den wenn in manchen augen nicht ganz vollwertigen gk104 chip :-)
gruß
 
Zuletzt bearbeitet:
Genau. Diejenigen die den GK 104 nicht gut finden, müssen ihn ja auch nicht kaufen.
Ich bereue den Kauf der 680er überhaupt nicht. Und habe bis nächstes Jahr meine Ruhe :D
 
die gtx 680 ist ja nunmal die schnellste single gpu karte und super. Das die gtx 670 leicht beschnitten ist im vergleich zur gtx 680 ok . Und wer den Aufpreis für die mehr leistung bezahlen möchte ok. Die kriterien was jeder für seine Grafikwünsche am PC ausgeben mag sollte jeder selbst bestimmen. Es ist halt für die meisten ein Hobby und Hobbys kosten im normalfall Geld.
 
@ stefan79gn:

PCGH-Forum-Mitglied Atma hat in Beitrag Nr. 50 (bei 40 Beiträgen/Seite ist es auf Seite 2 zu finden) sich als GTX 680-Käufer beklagt, dass 5-10% Performance-Unterschied zwischen GTX 680 und GTX 670 der 680 quasi die Daseinsberechtigung nimmt und er sich verarscht fühlt. Dadurch lief die Diskussion in eine andere Richtung. Ziel der Aktion war es darzulegen, warum die GTX 680 als im Schnitt stärkste Single-GPU und mit geringerem Verbrauch unter Spiele-Last im Vergleich zur Radeon HD 7970 ihre Daseinsberechtigung auch bei der GTX 670 weiterhin hat. Nicht um Nvidia einen Gefallen zu tun für einen weiteren zufriedenen Kunden, sondern für Atma an sich und dass er den Kauf der GTX 680 nicht bereut.
 
Zuletzt bearbeitet:
achso dann habe ich es falsch interpretiert weil es kam teilweise so rüber das sich hier manche leute aufregen das die gtx 670 nen kastrierter chip ist und das kann ich in anbetracht der leistung nicht verstehen
 
Nein, es ist nicht gesucht. Dann zeige mir wie man all das was der Inspector über den Nvidia-Treiber ermöglicht bei AMD auch möglich ist.
Kann ich nicht, weil es schlichtweg nicht geboten wird. Habe ich aber auch nicht behauptet.

Und du reißt meine Aussage aus dem Zusammenhang:
Nein, ich habe dir nur in zwei Teilpunkten nicht vollends zugestummen, nämlich was die Profile und den Framelimiter anbelangt, weil diese Optionen bei AMD ebenfalls bestehen - bei den Frames zwar mithilfe eines Dritttools, aber in Anbetracht dessen, dass der NV Inspector herangezogen wird, finde ich das durchaus legitim.

Entweder betrachtest du die reinen Treiberfunktionen oder generell die Möglichkeiten, die du mit einer Karte hast. Alles andere macht wenig Sinn.

Den Rest habe ich übrigens nie bestritten und kann man imo durchaus so stehen lassen. ;)

Nein ist es nicht. Hast du schon mal mit dem Nvidia Inspector gearbeitet? Ich hatte schon Karten beider Hersteller und deswegen kann ich eine sehr differenzierte Aussage bezüglich der Qualitätssteigerungs- und Einstellungs-Möglichkeiten treffen und da bietet Nvidia dem User um ein vielfaches mehr als AMD ;)

Ja, habe den Inspector auf dem Zweitrechner auch installiert - dort fristet eine, leider mittlerweile überforderte, GTX460 ihr Dasein.
Ich schrieb ja, dass NV dem User (ob via Inspector oder ohne) quantitativ unbestritten mehr Optionen bietet.
SSAA inkl. automatischer LOD-Anpassung in allen APIs ist aber DER Sonnenkönig unter den BQ-Features und das kriege ich nur bei AMD (noch) und deswegen halte ich dein Resumée ("Da kann AMD nach wie vor nicht mal ansatzweise dran tippen") für unpassend.

Daher auch meine Überlegung, was der Vorteil an zig verschiedenen kombinierbaren Modi ist, wenn ich bei der Konkurrenz die qualitativ bestmögliche Lösung treiberintegriert kriege?
Zum Abfangen von Fällen, wo SSAA nicht funktioniert, klar. Aber sonst?

Von einem Ungleichgewicht in Sachen BQ-Optionen sehe ich da dementsprechend AMD alles andere als deutlich unterlegen.

Klar ist imo aber auch, dass sie dringend beim weiteren Featureset nachziehen müssen, denn mehr als SSAA inkl. LOD-Anpassung in allen APIs bietet AMD nicht, wo sie NV überlegen wären. Und ich gehe davon aus, dass NV einen Teufel tun wird und AMD diesbezüglich das Feld überlässt.

Nachtrag: Sorry für die späte Antwort. Das RL kommt leider immer wieder in die Quere :ugly:
 
Zuletzt bearbeitet:
Nein, ich habe dir nur in zwei Teilpunkten nicht vollends zugestummen, nämlich was die Profile und den Framelimiter anbelangt, weil diese Optionen bei AMD ebenfalls bestehen - bei den Frames zwar mithilfe eines Dritttools, aber in Anbetracht dessen, dass der NV Inspector herangezogen wird, finde ich das durchaus legitim.

Das was mit dem Nvidia Inspector nutzbar wird, SIND größtenteils Treiberfunktionen, wie die Profile und der Framelimiter. Diese Sachen sind nativ im Nvidia Treiber integriert.

Ja, habe den Inspector auf dem Zweitrechner auch installiert - dort fristet eine, leider mittlerweile überforderte, GTX460 ihr Dasein.
Ich schrieb ja, dass NV dem User (ob via Inspector oder ohne) quantitativ unbestritten mehr Optionen bietet.
SSAA inkl. automatischer LOD-Anpassung in allen APIs ist aber DER Sonnenkönig unter den BQ-Features und das kriege ich nur bei AMD (noch) und deswegen halte ich dein Resumée ("Da kann AMD nach wie vor nicht mal ansatzweise dran tippen") für unpassend.

LoD Anpassung gibt es auch für Nvidia Karten.:ugly:
Plus eine Fülle an AA-Modi inklusive SGSSAA, OGSSAA plus kombinierte Modi wie 2xSSAA+2xMSAA plus die Möglichkeit über die manuelle Eingabe von AA-Compatiblility-Bits AA/SSAA-Modi in diversen Games freizuschalten plus die Möglichkeit AA/SSAA-Modi in Games zu erzwingen, plus die Möglichkeit in Titeln die es unterstützen (z.B. Skyrim) Ambient Occlusion zu nutzen, plus Adaptive VSync was zwar noch in den Kinderschuhen steckt, aber ein guter Schritt ist.

Und an all das kann AMD nicht mal ansatzweise tippen!:D
Bei AMD kann man SSAA ein- oder ausschalten und das war's mehr oder weniger. Es geht sich dabei nicht um die Quantität, sondern um Flexibilität die man bei NV hat um das maximale aus der Bildqualität und der eigenen Hardware herauszuholen.

Daher auch meine Überlegung, was der Vorteil an zig verschiedenen kombinierbaren Modi ist, wenn ich bei der Konkurrenz die qualitativ bestmögliche Lösung treiberintegriert kriege?
Zum Abfangen von Fällen, wo SSAA nicht funktioniert, klar. Aber sonst?

Der Vorteil ist, dass man eine Vielzahl an verschiedenen Modi zu Verfügung hat, was a) zur Folge hat, dass man die AA Modi passend zur Rechenleistung wählen kann und b) passend zur Kompatibilität des jeweiligen Games wählen kann. Somit erreicht man die größtmögliche Flexibilität bei der Wahl und der Nutzung/Erzwingung der Kantenglättung.
 
Zuletzt bearbeitet:
Das was mit dem Nvidia Inspector nutzbar wird SIND größtenteils Treiberfunktionen, wie die Profile und der Framelimiter. Diese Sachen sind nativ im Nvidia Treiber integriert.
So what? Solange ein Dritttool nötig ist, um sie zu nutzen, macht das für den Anwender absolut keinen Unterschied.

LoD Anpassung gibt es auch für Nvidia Karten.:ugly:
In DX10 und DX11? Das hätte ich nun wirklich gerne belegt.

Plus eine Fülle an AA-Modi inklusive SGSSAA, OGSSAA plus kombinierte Modi wie 2xSSAA+2xMSAA plus die Möglichkeit über die manuelle Eingabe von AA-Compatiblility-Bits AA/SSAA-Modi in diversen Games freizuschalten plus die Möglichkeit AA/SSAA-Modi in Games zu erzwingen.
Der echte Vorteil sind die erzwingbaren AA-Modi via Compatibility-Bits. Erzwungenes AA gibts bei AMD ebenfalls plus erzwungenes SSAA für jedes Spiel, dass fähig ist MSAA anzufordern (was so ziemlich der Grossteil sein dürfte).

Edit: Folgenden Absatz kannst du übergehen, habe zu früh gequotet: ;)
Und nochmals: wie praxisrelevant sind die Vorteile, verschiedene AA-Modi zu kombinieren? Ich kann die Glättung feiner an die verfügbare Leistung anpassen, aber sonst...?
Ab 4x SSAA ist der Unterschied wohl relativ schwach, wobei ich zugegeben muss, dass ich kombinierte AA-Modi auf meiner NV bisher noch nicht verwendet habe.
---
Dass die Flexibilität bei NV grösser ist, steht ja gar nicht erst zur Diskussion, resp. stimme ich dir zu. Ich bin nur etwas erstaunt darüber, dass Flexibilität offenbar höher gewichtet wird als Leistung in den forderndsten Szenarien und höchster Grad an erreichbarer BQ, zumindest entnehme ich das der Diskussion.

Denn gerade da hat AMD erkennbare Fortschritte gemacht und NV teilweise überholt, wo sie doch in den letzten Generationen klar zurücklagen. Ich bin ein wenig irritiert, dass sich AMD dadurch nicht mehr Freunde gemacht hat. Dass sie trotzdem noch sehr viel zu tun haben, steht sowieso ausser Frage ;-)
 
Zuletzt bearbeitet:
So what? Solange ein Dritttool nötig ist, um sie zu nutzen, macht das für den Anwender absolut keinen Unterschied.

Nur das es etwas Vergleichbares für AMD-Karten nicht gibt.

In DX10 und DX11?

Das habe ich nicht gesagt, nur das es geht.

Der echte Vorteil sind die erzwingbaren AA-Modi via Compatibility-Bits. Erzwungenes AA gibts bei AMD ebenfalls plus erzwungenes SSAA für jedes Spiel, dass fähig ist MSAA anzufordern (was so ziemlich der Grossteil sein dürfte).

Dennoch hat man bei AMD bei weitem nicht die Flexibilität bei den Qualitätsfeatures wie bei NV. Mehr gibt es dazu nicht zu sagen und das lässt sich auch nicht wegdiskutieren. AMD bietet da weitaus weniger.

Und nochmals: wie praxisrelevant sind die Vorteile, verschiedene AA-Modi zu kombinieren? Ich kann die Glättung feiner an die verfügbare Leistung anpassen, aber sonst...?
Ab 4x SSAA ist der Unterschied wohl relativ schwach, wobei ich zugegeben muss, dass ich kombinierte AA-Modi auf meiner NV bisher noch nicht verwendet habe.

Und nochmals: :schief:

Der Vorteil ist, dass man eine Vielzahl an verschiedenen Modi zu Verfügung hat, was a) zur Folge hat, dass man die AA Modi passend zur Rechenleistung wählen kann und b) passend zur Kompatibilität des jeweiligen Games wählen kann. Somit erreicht man die größtmögliche Flexibilität bei der Wahl und der Nutzung/Erzwingung der Kantenglättung.

Wie praxisrelevant das für den einzelnen User ist muss jeder selber wissen, genau so wie man über die Praxisrelevanz von SSAA oder Downsampling im Allgemeinen vortrefflich streiten kann.
 
Zuletzt bearbeitet:
Wie kommt Ihr auf den Idle-Verbrauch? HT4U hat bei allen bisherigen Karten nämlich deutlich mehr ausgelesen (22 W). Sind das Messwerte oder Herstellerangaben? Wäre nett, wenn Ihr das sagen könntet. :)
 
Naja, HT4U waren mit die ersten, die nur den Grafikkartenverbrauch gemessen haben. Schaue Dir die Messmethode an.
 
[Dennoch hat man bei AMD bei weitem nicht die Flexibilität bei den Qualitätsfeatures wie bei NV. Mehr gibt es dazu nicht zu sagen und das lässt sich auch nicht wegdiskutieren. AMD bietet da weitaus weniger.
Ist so, aber das diskutiere ich auch nicht weg, wie schon mehrfach ausgeführt.

Um die Diskussion zum Abschluss zu bringen:
Wie praxisrelevant das für den einzelnen User ist muss jeder selber wissen, genau so wie man über die Praxisrelevanz von SSAA oder Downsampling im Allgemeinen vortrefflich streiten kann.
Mir persönlich wäre das treiberintegrierte SSAA inkl. LOD-Anpassung in allen APIs wichtiger plus die Mehrleistung, die die Radeons bei derart hohen Anforderungen ggü. der GTX680 bieten - aber das ist ja mittlerweile durchgedrungen nehme ich an ;)

Aber wie du selbst gesagt hast, wir diskutieren hier Themen, die eine Randgruppe betreffen. Für den Zocker, der eine High-end GraKA für Full-HD ohne grossartige SSAA/DS-Spielereien will, ist die GTX680 klar die bessere Karte. Alles andere differiert nach persönlichen Anwendungsbereichen.

Wie geschrieben, ich habe dich vor deinem Edit gequotet ;)
 
HT4U dürfte den gesamten Systemverbrauch messen. PCGH misst per Messadapter direkt die Karte.

Naja, HT4U waren mit die ersten, die nur den Grafikkartenverbrauch gemessen haben. Schaue Dir die Messmethode an.

Richtig, bei HT4U wird seit einer gefühlten Ewigkeit die Grafikkarte allein gemessen. Ich vermute eher die Serienstreuung hinter diesen unterschiedlichen Ergebnissen.

Edit: Es hat doch einen anderen Grund, auf HT4U schreiben sie dazu folgendes:
Fragen kamen zwischenzeitlich zur Idle-Leistungsaufnahme der GTX-670-Grafikkarten auf, da wir immerhin auch beim dritten Testmuster immer noch eine Leistungsaufnahme von zirka 22 Watt messen mussten. Wir wollen darauf noch separat mit entsprechenden Messungen eingehen, an dieser Stelle aber darlegen, dass wir bei typischer Messung auf 21,18 Watt im Idle-Modus kamen. Deaktivierten wir laufende Tools wie beispielsweise EVGAs Precision-Tool oder alternativ auch den MSI Afterburner, fiel die Leistungsaufnahme auf 15,9 Watt. Alleine diese Information sollte erklären, warum wir uns dem Thema noch einmal separat annehmen wollen.
 
Zuletzt bearbeitet:
Ich persönlich kann mich Ralfs Aussage im Video bez. des Preis-Leistungsverhältnis der GTX670/80 Karten nur teilweise anschließen. Mann muss nur bedenken, was Karten dieser Leistungsliga seitens Nvidia noch vor ein paar Monaten gekostet haben...vorallem bei der GTX670 kann man doch wirklich von einem fairen aktuellen Preis reden! Zur Leistung: Die GTX580 verschlingt diese Kepler-Karte zum Frühstück.;)

Bei den aktuellen Ladenpreisen würde ich weiters niemals zur größeren 680 greifen! Der dadurch gewonnene Leistungsunterschied rechtfertigt den Aufpreis doch keinesfalls, wie ich finde.
 
welche VGA-Kühler passen eig auf das Referenzdesign? Hat man sich wieder so eine tolle Grundplatte geleistet oder passt diesmal zb ein Twin Turbo?
 
Zurück