Manner1a
Software-Overclocker(in)
@Manner1a
Auch wenn es preislich oft keinen Sinn macht: Ich stehe auch auf voll funktionstüchtige GPUs! Das ist auch der Grund, warum ich mir nun gerade eine gebrauchte 560 Ti gegönnt habe. Ich finde an ihr auch interessant, dass der kleine gegenüber dem großen Fermi schon mehr Shader pro Cluster hat, auch wenn mir das nichts bringt.
So, habe eben die uns bekannten Fälle unter die Lupe genommen: Eine GTX 560 Ti ist ja ein sowas von perfekt und schnell laufender GF 114-Chip. GTX 560 und GTX 560 SE sind teildeaktivierte, langsamere Varianten des Chips. Die GTX 560 448 Cores ist technisch eine gemütlich laufende GTX 570 mit 3Mrd Transistoren, 1280 MB Speicher und allem Schnickschnack, wodurch die "nur" 5-10% Geschwindigkeitsunterschied zustande kommen.
Meine 9800 GTX äähm GTS 250 war an sich ja schon ziemlich "vollständig", dazu wurde sie auf DirectX 10 getrimmt. Und das für 130€ damals in 2009...man war ich ein Glückspilz! Zu schade nur für mich, dass es sich um eine ältere Architektur handelte, die feingeschliffen wurde und den damals aktuellen Karten in anderen Punkten (leicht) unterlag.
Am kniffligsten (musste ich googeln, weil ich viel Kniffel mit "e" spiele) ist es nun bei meiner nigelnagelneuen Sapphire Radeon HD 7750. Wir haben bei den 28nm-Karten von AMD Tahiti, Pitcairn und den klitzekleinen Einsteiger-Chip Cape Verde zur Verfügung.
Der Vollausbau wäre eine Overclocking-Variante einer HD 7770, also 1000+ MHz statt 800 MHz Taktrate von Chip und Shader, 40 statt 32 Textureinheiten und 640 statt 512 Shader Recheneinheiten. Damit ist meine kleine HD 7750 von Werk aus schon sowas von kaputt .
In einem DTM-Rennwagen wäre die Deaktivierung eines von 8 Zylindern mit Nachteilen verbunden, was die Effizienz des Motors betrifft, weil der abgeschaltete Zylinder Masse hat und mitbewegt werden muss. Dieses Problem haben wir bei Transistoren nicht. Da Computer nur rechnen und keine Bäume ausreißen müssen, hat sich die Performance von Halbleiter-Chips mehr verbessert als die Effizienz bewegter Massen in Kraftfahrzeugen.
Ein i7-3960X ist "THE ULTIMATE DESKTOP PROCESSOR" mit 2 deaktivierten Kernen, 5MB weniger L3 Cache etc. zu einem 8-Kern Sockel 2011 Xeon. Na und? Für Desktop optimal durch höheren Takt und trotzdem nicht höherem Verbrauch. Dem i7-3930K fehlen mit 12MB schon 40% des verfügbaren L3 Caches. Mein i7-2600 war ja schon halbwegs vollständig, doch ich habe mir bei YouTube bei Overclocking Videos einiges anhören müssen, weil das "K" fehlt.
Jetzt zur Schwierigkeit, die Atma empfindet: Beim Fehlen vom K bei Sandy Bridge wurden 6 EUs in der Grafikeinheit deaktiviert, während beim Ivy Bridge i7-3770 im Vergleich zur K-Variante 100 MHz Basis - und Turbotakt kaputtgegangen sind . Der Hersteller hat nicht so den Einfluss drauf und kann abhängig davon, wie die Produktion läuft, entweder Funktion/Teil A, B oder C deaktivieren im Vergleich zu einem perfekten Chip.
Nie und nimmer möchte Nvidia den Atma verarschen (und die ca. 100€ mehr für die GTX 680 zur 670 sind nicht wirklich mies ergaunert und helfen dem Unternehmen relativ gesehen kaum). Außerdem weiß ich nicht, ob frühe Produkte einer Reihe mehr Fehler aufweisen als schon 3 Monate in Produktion befindliche, "gleiche" Chips, sprich ob die früher kaputtgehen als später gemachte Chips. Wird ja alles getestet! Bezweifeln tue ich auch, ob ein teildeaktivierter Chip bei gleicher Belastung länger oder weniger lange läuft im Vergleich zum "perfekten" Chip.
Die im Test benutzte GTX 670 hatte einen hohen Turbo, über dem garantierten. Und trotzdem brauch Nvidia da keine Absicht unterstellt werden.
Was die GTX 560 Ti angeht, so ist die Shader pro Cluster-Sache schon lustig. Dieses Wissen macht dich zum Nerd, Belle. Dazu ist sie gebraucht und wenn sie um die 85,31€ gekostet hat, hast du bei gleichem Preis teilweise 60 bis über 100% mehr Benchmark-Performance als ich mit meiner megaschrotten, nagelneuen HD 7750 bei in den meisten Situationen etwas höherem Stromverbrauch. Ich hab´s gar nicht versucht, maximal viele FPS/Euro zu bekommen und die Enttäuschung von Freunden ist jetzt auch hoch, weil die HD 6850 hätte doch so einen guten Job gemacht . Ja genau, aber am Kauftag der neuen Karte hatte ich irgendwie keine Lust auf Fermi oder HD 5000er Karten, wo die 1. Zahl durch eine 6 ersetzt wurde (da wollte ich rumzicken) und habe in wenigen Tagen damit die Performance einer GTX 550 Ti bei Skyrim. Und unser Atma wird sich in so mancher Situation freuen, die Extra-Performance zur sowieso schon starken GTX 670 zu haben.
Nun zur Frage vom Geld und von der Zeit, die eine Architektur auf dem Markt ist: Bei z.B. i3-21XX gegen Phenom 2 x6 wird´s ähnlich viele grinsende Gesichter geben (das könnte eine Lüge von mir sein, denn ein i3 ist sowas von gut!). Eine nagelneue Architektur hat auch so seine Vorzüge, selbst teildeaktiviert. Senkt Verbrauch und Temperaturen, Lautstärke und Kosten und in machen Anwendungen gibt´s quasi genauso viel Performance wie bei den großen Brüdern.
Hätte ich einen Wunsch frei, dann den dass Atma nicht sauer auf Nvidia ist (die können nichts dafür, ok außer ein starkes, turbofestes Modell der GTX 670 zu Testzwecken geliefert zu haben), denn wenn nicht der Preis geringer wäre oder die Performance der GTX 680 noch höher, dann muss Atma gehofft haben, dass die GTX 670 weniger leistet. Kein Grund neidisch zu sein, wenn der Gegenspieler keine Ruckeler hat und ein würdiger Kontrahent im Spiel ist. Problematisch wird der Mehrpreis der 680er evtl. nur bei der Neuanschaffung in anderen Bereichen. Soviel dazu
MfG
Zuletzt bearbeitet: