Test der Nvidia Geforce GTX 680: Ist AMDs Radeon HD 7970 geschlagen?

Der Rest steht in der Sig ;)
Auflößung währe 1920x1080, wobei auch Downsampling mit dabei ist wenn es die GTX570 zulässt.
Spielemäßig ist durch die Bank alles mit dabei was mir in die Finger kommt. BF3, Metro, GTA IV aber auch ein wenig Strategie wie Ruse o.ä.
 
Naja...lohnen ist immer relativ. Der Prozessor könnte hier und da eventuell schonmal bremsen aber es kommt sehr auf die Settings an.
Wenn man eben bereit ist soviel auszugeben...persönlich wäre ich das wohl nicht für den zu erwartenden Schub.
 
Das war der bisher beste Test den ich bei PCGH lesen durfte, besonders weil der Parkour sehr arg gefällt :daumen:

Ich wünsche mir fürs nächste Heft (oder auch gerne online) einen großen Architektur-Vergleich: Tahiti vs. Kepler vs. Cayman vs. Fermi alle auf ~900MHz (Fermi tanzt da durch hotclock aus der Reihe, geht eben nicht anders) und dazu noch vs. Pitcairn und vs. Cape Verde, so dass man die Einheitenskalierung bei GCN sieht. Wie stehen die Chancen, dass mein Wunsch erfüllt wird? :)
Die Antworten die man lesen würde, wäre nur eine Zusammenfassung von dem, was du eig. schon weißt, außer die taktbereinigte Leistung. Mich würde mal ein richtig tiefer Einblick interessieren, aber bis heute ist die c't das höchste der Gefühle.

Das wäre toll, oder besser einfach Kepler gegen Tahiti beim gleichen Takt, von mir aus beide 1100 Mhz, schauen was die sich dann nehmen. Hab das Gefühl dass die 680 und die 7970 bei gleichen Takt gleich schnell sind.

Auch kann man durch den Hotclock wegfall endlich Nvidia u Ati Architekturen vergleichen. :)
Wenn man extrem flach die Architekturen betrachtet, dann vielleicht.

War es nicht bisher auch so das der GF100/110 ein weitaus höhere Tessleistung als der GF 104/114 hatte?
Ja, GF100/110 hatten 8 PolyMorph-Engines, ein GF104/114 "nur" 4 davon. Kepler hat auch "nur" 4, allerdings gibt Nvidia an den Durchsatz um 2 erhöht zu haben und somit sind 4 PolyMorph 2.0 Engines genau so Leistungsstark wie 8 1.0 Engines. Die Benches geben das auch wieder. Der Vorsprung von Kepler rühmt daher, dass der Takt von den ~720 Mhz auf 1000+ natürlich auch um ein gutes Stück gestiegen ist.

Nachtragend will ich noch anmerken das du vollends recht hattest mit dem GK 104 ;)
Nvidia hat wie geplant ihre 30% Mehrleistung erreicht. Ich habe persönlich mit rund 10-15% weniger gerechnet.
 
Zuletzt bearbeitet:
Das ist er also der große Überhammer, den hie alle herbei geredet haben. :huh: Etwas wehnig, für die längere Entwicklungszeit oder. :what:
Aber respekt an NV für den Stromverbrauch :hail: Das hätte ich nicht gedacht. Klasse
Aber der rest ist doch recht ernüchternd. In Games nur minimal schneller. Na ja, man kann nicht alles haben.

Netter Test, PCGH wobei man über das Fazit doch streiten könnte und manche sachen mehr betohnen sollte. Ist auch das erste mal das PCGH hingeht und die Gameleistung von GK vom rest trennt. Will man da was besser dastellen(was tut man nicht alles) ? komisch, aber an sonsten ok.

Bin etwas entäuscht. Aber im goßen und ganzen ein rundes Packet die GTX680.(wenn man nicht mehr als 4XMSAA will) :daumen:
 
Zuletzt bearbeitet:
Der Rest steht in der Sig ;)
Auflößung währe 1920x1080, wobei auch Downsampling mit dabei ist wenn es die GTX570 zulässt.
Spielemäßig ist durch die Bank alles mit dabei was mir in die Finger kommt. BF3, Metro, GTA IV aber auch ein wenig Strategie wie Ruse o.ä.
Na bei GTA IV+ENB muss es sich doch schon alleine wegen den 2 GB VRam lohnen! Aber leider habe ich gestern keinen einzigen Test mit gta4-Benchmarks gesehen. :-(
 
Ich würde eher sagen seit März 2011 ;) Das ist nen bischen mehr als 2-3 Wochen vorher. Schau dir vor allem mal an, was XE85 zu dem Zeitpunkt noch vom Stapel gelassen hat, und wie ich mich da mit Händen und Füßen gegen seine Aussagen bzgl 8 Core für Desktop und Launch spätestens Anfang Q3, statt von mir: "aller aller frühestesns Ende Q3 eher sogar Richtung Q4, wenns dumm läuft wirds sogar 2012, wobei das auch für die Xeons gelten kann mit der Verfügbarkeit."

Es gibt immer Leute, die tollen Schwachsinn reden. Da muss man nicht mal Mitglieder dieses Forum dissen - bei Charlie oder OBR findet man eigentlich zu jedem Thema die nötige Portion Schwachsinn :ugly:
Worum es mir geht ist, dass auch du meiner Erinnerung nach nicht im März 2011 gesagt hast "am 14. November bringt Intel Sandy Bridge E mit 6 Kernen für Desktop". Im Frühsommer dagegen zu sagen, dass "rechtzeitig zum Weihnachtsgeschäft, vermutlich ~zum üblichen Releasetermin im November, Desktophexacores kommen und ihnen keine Octacores folgen werden", das konnte man auch problemlos anhand öffentlich kreisender Informationen und mehr als genug Leute haben es auch gemacht. Sowas ist keinerlei Beleg für Insiderwissen und wird niemanden dazu bringen, deine Behauptung, es hätte nie einen GK100 gegeben, ohne weitere Belege/Quellen zu glauben. Also entweder findest du solche - oder du findest dich damit ab, dass die durchaus plausible Geschichte vom zurückgezogenen GK100 weiterhin von vielen bevorzugt wird. :ka:

Wobei mich wie gesagt, die hohe Spannung im Turbo doch sehr verblüfft. Hätte nicht gedacht, das man so hoch muss und dabei dann doch! so niedrig mit der Leistungsaufnahme bleibt. Der Turbo funktioniert wie gesagt, scheinbar echt verdammt gut.

Wenn die Einheiten idlen kann man die Spannung halt hochdrehen, wie man will, ohne dass es warm wird. Ich würde mich aber auch nicht wundern, wenn die Turbospannungen hoffnungslos überzogen sind. Die Technik ist recht neu und sie stellt recht hohe Anforderungen an die Taktstabilität des Chips - better safe then sorry. Um AMD zu schlagen reicht es auf alle Fälle. Es würde mich nicht wundern, wenn wir bei GK106 und 108 und vor allem bei den mobilen Ablegern im Laufe des Jahres deutlich stärkere Taktanhebungen sehen werden, ohne dass sich die Spannungssteigerungen ändern.

Das wird wohl stark von der Sichtweise abhängen, ob das noch ein Gamer-Chip mit HPC Zeugs drin ist, oder ein HPC-Chip, der auch ein Gamer-Chip ist.

Die Einnahmen von Nvidia machen eine sehr deutliche Aussage darüber, welche von beiden Funktionalitäten Entwicklungspriorität haben sollte ;)
Nvidia macht sich ja nichtmal mehr die Mühe, Zweichiplösungen ala G80 zu fertigen, um die High-End-GPU bei Bedarf auch ohne dort sinnlose Ausgabeeinheit im HPC Bereich verbauen zu können.

Da ich aber aus 2 unabhängigen Quellen gehört habe, das GK110 zuerst als Tesla kommt, würde ich eher auf letzteres tippen.

Das sagt ja nichts über die Konstruktion aus. Wenn die Gf600 ohne echten High-End-Chip und damit ohne HPC-Ableger bleibt, ist der Bedarf für neue Produkte im HPC-Bereich halt wesentlich höher und die geringeren Tesla-Stückzahlen sind sowieso einführungsfreundlich. Aber der Kernpunkt des Geschäfts wird trotzdem die 780 (oder wie auch immer) werden.


Aber gut zu wissen. Danke. Da fragt man sich dann aber schon, warum die Custom-OC-Dinger dann teils noch weit aus weiter gehen, wenns praktisch eh kaum einer ausnutzt :ugly: Ich weiß, die LN2 Junkies.

Das meiste, was auf OC-Versionen, OC-Mainboards,... verbaut wird, ist einfach nur Blendwerk. Ohne Custom-PCB schindet man eh keinen Eindruck, ein paar zusätzliche Spulen kosten nicht viel - also rauf damit, was das Zeug hält. Für die Spannungsstabilität wird das in vielen Fällen vermutlich nicht nur "nichts für den Normalnutzer", sondern "gar nichts" bringen. Man darf ja auch nicht vergessen: Die sogenannten "Phasen" sind in aller Regel keine. Newsseiten und Marketingabteilungen zählen nunmal nicht die einzelnen Regelkreise/Phasen - sondern die Spulen (und Mosfets und Kondensatoren) auf der Platine. Da werden dann halt 12-16 Stück verbaut, aber der Spannungscontroller, der sie ansteuert, hat weiterhin nur 3-4 Kanäle = Phasen. Durch die massive Parallelschaltung kann zwar jede einzelne davon abnorme Ströme liefern - aber was nützt das? Die Restwelligkeit dürfte in den meisten Fällen schon vorher durch die Regelverzögerung dominiert werden, weil nunmal die Lücken zwischen dem Nachregeln der einzelnen Phasen die gleichen bleiben. Da würde eine bessere Ansteuerung (mehr Kanäle oder eine höhere Frequenz - wie afaik beim Epower) wesentlich mehr bringen. Aber dafür müsste man ja Geld und Entwicklungsaufwand investieren und derartige OC-Versionen sollen ja eigentlich vor allem höhere Preise erzielen ;)


normalerweise hätte man den highendchip GK110 jetzt für 600 euro kaufen sollen und GK104 für 300 euro.
nvidia hat aber die strategie verändert und aus GK104 performance einen Highendchip names GTX 680 gemacht.

Ich habe nicht einmal etwas davon gehört, dass der jemals GK110 fürs erste Halbjahr 12 in Frage kam. Ich persönlich würde mich nicht mal wundern, wenn die Planung daran mit Ziel 2013 begann.


War nicht vor ein paar Tagen mal ein Chart aufgetaucht, wo der GK110 lediglich ein DualGPU Design wie New Zealand sein soll, welcher aus 2 GK104 GPUs besteht?

Wäre mir nicht bekannt und Nvidia hat die Codenamen bislang immer an DIEs gekoppelt und nie getrennte für DualGPU-Ausführungen vergeben. Dass eine solche kommen wird, gilt als relativ wahrscheinlich (zumindest wenn AMD noch was oberhalb der 7970 bringt), aber zusätzlich (bzw. vor) dem GK110.


OK, aber warum dann GTX680 und nicht GTX660Ti? Und wenn GTX680, was bedeutet dies dann für den GK110? Bekommt der dann für GPGPU noch mal ne Milliarde Transistoren spendiert? Sprich deutlich größerer Chip? Oder "lötet" man vom GK104 ein paar "Gaming-Transis" um in "GPGU-Transis"? :ugly:

Hätten sie den GK104 als 660 gebracht, hätte es ein weiteres halbes Jahr oder länger keine neue High-End-Karte im Protofolio gegeben. Trotz ständiger Umstürze ist x8x(x) nunmal seit geraumer Zeit als Nvidia-Topmodell in den Köpfen der Leute verankert (Gf5 und 7 hatten eine x9xx als Refresh, ansonsten ist die Tradition seit der 4tiB ungebrochen)
Für den GK110 bedeutet das erstmal nur, dass er wohl auf 700er Nummern ausweichen muss. Technisch ist damit zu rechnen, dass er sich zum 104 wie der GF100/110 zum GF104/114 verhält. Also rund 50% größer, wobei vor allem die Einsparungen an Komponenten, die fürs Rendering sekundär sind, wegfallen. (Zahlenangaben sind aber mit Vorsicht zu genießen, denn dieses Namensschema ist ja auch erste eine Generation+Refresh alt und es war ein arg schmalbrüstiges Refresh noch dazu)


Und da ich atm nicht weiß auf welche "GPU-Anwendungen" genau sich dieser "Gaming-Fokus" negativ (und wenn dann leider richtig negativ) auswirkt, heißt es erstmal: Keine neue GPU kaufen. Zumal ja GPGPU auch für Spiele interessant sein könnte (Stichwort Physik usw über openCL).

In aller Regel legen die gpGPU-Benchmarks großen Wert auf die DP/64 Bit Leistung. Die ist bei Geforces traditionell stark und bei kleinen Geforces sehr stark beschnitten. Aber sie ist für Spielephysik auch irrelevant. Davon abgesehen sind die Sperren afaik treiberbasiert und man kann wohl davon ausgehen, dass Nvidia eher Ausnahmen deklarieren würde, als in größeren Titeln gnadenlos deplatziert zu werden. Umgekehrt lohnt es sich für Entwickler aber auch gar nicht, großartig Arbeit in so aufwendige Physik zu investieren, wenn dann viele Grafikkarten gar nicht die Leistung zur Umsetzung haben. Nicht umsonst beschränken sich GPU-PhysX-Boni bislang fast durchgängig auf eine gesteigerte Partikeldichte, deren Umsetzung vermutlich fünf Minuten gedauert hat.

Um Spiele mache ich mir jedenfalls gar keine Gedanken. Und für andere Anwendungen muss man halt wissen, wie zeitkritisch und aufwendig die sind, die man nutzen möchte.


In welchen Anwendungsszenarien wird eigentlich GPGPU genutzt, die für mich als End - User und Gamer von Bedeutung sind ? Gehört PhysX zu GPGPU ? Kann man also davon ausgehen, dass die 680 dort schlechter abschneidet als ihre Vorgänger bzw. der noch ausstehende GF110 ?
Welche Nachteile hat man konkret bei einer beschnittenen GPGPU - Leistung wie aktuell beim GF114 ? Ok, Folding@Home gehört wohl dazu, aber das nutzen doch nur eine Handvoll User... ??
Viele Fragen ich weiß, aber ich blick das nicht so ganz...

PhysX gehört formal zu gpGPU, aber wie oben erwähnt: Es findet ja keine Filterung nach Begriffen statt. Die (kleineren) Geforce haben eine konsequenter aufs Rendering ausgelegte Zusammenstellung von Funktionseinheiten, was ein bißchen Leistung kostet (aber bei PhysX wurscht ist, denn da muss ja eh parallel gerendert werden) und vor allem eine drastisch und künstlich beschränkte DP Leistung. PhysX arbeitet aber afaik nur mit 32 Bit. Für Gamer somit wurscht, für F@H vermutlich eine Katastrophe. Aber wer sich dafür Hardware kauft, macht imho eh was falsch.
 
3 Monate, fast ein ganzes Jahrhundert, ich bin auch ganz arg enttäuscht :(


Sind drei Monate nicht. Glaubst du das die, diese Zeit mit kaffee trinken verbringen? IN drei Monaten kann man eine menge erreichen, außer du natürlich :schief:

Na ja, wenn man Skyrim aus dem Testfeld streichen würde, wären alle NV Fans am Boden zerstört. :lol: Dann wäre der NV Hammer, gerade mal so schnell wie die 7970 :P im Mittel. Dann wären die drei Monate noch schwerer zu bewerten :D.
Aber ich will deiner Überkarte doch nichts. Ist schon toll. :daumen:
 
kuer schrieb:
Sind drei Monate nicht. Glaubst du das die, diese Zeit mit kaffee trinken verbringen? IN drei Monaten kann man eine menge erreichen, außer du natürlich :schief:

Was soll denn in den drei Monaten groß passiert sein? Zieht man noch die nötige Produktionszeit ab, dann hatte NV keine Zeit um nach dem Launch der HD7970 noch großartig was an dem GK104 zu ändern.
 
Was soll denn in den drei Monaten groß passiert sein? Zieht man noch die nötige Produktionszeit ab, dann hatte NV keine Zeit um nach dem Launch der HD7970 noch großartig was an dem GK104 zu ändern.

Ebend. Wenn ich mir die Verfügbarkeit anschaue, dan sind schon viele auf Lager bei Händlern oder im zulauf.
Man kann locker davon ausgehen das nur folgenes passiert ist seit HD 7970 wurf von AMD: Produktion -> vileicht nen bissl testen -> Vorlauf, in welchem die Karten und chips and Boardpartner Verteilt wurden, und diese dan auf Großhänlder verteilen, und diese wiederum auf Shops wo du und ich die Karten kaufen.

Also bis auf Treiber anpassungen kann da nicht viel gewessen sein.

Und meine meinung zur Karte: Richtig dufte, und ist in meinen Augen ein deutlicher Hammer.
 
Sind drei Monate nicht. Glaubst du das die, diese Zeit mit kaffee trinken verbringen? IN drei Monaten kann man eine menge erreichen, außer du natürlich :schief:

Na ja, wenn man Skyrim aus dem Testfeld streichen würde, wären alle NV Fans am Boden zerstört. :lol: Dann wäre der NV Hammer, gerade mal so schnell wie die 7970 :P im Mittel. Dann wären die drei Monate noch schwerer zu bewerten :D.
Aber ich will deiner Überkarte doch nichts. Ist schon toll. :daumen:
Geht das hier schon wieder los??? Hört doch mit dem Gebasche auf,bitte!

Wir können doch alle froh sein das es jetzt mehr Auswahl gibt und die Preise sinken!
und jetzt zurück zu Thema ...
 
Naja...lohnen ist immer relativ. Der Prozessor könnte hier und da eventuell schonmal bremsen aber es kommt sehr auf die Settings an.
Wenn man eben bereit ist soviel auszugeben...persönlich wäre ich das wohl nicht für den zu erwartenden Schub.

Naja, die 680 ist ja schon der 580er in manchen spielen 10-20 FPS vorraus...mal nochmal durch den Kopf gehen lassen :D



Na bei GTA IV+ENB muss es sich doch schon alleine wegen den 2 GB VRam lohnen! Aber leider habe ich gestern keinen einzigen Test mit gta4-Benchmarks gesehen. :-(

Ich auch noch nicht, aber mit ENB hat die GTX570 auf jeden fall schon ordentlich was zu tun :devil:
Aber da geb ich mich auch schon mit kanpp über 30FPS zufrieden für die Optik...auch wenn etwas mehr sicherlich nicht schaden würden...
 
Sind drei Monate nicht. Glaubst du das die, diese Zeit mit kaffee trinken verbringen? IN drei Monaten kann man eine menge erreichen, außer du natürlich :schief:

Na ja, wenn man Skyrim aus dem Testfeld streichen würde, wären alle NV Fans am Boden zerstört. :lol: Dann wäre der NV Hammer, gerade mal so schnell wie die 7970 :P im Mittel. Dann wären die drei Monate noch schwerer zu bewerten :D.
Aber ich will deiner Überkarte doch nichts. Ist schon toll. :daumen:
Gut, daß hier kein Fanboy spricht. Das Ganze mit kleinerem Chip aus der Performance-Reihe, gegen AMD/ATIs Flagschiff...:D.
 
Naja, die 680 ist ja schon der 580er in manchen spielen 10-20 FPS vorraus...mal nochmal durch den Kopf gehen lassen :D
Ich auch noch nicht, aber mit ENB hat die GTX570 auf jeden fall schon ordentlich was zu tun
Aber da geb ich mich auch schon mit kanpp über 30FPS zufrieden für die Optik...auch wenn etwas mehr sicherlich nicht schaden würden...

Lt. dem CB-Test liegt die 680 durchschnittlich etwas über 50 % vor der 570.
(Und 150 % vor meiner 460 :-o :D )
 
Zuletzt bearbeitet:
Klingt ja gar nicht mal sooo schlecht :D
Mal noch abwarten was für Wasserkühler raus kommen....dann wird je nach dicke des Gelbeutels zugeschlagen.
 
Hammerteil :daumen:

Im Moment sehe ich bei mir aber keinen Bedarf nachzurüsten. Vielleicht in einem halben Jahr bzw wenn Metro Last Light kommt. :devil:
 
Zurück