Test der Nvidia Geforce GTX 680: Ist AMDs Radeon HD 7970 geschlagen?

Ich finde ehrlichgesagt nicht das dies ein nachteil ist da man ja beide Bereiche abdeckt. Der Gk 110 wird ja auch wegen seiner GPGPU Performance gebraucht, auch im Profi Markt.
Sie haben ja bisher auch immer auf 2 verschiedene Chips( bzw. sogar mehr) gesetzt.
Viele interessieren sich eben auch nicht für die Leistungsaufnahme. bzw. wissen das ein bestimmtes Limit nicht überschritten wird. PCIe 3.0 erlaubt von den Spezifikationen auch maximal 300 Watt. Und ich denke man wird sich Hüten allzunah an diese Grenzen ranzutreten.
 
Verstehe auch nicht, was jetzt soviel anders sein soll...

Das einzige was Nvidia geändert hat, ist die Reihenfolge der Releases.
Vorher war es immer, erst High-end Chip (GTX 280, GTX 480, GTX 580 etc.) und dann der Performance Chip (GTX 260, GTX 460, GTX 560 etc.)

Jetzt ist es halt mal anders herum und als Konsequenz zur AMD´s Garde nur logisch.
Warum gleich den "Hammer" raushauen, wenn die Midrage Karte schon ausreicht, um der Konkurrenz die Stirn zu bieten. ;)
 
Der wird durch die Leistung und den Markt bestimmt.
Wer denkt das Nvidia das Teil einfach aus Prinzip für 200€ anbieten würde ist ziemlich blauäugig. Außerdem hätte AMD ja dann seine ganze 7000er Serie unter 200€ platzieren müssen :ugly:
 
  • Like
Reaktionen: hfb
Denkst Du also, wer nur auf "Gaming-Performance" (sprich FPS) wert legt, der brauch sich absolut keine Gedanken um das GPGPU-"Problem" der 680er zu machen?

Genau das denke ich.
Ich bin zwar weder GPU- noch Spieleentwickler, aber bislang haben abstrakte GPGPU-Benchmarks nie eine Aussage über die Spieleleistung treffen können. Die Anforderungen sind einfach zu unterschiedlich.

Also das die Wahrscheinlichkeit sehr hoch ist, das alle Anwendungen in dieser Richtung (aktuelle und kommende, zb. halt OpenCL-Physik usw, ich hab keine Ahnung ob zb. das GPU-Streaming des Spiels Rage von "GPGPU-Einheiten" erledigt wird) mit einer 680 schneller abgearbeitet werden als mit einer 580?

Ich will nicht ausschließen, dass solche Einzelfälle auftreten können. Aber ich bin mir sehr, sehr, sehr sicher, dass es sich auf absehbarer Zeit kein Spieleentwickler wird leisten können, z.B. DP-Leistung auf Niveau einer GTX580 vorrauszusetzen. Die Physikengine eines durchschnittlichen 2013er Spiels wird froh sein, wenn sich einen ganzen Sandy Bridge Core genehmigen darf. Möglich, dass eine GTX580 diese Leistung dann mit 3% Auslastung übernehmen kann, während die GTX680 5% ausgelastet ist. Aber selbst dann bleiben unterm Strich mehr fps, weil der Bildgebende Teil viel wichtiger ist.
Ein Spiel, dass z.B. 50% der Leistung einer GTX680 für Physik opfert und deswegen spürbar schlechter, als auf einer GTX580 läuft, wäre schlichtweg eine Techdemo, die man auf 95% aller PCs gar nicht erst installieren bräuchte - so ein Verlustobjekt programmiert niemand.

Ungeachtet meiner Verunsicherung, und der evtl. daraus resultierenden angepassten Kaufentscheidung: Das Nvidia GPGPU auch für Heimanwender erst mit als Argument/Feature aufführt, und dann plötzlich (quasi still und leise) eine Aufspaltung in Gaming-Only und Gaming-GPGPU-Komplett (o. wie auch immer man es nennen will) vollzieht, finde ich doch irgendwie seltsam. Vor kurzem hatte man noch den Eindruck Nvidia wolle (mal etwas überspitzt) die CPU aus dem PC verdrängen, und dann sowas... :D

Ich denke mal, dass Nvidia eingesehen hat, dass sie keine Chance haben. Technisch könnte gpGPU einen massiven Teil der Rechenarbeit übernehmen. Aber praktisch steht Nvidia einfach vor dem Problem, dass alle gpGPU-Aufgaben nicht skalierbar sind (wie Grafikberechnungen) bzw. wenn dann nur in zeitlichen Dimensionen. Damit gibt es nur zwei Formen von gpGPU-Anwendungen
a) Anwendungen, deren Abschluss auch mal länger dauern darf (z.B. Konvertierung): Ist nett, wenn die dank gpGPU schneller fertig werden - aber genau solche erzwingen nur bei wenigen Pro-Usern, die zu oft warten müssten, einen Systemwechsel
b) Echtzeitanwendungen, die auf allem und jedem System in annehmbarer Geschwindigkeit laufen müssen. Das heißt im Umkehrschluss: Deren gpGPU-Potential sich auf die Leistungsfähigkeit einer IGP beschränkt. Ggf. mit leichten Vorteilen bis ~max. doppelte IGP-Leistung. Hierfür braucht man die HPC-orientierten Einheiten eines GF110 einfach nicht, selbst ein GK108 wird das Niveau einer Ivy-Bridge-Grafikeinheit (wenn für die überhaupt ein OCL-Treiber kommt) locker überbieten.
Da Nvidia mitlerweile auch keine Chance mehr hat, die IGP-gpGPU-Leistung zu pushen (wie zu den Zeiten, zu denen sie kräftig auf die Pauke schlugen), gehe ich davon aus, dass gpGPU@home ein toter/schlafender Markt ist, in dem man nur noch auf Intel reagiert. Die einzige weit verbreitete Heimanwendung, die noch von dedizierten Beschleunigern profitieren kann, wäre Videobearbeitung - und die bedient man via fixed function einfacher.
 
Ruyven, DP macht in Games absolut keinen Sinn :ugly: Ob da etwas auf die 10 Nachkommastelle anders sich bewegt interessiert eh keine Sau, wenn ich nur spielen will, aber auch bei jedweder Grafikausgabe. Man benötigt die Genauigkeit einfach nicht.

Zum letzten Punkt. Ja, die FFUs in den CPUs haben teilweise die GPUs verdrängt, bzw. sind eine Reaktion auf diese. Allerdings bieten sich gerade mit APUs ganz neue Möglichkeiten, was komplexere Systeme betrifft, allerdings wird man das erst in Spielen sehen, wenn die Konsolen dazu auch in der Lage sind. Also noch ne ganze Weile nicht :-_-:
 
Und wenn wir ganz ehrlich sind...

Diejenigen die GPGPU performance wirklich benötigen, werden wohl zu einer Quadro greifen. (Damit meine ich Leut, die das professionel für ihre Arbeit benötigen)
 
Ich denke auch das gibt es nicht nur Schwarz und Weiß. Also auch Leute die im privaten Bereich damit etwas anfangen können, aber auch mit der Karte gamen :ugly:
 
Ruyven, DP macht in Games absolut keinen Sinn :ugly:

Ich lasse bei meinen Aussagen gerne Spielraum für 0,000000001 Unsicherheit ;)


Und wenn wir ganz ehrlich sind...

Diejenigen die GPGPU performance wirklich benötigen, werden wohl zu einer Quadro greifen. (Damit meine ich Leut, die das professionel für ihre Arbeit benötigen)

Das liegt jetzt wiederum an den künstlichen Einschränkungen bei den Desktopmodellen. Die Fähigkeiten der Chips sind schließlich identisch und auch nicht jeder, der die Leistung braucht, braucht auch den Support, den man den Quaddros teuer bezahlt.
 
Ist eigentlich schon etwas über die Spieleleistung der "High-End"-Modelle bekannt? Sollen da nur GPGPU-Funktionen ausgebaut werden oder soll da auch die Spieleleistung wieder steigen? Ich hatte eigentlich vor, noch bis zum Herbst zu warten, aber wenn die Leistung in Spielen dann garnicht steigt, kann ich mir auch jetzt die GTX 680 zulegen:)
 
Unrelastische Schätzungen gehen von 50% mehr Leistung aus :ugly:

Persönlich würde ich mir aber mal die Leistungsmäßigen Abstände zwischen GTX 460 und 480 oder zwischen 560ti und 580 ansehen und dann +-5% rechnen. Sollte wohl in etwas hinkommen als grobe Vermutung.
 
So,

ich sage erstmal :daumen: Top für diesen schön geschriebenen Test. Mal sehen was dann im Sommer in den neuen Rechner kommt. AMD oder Nvidia? Wird wohl am Ende dann eh auf den Preis hinauslaufen, bei meinem Verdienst.
 
Schon, sorry, aber der musste einfach sein.

Jedenfalls danke für den guten Test.
Wie schon bei der letzten ATI-Generation, die ja auch nicht ans Limit ging, wäre es mir zwar lieber gewesen, die Technik wäre richtig ausgereizt worden ohne irgendwelche Rücksichten. Die effizienten Modelle können ja gerne nachgereicht werden.
Zuerst interessiert mich aber der Leistungshammer, nicht das Stromsparwunder.

Andererseits freut es mich schon, dass NV auch mal die Leistung steigern und gleichzeitig den Verbrauch senken konnte.
Besonders, da ich bekennender ATI-Hater bin.

Für mich selbst ist die ganze Sache allerdings eher theorethisch, mein GTX 480 Sli reicht mir vorerst vollkommen.
Momentan kein Grund zum Aufrüsten.
 
Schon, sorry, aber der musste einfach sein.

Jedenfalls danke für den guten Test.
Wie schon bei der letzten ATI-Generation, die ja auch nicht ans Limit ging, wäre es mir zwar lieber gewesen, die Technik wäre richtig ausgereizt worden ohne irgendwelche Rücksichten. Die effizienten Modelle können ja gerne nachgereicht werden.
Zuerst interessiert mich aber der Leistungshammer, nicht das Stromsparwunder.

Andererseits freut es mich schon, dass NV auch mal die Leistung steigern und gleichzeitig den Verbrauch senken konnte.
Besonders, da ich bekennender ATI-Hater bin.

Für mich selbst ist die ganze Sache allerdings eher theorethisch, mein GTX 480 Sli reicht mir vorerst vollkommen.
Momentan kein Grund zum Aufrüsten.


Na dann muss ich aber auch mal:
ATI gibts nicht mehr :P

Ansonsten kannst du dich ja noch trösten und auf den GK110 warten. Der wird dann schon genug Leistungsaufnahme haben damit keiner enttäuscht sein muss :ugly:
 
  • Like
Reaktionen: hfb
Ist eigentlich schon etwas über die Spieleleistung der "High-End"-Modelle bekannt? Sollen da nur GPGPU-Funktionen ausgebaut werden oder soll da auch die Spieleleistung wieder steigen? Ich hatte eigentlich vor, noch bis zum Herbst zu warten, aber wenn die Leistung in Spielen dann garnicht steigt, kann ich mir auch jetzt die GTX 680 zulegen:)

In die Gerüchteküche ist afaik noch gar nichts durchgesickert. Das einzige, was man weiß ist, dass bei den Fermis die 1x0 beide male merklich mehr Spiele- und Rechenleistung hatten, als die 1x4 und zusätzlich etwas besser auf gpGPU abgestimmte Begleiteinheiten (was etwas für gpGPU brachte, aber im Spieleeinsatz allenfalls den Verbrauch steigerte) und vom Treiber eine weniger starke Bremse für die DP-Berechnung bekamen (was sehr viel für Benchmark gpGPU und HPC bringt, aber rein gar nichts für Spiele).
Es wird davon ausgegangen, dass es sich mit GK1x0 und GK1x4 genauso verhält.
 
Zurück