Denkst Du also, wer nur auf "Gaming-Performance" (sprich FPS) wert legt, der brauch sich absolut keine Gedanken um das GPGPU-"Problem" der 680er zu machen?
Genau das denke ich.
Ich bin zwar weder GPU- noch Spieleentwickler, aber bislang haben abstrakte GPGPU-Benchmarks nie eine Aussage über die Spieleleistung treffen können. Die Anforderungen sind einfach zu unterschiedlich.
Also das die Wahrscheinlichkeit sehr hoch ist, das alle Anwendungen in dieser Richtung (aktuelle und kommende, zb. halt OpenCL-Physik usw, ich hab keine Ahnung ob zb. das GPU-Streaming des Spiels Rage von "GPGPU-Einheiten" erledigt wird) mit einer 680 schneller abgearbeitet werden als mit einer 580?
Ich will nicht ausschließen, dass solche Einzelfälle auftreten können. Aber ich bin mir sehr, sehr, sehr sicher, dass es sich auf absehbarer Zeit kein Spieleentwickler wird leisten können, z.B. DP-Leistung auf Niveau einer GTX580 vorrauszusetzen. Die Physikengine eines durchschnittlichen 2013er Spiels wird froh sein, wenn sich einen ganzen Sandy Bridge Core genehmigen darf. Möglich, dass eine GTX580 diese Leistung dann mit 3% Auslastung übernehmen kann, während die GTX680 5% ausgelastet ist. Aber selbst dann bleiben unterm Strich mehr fps, weil der Bildgebende Teil viel wichtiger ist.
Ein Spiel, dass z.B. 50% der Leistung einer GTX680 für Physik opfert und deswegen spürbar schlechter, als auf einer GTX580 läuft, wäre schlichtweg eine Techdemo, die man auf 95% aller PCs gar nicht erst installieren bräuchte - so ein Verlustobjekt programmiert niemand.
Ungeachtet meiner Verunsicherung, und der evtl. daraus resultierenden angepassten Kaufentscheidung: Das Nvidia GPGPU auch für Heimanwender erst mit als Argument/Feature aufführt, und dann plötzlich (quasi still und leise) eine Aufspaltung in Gaming-Only und Gaming-GPGPU-Komplett (o. wie auch immer man es nennen will) vollzieht, finde ich doch irgendwie seltsam. Vor kurzem hatte man noch den Eindruck Nvidia wolle (mal etwas überspitzt) die CPU aus dem PC verdrängen, und dann sowas...
Ich denke mal, dass Nvidia eingesehen hat, dass sie keine Chance haben. Technisch könnte gpGPU einen massiven Teil der Rechenarbeit übernehmen. Aber praktisch steht Nvidia einfach vor dem Problem, dass alle gpGPU-Aufgaben nicht skalierbar sind (wie Grafikberechnungen) bzw. wenn dann nur in zeitlichen Dimensionen. Damit gibt es nur zwei Formen von gpGPU-Anwendungen
a) Anwendungen, deren Abschluss auch mal länger dauern darf (z.B. Konvertierung): Ist nett, wenn die dank gpGPU schneller fertig werden - aber genau solche erzwingen nur bei wenigen Pro-Usern, die zu oft warten müssten, einen Systemwechsel
b) Echtzeitanwendungen, die auf allem und jedem System in annehmbarer Geschwindigkeit laufen müssen. Das heißt im Umkehrschluss: Deren gpGPU-Potential sich auf die Leistungsfähigkeit einer IGP beschränkt. Ggf. mit leichten Vorteilen bis ~max. doppelte IGP-Leistung. Hierfür braucht man die HPC-orientierten Einheiten eines GF110 einfach nicht, selbst ein GK108 wird das Niveau einer Ivy-Bridge-Grafikeinheit (wenn für die überhaupt ein OCL-Treiber kommt) locker überbieten.
Da Nvidia mitlerweile auch keine Chance mehr hat, die IGP-gpGPU-Leistung zu pushen (wie zu den Zeiten, zu denen sie kräftig auf die Pauke schlugen), gehe ich davon aus, dass gpGPU@home ein toter/schlafender Markt ist, in dem man nur noch auf Intel reagiert. Die einzige weit verbreitete Heimanwendung, die noch von dedizierten Beschleunigern profitieren kann, wäre Videobearbeitung - und die bedient man via fixed function einfacher.