Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Bin mal gespannt wie das dann kommen wird.
Sollte die GTX600 Reihe wirklich Midrange sein? Gibt es dann überhaupt eine GTX680?
Vorallem wäre ein Kauf dieser Reihe wieder sehr ärgerlich, wenn 1-2 Monate später die verbesserte GTX700 kommt.

Sollte die GTX600 im Februar kommen, und leistungstechnisch auf Augenhöhe der HD7900 liegen, gäbe es einen interessanten Preiskampf.
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Nach dem ganzen Hin- und Her hoffe ich ja mittlerweile dass 2012 überhaupt noch die neuen High-End-Modelle von Nvidia erscheinen, ich will mir nämlich endlich nen brandneuen PC zusammen stellen nach über 3 Jahren. :schief:
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Nix magisch :ugly: Bin doch kein Fabelwesen oder etwa doch? :what:
Ok, nu aber wieder ernst.

Präemtivesheduling hat keine aktuelle GPU, ob GCN es nu kann oder nicht weiß ich nicht, da AMD ja meint den Software Developer Guide nicht online zu stellen :kotz::daumen2:. Ob Kepler das kann ist schwer zu sagen. Es wäre aber auf jeden Fall SEHR geschickt für so manche Sachen. Aktuell muss man sich, da es eben kein präemtivesheduling gibt, bei manchen Problemen echt das Hirn verrenken, um ne Lösung zu finden, bei der es keine Deadlocks gibt :wall:
Man würde halt komplett neue Möglichkeiten erhalten um gewisse Probleme zu lösen. Ich glaub aber eher nicht, dass das mit Kepler kommt. Bei GCN wars eine verdammte überraschung, und so was macht man nicht "mal eben". x86 Adressraum halte ich für sehr sehr sehr wahrscheinlich. Ein gemeinsamer Adressraum spart dir halt das hässliche hin und her kopieren in Buffern. Das kostet 1. Programmieraufwand, 2. haste jedes mal nen OS-Trap (wenn ich mich recht erinnere) und 3. dauert so ne Kopierorgie auch wieder Zeit. Da ist der gemeinsame Adressrau einfach sehr angenehm für den Programmierer. Wie sich das im Einzelfall positiv/negativ auf die Performance auswirkt muss man eben im Einzelfall sehen. Daher wird es wohl weiterhin beides geben. Explizietes kopieren, quasi als prefetch und eben das impliziete kopieren.
Also wenn AMD es auf der ADFS angibt, dann muss die Fähigkeit ja dafür bestehen. Das ist ja keine Eigenschaft, wie eine DP/SP Konfi, bei der man bei Tahiti von den maximal möglichen 1:2 auf 1:4 runter gegangen ist.

Nicht wirklich. Da wo VLIW extrem stark war, hält GCN mit, was nicht unbedingt zu erwarten war, in anderen Bereich, wo VLIW gegen Fermi im Hintertreffen war, hat GCN jetzt aufgeschlossen. Zumindest wenn du Gamin mal außen vor lässt. Die GPGPU-Leistungssteigerungen sind außer in den VLIW Paradedisziplinen deutlich höher als im Gaming. Es wurde aber auch vor allem viel drum rum gemacht. ECC für Caches und RAM z.B. Das war teils für die bisherigen HD-Serien einfach ein KO-Kriterium. Das fällt nun weg. Man sieht ja aber an GCN, das sich bzgl Frontend, also dem ganzen FFU gedönze der Graphikberechnungen, wenig getan hat. Das ist Evolution, keine Revolution ;)
Ist das nicht zum großen Teil den Caches zu verdanken? Also mir fällt nun besonders das komische Verhalten bei Spielen auf. Bei GPGPU habe ich ja keine konkreten Beispiele. Klar bessere Caches/größere, der Workflow funktioniert deutlich besser, aber für Spiele scheint das nicht so durch zu schlagen wie erwartet. Der GPU-Benchmark von Mandel S zeigt aber für den GCN deutliche Verbesserung während Mandel V nicht so sehr nachlegt.


Also früher hatten die Karten 8 ALUs in einem SIMD Block, wenn ich mich recht erinnere, und die haben eben immer 4 Takte lan einen Warp ausgeführt. 4*8=32. Damit hat man halt erreicht, das man nur alle 4 Takte einen neuen Befehl an die SIMD Unit austeilen muss. Bei Fermi kann man jetzt gleich 2 warps starten auf einer SIMD unit. Einen sogenannten Doublewarp (glaub hies so). Das sind dann also 64 "Threads", die man beackern muss. GF1x0 sollte das mit seinen 2x16 Vec ALUs in 2 Takten machen, bevor ein neuer Befehl vom Sheduler kommt. Das passt auch gut zum ALU/Uncore Takt von 2:1, würde ich jetz sagen. Beim GF104, siehts jetzt wieder etwas anders aus. Da sind es glaub ich gleich 3 Warps, die man startet, welche natürlich alle aus dem gleichen Programm kommen müssen (!) und arbeitet die eben auch in 2 Takten ab. Man sollte also 3 Warp-Sheduler haben. nVidia lässt sich darüber glaub aber auch nicht groß aus, da man GF104 erst spätr brachte. Im Software Developer Guide wird glaub nur GF1x0 betrachtet.
PS: Ich hab mal kurz gegoogelt. Gipsel ausm 3D-Center.org hat sich glaub dazu auch mal ausgelassen. Kannst ja mal schauen ob das auch passst: GF104 - Architektur-Diskussion [Archiv] - 3DCenter Forum

Puh die Thematik war etwas zu viel für meinen Kopf. Nvidia gibt keine 3 Warp-Sheduler an, sondern immer noch 2, die aber zusammen 4 Dispatcher haben. Bestehen zu viel Abhängigkeiten, nimmt ein Warpsheduler nur den ersten Dispatcher. Ich habe auch nach dem lesen nur noch wtf? Theoretisch sollten die Warp-Sheduler von Nvidia also gar 128 Threads verarbeiten können, aber es gibt ja nur 3x16 Vec Einheiten und ein Warp wird doch durch den Zusammenschluss von 2 Einheiten verwebt und was macht jetzt die dritte? :ugly:
Da werden ja auch Worst cases genannt von nur 32 Cores von 48 nutzbar, dann wieder andere von nur 2/3 der Leistung und ich raff echt nicht wie das ganze funktioniert.

So nun zu AMD.
Die haben nie Warps gehabt, weil das CUDA-Sprech ist :ugly: Die haben Wavefronts, wie es in OpenCL-Sprech richtig heißt (sollte sich nVidia mal merken.....).
Die hatten ja sehr lange VLIW. Ergo war/ist eine Wavefront auf jeden Fall schon mal ein Vielfaches von 5. Da man wie bei nVidia auch wenige Instructionen decoden will, hat man einfach mehr VLIWs auch zu Gruppen zusammengefasst. Das warn bei VLIW5 eben 80er ALU Gruppen (5[VLIW]*16=80) und bei VLIW4 sind es eben 64 ALUs in einem Block (4[VLIW]*16=64). Naja und bei GCN sind es 4*16VecSIMD=64. Man ist also von 5/4er Granularität bei VLIW für eine Instruction auf 16 runter, was vorher 16 mal multipliziert wurde und nun noch 4 mal.
Hoffe das ist klar :ugly:

Ja :ugly:

Warum fragst du eigentlich, wenn du die Antwort kennst?

(Kommt eigentlich aufs gleiche raus, was wir erzählt haben oder? Wobei ich deiner Erklärung nicht 100% folgen kann mit den 4x32. Ist aber auch nicht wichtig, wie das jetzt genau im Detail gemacht wird. Man brauch 64 Threads und gut ist ;))

Die Frage war nur ironisch gemeint ;)
Ich wollte ihm nur auf zeigen, dass meine Frage gar nicht so weit weg war, vom theoretischem Wissen, was er selber schon besitzt und woher die Zusammenhänge überhaupt kommen.
Und die 4 x 32 waren hätte ich besser so geschrieben. 4 x (GPC) x 4 ( SM) x 32 (2x 16 Vec) = 512 "Cuda Cores"
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Anhand verschiedener Gerüchte komme ich zu folgender Zusammenfassung:

GT 680 = GK104: April (nicht GTX da weniger Bandbreite als GTX 580?). Laut OBR erscheint sie nicht früher.
GT 660 = GK104: Mai
Quelle: OBR 18. Januar 2012
--> GT 680 zwischen HD 7950 und HD7970? GT 660 auf HD 7870-Niveau?

GK106: Juni
GK107: Mai
GK108: unbekannt
Quelle: Fudzilla
--> GK106 GT 650?

GTX 780 (oder GTX 680) = GK110: später als GK104, möglicherweise im nächsten Halbjahr.
 
Zuletzt bearbeitet:
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

ne ziemlich sicher nicht. Aus 3d-Center hört man "leaks", das die GK110 erst im Mai oder noch später kommt.
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

ist halt schon Gold wert für AMD gerade...
7950 erscheint jetzt auch schon bald...
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Die High-End Keplers sollen Gerüchten zufolge erst in 6-7 Monaten erscheinen. Oh Mann Nvidia... :klatsch::nene:

AMD wird Nvidia bestimmt mächtig in die Suppe spucken mit einem Tahiti-Refresh (HD7975?). Genügend Zeit für Chip-Respins haben sie ja.................

AMD hat jetzt schon so einen krassen technischen Vorsprung, dass es schon erschreckend ist (wer spielt denn ohne AA+AF :lol:). Ich halte es mittlerweile für möglich, dass AMD irgendwann den GPU-Markt genau so dominiert, wie Intel den CPU-Markt. Das hätte ich vor einigen Jahren absolut nicht für möglich nicht gehalten.
 
AW: Ein Gerücht und nicht mehr: Nvidia soll Release der GTX 680 auf Februar vorziehen

Ich halte es mittlerweile für möglich, dass AMD irgendwann den GPU-Markt genau so dominiert, wie Intel den CPU-Markt. Das hätte ich vor einigen Jahren absolut nicht für möglich nicht gehalten.

Na das halte ich doch für sehr unrealistisch.:schief:
 
Zurück