Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Status
Für weitere Antworten geschlossen.
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Und warum glaubst du, dass 1536 Shadereinheiten mit 700MHz einfacher auszulasten sind als 768 Shadereinheiten mit 1,4GHz?
Das ist ja genau das Problem das AMD hat (grade bei VLIW, seit GCN gehts ja einigermaßen).

klar ist das schwerer, nur mir hotclock hast du wieder das problem mit dem hohen stromverbrauch. genau das ist aber etwas, was sich nvidia nicht mehr leisten kann, wenn sie noch eine gewichtige rolle im notebookmarkt spielen wollen. übrigens hat cgn das problem nicht wirklich beseitigt, man gucke sich nur mal tahiti und pitcairn an ;). tahiti xt hat gut 60% mehr shader am laufen, kann sich aber nur 25-30% absetzen, da läuft irgendwas schief.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

wenn nvidia den hotclock losgeworden ist, passt das mit den 1536 cuda-cores vom platz her schon. zum vergleich, tahiti hat bei einer die-size von 389mm² 2048 shader am laufen. eigentlich spricht alles dafür, das es kein hotclock mehr geben wird, weil mit wäre es verdammt schwer, die perf/w kräftig zu erhöhen.
Genau so ist es. (Tahiti hat übrigens 365mm² und Cayman 389mm²)
Da hat einfach jemand wohl die Vec-Breite auf 32 gestellt und 2 GPCs angedockt und somit lediglich einen GF110 skaliert.
Der Aufbau wird sich aber wohl eher an einem GF104 orientieren.

Und warum glaubst du, dass 1536 Shadereinheiten mit 700MHz einfacher auszulasten sind als 768 Shadereinheiten mit 1,4GHz?
Das ist ja genau das Problem das AMD hat (grade bei VLIW, seit GCN gehts ja einigermaßen).

Also vom Auslastungsstandpunkt aus wäre es gerade nicht gut, sich mehr Shadereinheiten hinzusetzen die noch schwerer auszulasten sind.

Wenns so kommt gehts meiner meinung nach eher um die GPGPU Fähigkeiten und die theoretische Rechenleistung außerhalb von Spielen. In dem Bereich ists nämlich oft wesentlich einfacher, für alle 1536 Shader eine Aufgabe zu finden - und man könnte auch an die exorbitanten Rechenleistungen von Radeon-Karten mal wieder anknüpfen, auch wenn ich glaube das NV-typisch dann die DP-Performance für Desktopkarten wieder arg beschnitten werden wird.
Es ist unmöglich, dass 1536-Shader Einheiten genau so gut aus zu lasten sind, wie 768.
Es gibt aber einen Punkt wo Hotclock nur lohnt, wenn man auch genug Takt geben kann. Wenn der Prozess zu extrem leaked oder die Leistung sehr schlecht skaliert, ab einer gewissen Taktzahl, dann ist es lohnenswerter die Einheiten massiv zu erhöhen, dichter zu packen und weniger Mhz laufen zu lassen. Das sollte auch den Verwaltungsoverhead kompensieren können.
Hotclock + 1536 Cores no Way. Außer Nvidia trickst bei einer Sache.

Gk104 wird scheinbar eine Gamer-Karte und ein GK110 sich deutlich nach GPGPU orientieren.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Ok das ist natürlich ein Punkt. Mal sehen wies am Ende kommt - 1500 Shader mit 700MHz oder doch 700 Shader mit 1500MHz :ugly::D
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Natürlich können sie das - aber ob man das noch innerhalb von 225W (2x 6pin+PCIe) kann ist was anderes :D
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Natürlich können sie das - aber ob man das noch innerhalb von 225W (2x 6pin+PCIe) kann ist was anderes :D
Natürlich. Tahiti schafft es mit 925 mhz und 2048 ALUs unter 200 Watt zu bleiben ;)

Mich interessiert gerade die Aufteilung. Es gibt einige Szenarien wie Nvidia einen Gk104 aufbauen könnte, aber der Zahlensprung ist so groß, da bin ich ein bisschen Irritiert. Wenn jetzt die Vektorbreite auf 32 angehoben wird, dann haben wir schon einmal die Cores verdoppelt, 768.Packen wir noch 2 GPCs dazu, dann haben wir auch unsere 1536-Cores.
Das wäre aber wirklich eine abartige Packdichte im Vergleich zum Fermi.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Das sind aber auch keine 1D Shader ;)
Einen Gang zum Waschbecken würde ich dir empfehlen :D

Tahiti verpackt die Instruktionen nicht mehr als Very Long Instruction Word (VLIW). Sondern hat pro Compute Unit (32) 4x Vec16 Einheiten. Am Ende hast du 2048 Shader. Der GF 110 von Nvidia hat pro Shader-Cluster 2xVec16 verbaut, 4 pro GPC und insgesamt 4 GPCs. 32x4x4= 512 "Cores".

VLIW4 hat Vec4 und VLIW5 hat Vec5. Eine SIMD (VLIW5 Cypress) hatte glaube ich 16xVec5 und insgesamt 20SIMDs, sodass man am Ende 20x16xVec5 = 1600 Cores hatte.

Der beste Vergleich ist wohl Cayman.
Cayman hatte 16xVec4= 64 "Cores". (VLIW)
Tahiti hat es genau anders herum, 4xVec16.

Cayman bündelt 4 Instruktionen und hat insgesamt 16 Stück davon verbaut. Tahiti bündelt gar nichts, sondern bearbeitet pro Einheit 16 Befehle und hat insgesamt 4 davon verbaut.
 
Zuletzt bearbeitet:
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Ich würde mich erst einmal besser informieren. Tahiti hat genauso wie Kepler 1D Shader, nur wurde behaupter das Kepler keine Hotclock mehr für die Shader hat.

Ich war im Glauben, das VLIW wäre durch GCN und damit einem anderen Design abgelöst worden das nicht "1D" ist.
Wenn AMD also so einfach 2048 1D Shader verbauen kann warum konnte NV da bisher nur 512 unterbringen (und der 28nm Prozess ermöglicht sicherlich keine 4fache Steigerung...)? Lag das einzig und allein am Hotclock?!
Der Chip war doch auch bedeutend größer als das AMD Pendant - also müssen die 1D Shader von NV doch ganz anders aussehen wie die 1D von AMD - und daher auch nicht vergleichbar sein mit "sieh mal AMD schafft auch 2048 Shader bei 925MHz unter 200W".

Ich meine damit: Streiche das "es sind keine 1D Shader" und setzt "Die Shader sind hinsichtlich Takt/Leistungsaufnahme nicht vergleichbar"^^
 
Zuletzt bearbeitet:
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Ich war im Glauben, das VLIW wäre durch GCN und damit einem anderen Design abgelöst worden das nicht "1D" ist.
Wenn AMD also so einfach 2048 1D Shader verbauen kann warum konnte NV da bisher nur 512 unterbringen (und der 28nm Prozess ermöglicht sicherlich keine 4fache Steigerung...)? Lag das einzig und allein am Hotclock?!
Ich zähle dir einige Gründe auf:

- 40nm ( 28 nm hat ungefähr eine 70-80% bessere Integrationsdichte)
- Hotclocks. Die Cores müssen höhere Taktraten schaffen, brauchen längere Pipelines, sind größer und produzieren mehr Abwärme, wodurch ein gewisser Abstand von Nöten ist, also ein "Luftiges-Design".
- Die Architektur ist verschieden. Fermi hat ein perfekt skalierbares Frond-End. 4 Rasterizer, 16 Tessellation-Einheiten usw.
Tahiti hat 2 Rasterizer und 2 Tessellatoren. Fermi hat insgesamt kleinere Einheiten davon, aber deutlich mehr, was die Auslastung verbessert und im Endeffekt auch größer sind, als 2 Dicke-Einheiten.
- Fermi hat eine andere Kontrolllogik die mehr Platz verbraucht.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

incredible alk


genau so sieht es aus, man kann nvidia nicht mit amd karten gleichsetzen, weil der aufbau verschieden ist.
Nvidia hat ausserdem in der geschichte keinen großen wert auf verbrauch gelegt.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Ich zähle dir einige Gründe auf:

- 40nm ( 28 nm hat ungefähr eine 70-80% bessere Integrationsdichte)
- Hotclocks. Die Cores müssen höhere Taktraten schaffen, brauchen längere Pipelines, sind größer und produzieren mehr Abwärme, wodurch ein gewisser Abstand von Nöten ist, also ein "Luftiges-Design".
- Die Architektur ist verschieden. Fermi hat ein perfekt skalierbares Frond-End. 4 Rasterizer, 16 Tessellation-Einheiten usw.
Tahiti hat 2 Rasterizer und 2 Tessellatoren. Fermi hat insgesamt kleinere Einheiten davon, aber deutlich mehr, was die Auslastung verbessert und im Endeffekt auch größer sind, als 2 Dicke-Einheiten.
- Fermi hat eine andere Kontrolllogik die mehr Platz verbraucht.

na das hat mir doch schon mal weitergeholfen, vielen Dank. :daumen:
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

na das hat mir doch schon mal weitergeholfen, vielen Dank. :daumen:
Naja und wie gesagt, Kepler wird vllt 3x32Vec verbaut haben und 4GPCs haben oder auch 4xVec32 und 3 GPCs. Vielleicht hat er auch nur 1024 ALUs :P

Jedenfalls sollte klar sein, dass Nvidia deutlich an Perf/FLOPs verlieren wird.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

was soll ich dir beweisen? warum sollte der GK 110 nicht für gaming geeignet sein? AMD/ATI hat eigene Ingenieure, die ganz anders rechnen und planen,
wie die von nvidia. die GTX 280 hat viel verbraucht, genauso wie die gtx 480. hier haben die ati 4870 weniger verbraucht und die ati 5870.
du benutzt soviele fachbegriffe, die mir garnichts sagen. ich fülle meinen kopf nicht mit irgendwelchen fachbegriffen. wenn ich was wissen möchte,
gibt es solche seiten wie wikipedia, lach. und amd schafft es unter 200 watt zu bleiben, warum sollte es nvidia nicht schaffen,
ist ein vergleich mit äpfel und birnen. oh sorry, vergleich zwischen rot und grün.

du bist ehrgeizig, aber was letztendllich bei den neuen karten herauskommt, können nur die ingenieure von nvidia beantworten.
die ausbeute des chips und die bestückung ist sehr kompliziert und natürlich der aufbau.

du machst dir zuviel kopf und das meiste sind annahmen, mehr auch nicht. sogar gute ingeneuire haben in manchen situationen probleme, wo sie nicht weiter kommen.
 
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

was soll ich dir beweisen? warum sollte der GK 110 nicht für gaming geeignet sein? AMD/ATI hat eigene Ingenieure, die ganz anders rechnen und planen,
wie die von nvidia. die GTX 280 hat viel verbraucht, genauso wie die gtx 480. hier haben die ati 4870 weniger verbraucht und die ati 5870.
du benutzt soviele fachbegriffe, die mir garnichts sagen. ich fülle meinen kopf nicht mit irgendwelchen fachbegriffen. wenn ich was wissen möchte,
gibt es solche seiten wie wikipedia, lach. und amd schafft es unter 200 watt zu bleiben, warum sollte es nvidia nicht schaffen,
ist ein vergleich mit äpfel und birnen. oh sorry, vergleich zwischen rot und grün.

du bist ehrgeizig, aber was letztendllich bei den neuen karten herauskommt, können nur die ingenieure von nvidia beantworten.
die ausbeute des chips und die bestückung ist sehr kompliziert und natürlich der aufbau.

du machst dir zuviel kopf und das meiste sind annahmen, mehr auch nicht. sogar gute ingeneuire haben in manchen situationen probleme, wo sie nicht weiter kommen.
1. Tut mir Leid, ich hätte den Absatz mit dem Verbrauch kennzeichnen sollen.

2. Eine 280 GTX hat rund 30 Watt mehr als eine 4870 verbraucht, aber auch 10-15% mehr geleistet. Eine 260 GTX, die praktisch 1 zu 1 gleich viel geleistet hat (260 vs 4870, 260² vs 4870 1GB) , hat im Idle 40 Watt weniger verbraucht und unter Last rund 20 Watt.
Eine 285 GTX hat genau so viel verbraucht wie eine 4890, aber auch noch ungefähr 10% mehr geleistet.

Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (Seite 22) - ComputerBase

Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (Seite 26) - ComputerBase

Weiten wir dieses Beispiel weiter aus, wie z.B. 3870 vs 8800 GT, dann leistet die Nvidia 10-20% mehr beim gleichem Last-Stromverbrauch, aber auch 30 Watt mehr im Idle. R600 brauche ich nicht zu erwähnen.

In der "Geschichte" zeigt sich nur, dass Nvidia in Perf/Watt besser war als AMD. Vor der G80 Zeit war ATI meine ich etwas stromhungriger, aber auch 10-20% schneller mit mehr Features, besserem AF und der Fähigkeit MSAA+HDR.

Fermi war eben ein totaler Ausrutscher und seit dem lese ich mehr als oft genug, dass Nvidia der Stromverbrauch schon immer voll egal war und diese Karten auch immer mehr schlucken, wobei das Topmodell oft natürlich mehr geschluckt hat , aber auch deutlich mehr geleistet. War die Performance ähnlich, so war auch der Stromverbrauch ähnlich.
Cayman war für mich ein ähnlicher Ausrutscher. Weswegen schluckt er für 10-15% mehr Performance 50-60 Watt mehr?

3. Manche verstehen die Fachbegriffe, manche nicht. Manche interessiert es , manche nicht. Ich schreibe eben das auf, was ich gerne schreiben würde ohne auf 2 Gruppen eingehen zu müssen ;)

4. Wenn es AMD schafft, dann heißt es bis zu einem gewissen Grad, dass Nvidia durchaus in der Lage ist das gleiche zu schaffen. Andersherum funktioniert das genau so. AMDs Ingenieure sind auch fähig genug ein skalierbares Front-End zu designen, was wir bei den nächsten Gens von AMD auch sicherlich sehen werden, bevor weiter an den Einheiten geschraubt wird oder erhöht. (Natürlich schließt das auch einfache oder wichtige Verbesserungen mit ein)
Es ist auch kein direkter Vergleich zwischen Rot und Grün, sondern zwischen 2 Architekturen von 2 Firmen, wobei mich persönlich nur die Architektur interessiert.

5. Ich mache mir nicht zu viel Kopf, sondern es ist eines meiner Hobbys, welches einige hier schwächer, einige stärker als ich ausleben. Aber wer wo zu viel Kopf macht, kann pauschal niemand hier beantworten ;)
 
Zuletzt bearbeitet:
AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März

Da wurde ja schon einiges drüber geschrieben... man hat die beiden Anschlüsse übereinander gestapelt, wel man sonst evtl Gefahr läuft mit dem Kühler in Bedrängnis zu kommen wie es AMD passiert ist - die mussten nämlich ein wenig an den Stromanschlüssen rumfeilen dass der Kühler genug Platz hatte...

Was ich erhlich gesagt für eine ziemlich abstruse Begründung halte, die sich wohl eher einer der vielen Abschreiber zusammengereimt hat. AMD musste damals feilen, weil man beim Zusammenbau gemerkt hat, dass offensichtlich die Masse um einen Millimeter dazwischen lagen -> Notlösung.
Nvidia soll Monate vorher einen komplett neuen, so bislang nirgendwo verbauten Stecker für entsprechendes Geld bei Zulieferern in Auftrag gegeben haben, anstatt einfach den Kühler 1-2 mm nach links zu schieben? Never. Ein so grundlegendes Element zur Platzgestaltung wird schon recht früh eingeplant worden sein.


Und warum glaubst du, dass 1536 Shadereinheiten mit 700MHz einfacher auszulasten sind als 768 Shadereinheiten mit 1,4GHz?

Nicht einfacher auszulasten, aber wesentlich einfacher zu kühlen. Und damit hatte Nvidia in der letzten Generation zunehmend mehr Probleme, als AMD mit der Auslastung. Eine Karte, die sich bei optimaler Last runtertakten musst, lastet ihre Einheiten nunmal auch nicht maximal aus.
Umgekehrt muss man aber auch sagen: Es gibt wenige bis keine Informationen zur Technik, die Abschaffung des Hotclocks wäre die größte Änderung seit Jahren (Kepler soll aber eigentlich ein überarbeiteter Fermi sein) und es gab in der Vergangenheit schonmal Fälle, in denen Nvidia offensichtlich gezielt Falschmeldungen gestreut hat, um Lecks aufzuspüren. (und dann kamen G80 und G92, die wohl bis heute erfolgreichsten Nvidia-Chips, wenn man Stückzahlen und Prestige berücksichtigt...)


Ich war im Glauben, das VLIW wäre durch GCN und damit einem anderen Design abgelöst worden das nicht "1D" ist.
Wenn AMD also so einfach 2048 1D Shader verbauen kann warum konnte NV da bisher nur 512 unterbringen (und der 28nm Prozess ermöglicht sicherlich keine 4fache Steigerung...)? Lag das einzig und allein am Hotclock?!
Der Chip war doch auch bedeutend größer als das AMD Pendant - also müssen die 1D Shader von NV doch ganz anders aussehen wie die 1D von AMD - und daher auch nicht vergleichbar sein mit "sieh mal AMD schafft auch 2048 Shader bei 925MHz unter 200W".
 
Status
Für weitere Antworten geschlossen.
Zurück