Locuza
Lötkolbengott/-göttin
AW: Die angeblichen Spezifikationen des GK104 - GTX 680 nur als Lückenfüller?
Nvidia hatte sehr lange Zeit ein 1D Hotclock Design und AMD ein VLIW Konzept, wo es insgesamt weniger Shader gab, aber diese gleichzeitig mehrere Befehle bearbeiten konnten und niedrig getaktet wurden, um eine hohe Packdichte zu ermöglichen.
Jetzt hat AMD auch auf 1D umgestellt, ohne Hotclock und auch etwas mehr Einheiten, aber deutlich weniger dazu bekommen wie es mit VLIW möglich wäre.
Wenn Nvidia den Hotclock wegfallen lässt, dann ist es doch selbsterklärend das ein Shader auch bei Nvidia deutlicher langsamer läuft und eben nicht so viel leistet wie ein alter Shader. Verwaltungsoverhead nimmt zu usw. Aber insgesamt kann jetzt der Punkt getroffen werden, wo es sinnvoller ist eine Lösung A) Gleicher Stromverbrauch, 2n Einheiten mit 40% Weniger Takt und 20% mehr Verwaltungsoverhead zu verbauen als B) Gleicher Stromverbrauch, n Einheiten, 40% mehr Takt +20% geringere Verwaltungskosten und insgesamt 40% weniger Leistung.
Die Effizienz pro Flop wird sinken, aber nicht die Perf/Watt worauf es ankommt.
Die Lösung B war übrigens in der Vergangenheit keine Holzhammer Methode, bezogen auf den Stromverbrauch. G80 war deutlich effizienter als eine 1950XTX, 2900 XT...
Der 200GT hat auch nicht mehr Strom verbraucht, als ein RV770.
Der Chip arbeitet selber jetzt nach einem anderem Prinzip, Round-Robin ohne Score-Boarding. ( Die Aufgaben werden nacheinander an die Shader übermittelt und man muss keine Abhängigkeiten beachten. )
Die restliche GPU hat ja dann noch richtige Caches, Skalar-Units, VCE usw.
GCN ist am ganzen "Body" verändert.
Nvidia modifiziert ihren Body und pumpt ihn auf. Was noch zusätzlich dazu kommen wird, müssen wir abwarten.
Nvidia muss ihre Einheiten "nur" Schmaler machen, dichter aneinander reihen und mehr davon verbauen.
Habe ich meinen Text wirr geschrieben?AMDs Shader-Design und nVidias Shader-Design sind 2 verschiedene Dinge, die architekturbedingt unterschiedliche Leistungen auf den einzelnen Shader heruntergebrochen erreichen. AMD hat seit einiger Zeit deutlich mehr Shader in seinem Chip als die versammelte nVidia-Bank, trotzdem waren nVidias Chips einen Tick fixer (wenn auch durch die Holzhammer-Methode auf die Abwärme zu scheissen). Dass nVidia hier jetzt mit ähnlich hoher Shader-Anzahl spamen könnte (bedenke: 1,5K Shader bei der Mittelklase/Performance, beim Vollausbau könntens doppelt so viele sein) wie bisher nur AMD lässt auf eine extrem fixe Karte schliessen. Allerdings muss nVidia was am Design geändert haben, weil der Chip bei deren bisheriger Bauweise viel zu gross und mit viel zu viel Abwärme daher kommen würde. Wenn die das in den Griff bekämen, deren Leistung pro verbautem Shader aber konstant bliebe, tja, dann wäre das halt ziemlich OP.
Nvidia hatte sehr lange Zeit ein 1D Hotclock Design und AMD ein VLIW Konzept, wo es insgesamt weniger Shader gab, aber diese gleichzeitig mehrere Befehle bearbeiten konnten und niedrig getaktet wurden, um eine hohe Packdichte zu ermöglichen.
Jetzt hat AMD auch auf 1D umgestellt, ohne Hotclock und auch etwas mehr Einheiten, aber deutlich weniger dazu bekommen wie es mit VLIW möglich wäre.
Wenn Nvidia den Hotclock wegfallen lässt, dann ist es doch selbsterklärend das ein Shader auch bei Nvidia deutlicher langsamer läuft und eben nicht so viel leistet wie ein alter Shader. Verwaltungsoverhead nimmt zu usw. Aber insgesamt kann jetzt der Punkt getroffen werden, wo es sinnvoller ist eine Lösung A) Gleicher Stromverbrauch, 2n Einheiten mit 40% Weniger Takt und 20% mehr Verwaltungsoverhead zu verbauen als B) Gleicher Stromverbrauch, n Einheiten, 40% mehr Takt +20% geringere Verwaltungskosten und insgesamt 40% weniger Leistung.
Die Effizienz pro Flop wird sinken, aber nicht die Perf/Watt worauf es ankommt.
Die Lösung B war übrigens in der Vergangenheit keine Holzhammer Methode, bezogen auf den Stromverbrauch. G80 war deutlich effizienter als eine 1950XTX, 2900 XT...
Der 200GT hat auch nicht mehr Strom verbraucht, als ein RV770.
GCN ist ein deutlich größerer Sprung. Die ganzen Kerne arbeiten jetzt anders. ( VLIW4/5 nach 1D-Shadern)Guter Punkt, aber der Sprung von VILW4 zu GCN wird wohl wesentlich kleiner gewesen sein als von Fermi auf Kepler......
Zudem wird das Treiber Team auch einiges zu leisten haben, damit das was wird.
Ich sag ja auch nicht das es so kommen muss, aber die Gefahr war bei Nvidia wohl selten größer.
mfg
Der Chip arbeitet selber jetzt nach einem anderem Prinzip, Round-Robin ohne Score-Boarding. ( Die Aufgaben werden nacheinander an die Shader übermittelt und man muss keine Abhängigkeiten beachten. )
Die restliche GPU hat ja dann noch richtige Caches, Skalar-Units, VCE usw.
GCN ist am ganzen "Body" verändert.
Nvidia modifiziert ihren Body und pumpt ihn auf. Was noch zusätzlich dazu kommen wird, müssen wir abwarten.
Nvidia muss ihre Einheiten "nur" Schmaler machen, dichter aneinander reihen und mehr davon verbauen.
Zuletzt bearbeitet: