Locuza
Lötkolbengott/-göttin
Wie gesagt, es gibt kein GP-Ballast. Was soll das denn sein? DP, ECC oder sonstige Features wirst du nicht finden können.Ich bin eigentlich eher von einem hypothetischen vollausbau des GCN ohne den GP-Anteil ausgegangen und ja ich weiss, dass der vergleich mit dem GK104 mehr als nur hinkt
All die Gründe wieso GCN so gut abschneidet ist, dass bei GCN aus architektonischen Gründen das Verhältnis der Register und Caches sehr günstig für Threads gewählt wurde. GCN hat z.B. viel mehr Register pro ALU. Ich habe die ganzen Zahlen nicht auswendig im Kopf, aber bei AMD hat z.B. eine CU=64 Shader ähnlich viel Speicher, wie eine SMX bei Nvidia=192 Shader.
Bei Nvidia läuft auch noch alles gut, solange der Datensatz klein ausfällt, aber wenn er zu groß ausfällt bricht Kepler immer mehr ein.
Bei einer Konsolen GPU kann mal viel, mal wenig verändert werden, jedenfalls wird sehr stromhungriges/sinnloses oder zu teures Zeug weggelassen, z.B. irgendwelche Einheiten deaktiviert, das Speicherinterface kastriert usw.
Dann gibt man vielleicht die ein oder andere sinnvolle Fähigkeit mit, wie Speicherzugriff auf einen gemeinsamen Speicher oder eine extrem schnelle Speicheranbindung beim Backend.
Scheinbar ist das Fakt, jedenfalls das da Intel und Nvidia drinnen sind.Wie ist das überhaupt möglich, das die alten Dev-Kits bereits mit SB-E ausgestattet waren.
Die kommen da zwar sicherlich an Samples ran, aber ist das auch wieder nur ein Gerücht gewesen, oder Fakt?
Wollte man das Personal auf 8 Threads schulen? Wollte man mit der Nvidia 570 GTX GCN "emulieren" da man als Progger nicht den Code in clauses schreiben muss, sondern einfacher für 1D-Shader? GCN und Bulldozer waren vielleicht für die ersten Konzepte noch nicht spruchreif. So alt sind die Kits glaube ich dann aber auch nicht.
Schon das Gehäuse sieht total strange aus.