Korrekte Berechnung von GPixel/s

RaYzz

PC-Selbstbauer(in)
Hallo,

Eigentlich ergibt sich der Wert doch durch ROPs x Takt, Beispiel: HD7950 32 X 0,8 = 25,6. Jetzt ist das bei einer GTX760 anders. Normal müsste der Wert bei ca. 31,... liegen ist jedoch nicht so, sondern es liegt bei ca. (bin mir grad nicht sicher, ich vermute) 23-25. Wie errechnet man diesen Wert korrekt. Und wieso ist das bei fast allen Karten normal und bei der nicht.
 
Zuletzt bearbeitet:
Wieso müsste das denn bei ner GTX760 bei 31 liegen, also wie kommst DU jetzt auf die 31, und woher stammt der Wert von 23-25 ?


Ich bin jetzt bei Grafikkarten bei solchen Details kein Experte, aber ich kann mir auch nicht vorstellen, dass es nur von diesen ROPs mal dem Takt abhängt bzw. dass das vlt das Maximum ist, aber wenn andere Faktoren da noch eingreifen, kann es langsamer sein. zB ganz Simpel: wenn das RAM nicht schnell genug ist, schafft die Karte halt keine 31, sondern nur 25 GPixel/s `?
 
tja, keine Ahnung - vlt. gab es da unterschiedliche Quellen, oder vor allem im Falle des älteren Tests Daten von Nvidia VOR Release, die sich später als falsch herausstellten?
 
Danke erstmal an Herbboy.

Könnte mir vielleicht noch ein anderer helfen

Schliesse mich da herbboy an. Bei der gtx 780 schwankt der wert auch, je nachdem ob 4 oder 5 gpc's aktiv sind. Die Gpixel/s errechnen sich also aus allem möglichen; kerntakt, speichertakt, shadertakt (gtx 4xx/5xx), speicher und dessen interface, shader, tmu', rop's etc
 
Heißt das wenn man sich eine GTX780 kauft kann man Pech haben und eine Karte erwischen die nur 4 aktive GPCs hat ?
 
Zurück