X-CosmicBlue
PCGH-Community-Veteran(in)
Ich bitte um Erklärungen zu den Unterschieden.
Die Frage taucht in Bezug auf den Beitrag hinter dem Trackback-Link auf und wird in den folgenden Beiträgen von mir genauer erläutert:
Annahme:
Eine Grafikkarte verfügt über GDDR3-Speicher, der intern mit 900MHz taktet (laut Spezifikationen unter GDDR ? Wikipedia eine erlaubt Frequnez), schaufelt Daten mit 1800MHz über die Leitungen, weil ein Signal bei der ansteigenden Flanke, eines bei der abfallenden.
Gleiche Frequenz, GDDR5-Speicher: 900MHz interner Takt, 1800MHz reeller Takt. Effektiv sollen es aber sogar 3.600 sein. Wo kommt diese zweite Verdoppelung her?
Die Frage taucht in Bezug auf den Beitrag hinter dem Trackback-Link auf und wird in den folgenden Beiträgen von mir genauer erläutert:
Annahme:
Eine Grafikkarte verfügt über GDDR3-Speicher, der intern mit 900MHz taktet (laut Spezifikationen unter GDDR ? Wikipedia eine erlaubt Frequnez), schaufelt Daten mit 1800MHz über die Leitungen, weil ein Signal bei der ansteigenden Flanke, eines bei der abfallenden.
Gleiche Frequenz, GDDR5-Speicher: 900MHz interner Takt, 1800MHz reeller Takt. Effektiv sollen es aber sogar 3.600 sein. Wo kommt diese zweite Verdoppelung her?