wie wird der gpu takt berrechnet

baronvonvestholm

Software-Overclocker(in)
wie wird der gpu takt berrechnet? Eine Grafikkarte hat ja ganz viele "Cores", ergeben dann allle zusammen 1000mhz oder jeder einzeln? Oder wie ist das?
 
Der Takt wird garnicht berechnet, sondern festgelegt. Herz heißt nichts anderes als "Pro Sekunde", und das hat rein garnichts mit der Anzahl der SHaderEinheiten oder ähnlichem zu tun.
 
Jeder Chip besitzt eine Taktfrequenz, mit der er angesteuert wird. Die wird nicht berechnet, sondern von einem Taktgeber vorgegeben.
Der gesamte Chip läuft dann mit dem angegebenen Takt, heißt jeder einzelne der Milliarden Transistoren einer GPU schaltet (oder schaltet nicht) nach diesem Takt.

Es gab Ausnahmen in der Geschichte wo in den GPUs verschiedene "Taktdomänen" für verschiedene GPU-Teile anlagen, dies ist aber bei den neuesten GPU Generationen nicht mehr der Fall - und mit berechnen haben verschiedene Teile eines Chips die bei verschiedenen Taktraten laufen (ist bei heutigen CPUs beispielsweise auch der Fall) nichts zu tun.
 
also ist das dann so, das alle transistoren gleichzeitig, 1mio schalten pro sekunde? Oder insgesamt 1mio schaltungen gemacht werden?
 
Nein gleichzeitig nicht, da würde der Chip durchbrennen. Wenn ein Chip 1000MHz hat, dann können alle Transistoren des Chips alle 1 Milliardstel Sekunde schalten - oder auch nicht. Stell dir einfach die Transistoren des Chips als ganz viele Schalter vor, die zu jeder 1 Milliardstel Sekunde geschaltet werden KÖNNEN. Wenn sie nicht schalten, dann erst wieder zur nächsten 1 Milliardstel Sekunde
 
Ich habe mal eine Frage : Bringen die größere Anzahl von StreamProzessen bei AMD was ? Im gegen Satz zu Nvidia , die meist weniger besitzen ??
 
Ich habe mal eine Frage : Bringen die größere Anzahl von StreamProzessen bei AMD was ? Im gegen Satz zu Nvidia , die meist weniger besitzen ??

Die beiden kann man nicht direkt vergleichen, da völlig andere Architekturen zu Grunde liegen.
AMD setzt auf viele aber kleinere Einheiten (Stream Prozessoren), NVidia auf etwas größere aber weniger Einheiten (CUDA Cores). Beides hat Vor und Nachteile, beispielsweise hat AMD duch die Massen an Shadereinheiten die weit höhere theoretische Rechenleistung, dafür sind so viele Einheiten aber schwerer Auszulasten / der Scheduler wird komplexer.

Die karten kann man innerhalb eines herstellers und einer Architektur gut vergleichen aber AMD-Karten gegen NVidia Karten nur anhand der Spezifikationen zu stellen ist Blödsinnig da beide völlig verschiedene Ansätze verfolgen. Du vergleichst ja auch nicht ein Tansportunternehmen nach Anzahl ihrer Autos, wenn Unternehmen A mit 100 schweren LKWs fährt (NV) und Unternehmen B lieber 350 kleinere Sprinter (AMD) benutzt - obwohl beide dasselbe transportieren. :-P
 
Ach so .... Jeder hat seine verschiedenen Spezifikation ... Es kommt nicht auf die Daten an sondern auf die reale Leistung :)


Danke
 
Es kommt nicht auf die Daten an sondern auf die reale Leistung :)

So ist es - wenn dem nicht so wäre wäre NVidia vermutlich schon bankrott, da die AMD Karten von den reinen Rohleistungsdaten Welten schneller sind:
HD7970GHz: 4096 GFlop/s SP, 1024 GFlop/s DP
GTX680: 3090 GFlop/s SP, 128 GFlop/s DP
GTX580: 1581 GFlop/s SP, 198 GFlop/s DP

Wenn die Werte auch in der Praxis 1:1 umgesetzt werden würden (in Spielen, in manchen GPGPU Anwendungen ist das tatsächlich so!) wäre eine 7970 immer 30% schneller als eine GTX680 in Spielen und würde eine GTX580 um fast das Dreifache (!) abhängen.

Da das in der Realität nicht im Geringsten so ist siehst du nun anhand dieses natürlich rein den Anschauungszwecken dienlichen Vergleiches, wie sinnlos es ist Karten nach diesen Zahlen zu vergleichen. ;)
 
Zurück