Allgemeine Frage

adon67

PC-Selbstbauer(in)
Grafikkarten brauch je nach Spiel unterschiedlich viel Strom. Dass heißt das sie ja nicht immer die volle Power geben. Was ich aber nicht ganz begreife, ist wieso sie z.B. bei Benchmarks mehr gefördert wird als bei Skyrim?

Weil bei Skyrim will man ja auch das alles aus der karte rausholen um evtl bei 120Hz Monitor den auch ausnutzen zu können.....
 
Weil du bei einem Bench die Karte an die Grenze treibst, in einem Spiel liegt nicht immer Volllast auf der ganzen Karte an.
 
Synthetische Benchmarks wie zB 'furmark' lasten die graka in einer Art dauerschleife aus damit kann man zB den maximalen Stromverbrauch uns die Leistung der Kühlung ermitteln.
Mit Praxis Relevanz hat das aber nichts zutun da in spielen die Abhängigkeit von der CPU eine Rolle spielt und dadurch keine 100%ige Auslastung möglich ist, selbst wenn du eine volle Belastung durch zB gpu-z auslöst ingame ist das nicht dasselbe.
Durch unterschiedliche Belastung hast du dementsprechend unterschiedliche Stromverbräuche.
Zudem spielt auch die Temperatur des chips eine Rolle- je kühler desto ungehinderter fließt der Strom.

Geh mal in den Stromverbrauchs thread, dort sieht man eben auch einen unterschied zwischen Spiel und synt. Belastung.

MFG Drebbin
 
einfache antwort

benchmarks belasten die karte konstant gleich, also auf volllast. nur so kann man die leistung ermitteln, bzw. die punkte.

spiele hingegen belasten die karte nur so, wie tatsächlich leistung gebraucht wird. jedes spiel hat andere anforderungen.
 
Technisch bedingt wird in spielen nicht unbedingt die komplett karte beansprucht, auch wenn die CPU nicht begrenzt und 100% Graka-Auslastung da stehen sollte.
Das erreichst du besser mit Benchmarks, die speziell dafür ausgelegt sind.

Maximale FPS begrenzen z.B. mit MSI Afterburner ist übrigens ne schöne Stromersparnis. Bei vielen Spielen reichen 60fps dicke aus, auch mit 120Hz Monitor.
 
Zurück