Stryke7
PCGHX-HWbot-Member (m/w)
Das kann man nicht so verallgemeinern. Zum Zocken bringen 5% mehr bei der GPU eine höhere fps-Steigerung als 20% beim Prozessor (normalerweise).So große Sprünge wie bei Prozessoren sind bei Grafikkarten generell nicht drin. Bringt das denn was, ob die GPU jetzt mit 1000 oder 1050 MHz rechnet? Das sind ja gerade mal 5% mehr. Diese 5% sind dann 2 oder 3 fps mehr im Spiel. Also eigentlich kaum der Rede wert ^^
Davon mal abgesehen lassen sich aber auch Grafikkarten weit übertakten. Das einzige, was dich eventuell etwas irritiert, ist der Umstand dass die Hersteller von Grafikkarten bereits deutlich mehr Tricks zur Übertaktung ab Werk anwenden als es bei CPUs der Fall ist.
Ein schöner Trend ist das definitiv nicht, die meisten Grafikkarten haben dadurch ein vollkommen unverständliches Eigenleben entwickelt.
Ich würde da keinen Richtwert festlegen wollen. Die Frage wäre dabei auch, was man denn als Ausgangswert nimmt? Es gibt ja schon fast keinen definierten Basistakt mehr, sondern nur noch ein komplexes Mapping.Gibt es auch einen Richtwert, wieviel % Übertaktung für Grafikkarten ein guter Wert ist (also ich meine jetzt im Durchschnitt - z.B. bei den K-Prozessoren von Intel kann man ja meistens locker 20% drauf schlagen)?
Ausgehend vom Basistakt, den der Entwickler festgelegt hat, sind aber häufig deutliche Steigerungen drin. Diese werden zum Teil immer schon vom Produzenten ausgenutzt, mal besser, mal schlechter.
Wenn du am Takt arbeitest, wirst du normalerweise aber trotzdem einen SweetSpot aus Takt und Spannung(und damit Temperatur&Stromverbrauch) bemerken können. Dieser sollte meiner Meinung nach das Ziel sein, wenn man Hardware für den Alltag neu konfigurieren möchte.