Special Hardware-Limits erkennen: Wann es sich lohnt, die CPU aufzurüsten, und wann nicht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Hardware-Limits erkennen: Wann es sich lohnt, die CPU aufzurüsten, und wann nicht

Prozessor oder Grafikkarte limitieren die Bildrate. Das war schon immer so und wird auch immer so bleiben. Doch wie erkenne ich ein Limit und weiß, ob sich ein Aufrüsten der Hardware lohnt? Wir haben verschiedene Konfigurationen aufgebaut, um genau diese Frage zu beantworten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Hardware-Limits erkennen: Wann es sich lohnt, die CPU aufzurüsten, und wann nicht
 
Die Idee ist gut das spiel eher ungünstig aber darum geht es ja nicht.
Als vergleich hätte ich eher capframex Bilder mit gpu load verlauf genommen alternative general logview und hwinfo bzw msi afterburner logdaten.
Das von einen ci7 4790k bis r7 7800x3d die Leistung um das dreifache Angestiegen ist, ist beeindruckend das liegt aber primär am L4 cache.
Von damals im schnitt 3,6ghz bis 3,8ghz und ein quadcore zu einen octacore mit min 4,8ghz
Am ende stimmt die aussage ne rtx4090 bekommt man derzeit nicht ausgelastet.
GPu load angaben wären aber deutlicher als stumpfe fps die auch durch andere limits verursacht werden können. Maßgeblich ram und SSD
Bei spielen kommt es auf die Latenz des ram an nicht auf die Bandbreite, ganz im Gegensatz zur gpu vram wo Bandbreite wichtiger wird. Da die latenz direkt mit dem ramtakt zusammenhängt.

Das verpackt in ein video wär gut
je mehr Leute verstehen was cpu limit ist und welche kombi das auslöst desto weniger wird sinnloses konfiguriert
 
Da könnt ihr mal sehen, was wir für das Heft produzieren =)
Der Artikel in der Print hat noch zwei Themen mehr, Online ich habe ich "nur" drei der fünf Inhalte des Artikels verwurstet.
 
Sehr guter Artikel.
Jetzt hab ich noch ein drittes Lesezeichen, welches ich verlinken kann bei den "Limit-Diskussionen" :D
Ansonsten verweise ich immer auf unseren erste Hilfe Guide von @HisN oder die Kurzanleitung im Fragebogen von @Lordac :daumen:

Online ich habe ich "nur" drei der fünf Inhalte des Artikels verwurstet.
Wann kommt der Plus-Artikel?
 

Das passiert übrigens, wenn man ungenau ist^^
 
Wie kann es eigentlich sein das unterschiedliche Spiele mit der gleichen Engine so krass unterschiedlich performen ?! Selbst bei angepassten Engines ist das Grundgerüst doch gleich und wenn eine Unreal Engine 4.0 gut 4+ CPU Cores auslastet dann sollte das doch auch für eine Unreal Engine 4 Jedi Survior Edition gelten wenn sie auf der 4.0 aufbaut? :confused:

So dachte ich bisher immer als Laie und habe mich in der letzten Zeit immer wieder gewundert :huh:
 
Sehr schöner Artikel. Vielen Dank dafür.
Werde mir dazu unbedingt die Printausgabe holen.
Würde gerne an dieser Stelle den Thread von @HisN verlinken. Dort geht er auch sehr ausführlich auf das Thema ein. Sehr empfehlenswert.


Edit:
chill_eule war schneller...
 
Wie kann es eigentlich sein das unterschiedliche Spiele mit der gleichen Engine so krass unterschiedlich performen ?! Selbst bei angepassten Engines ist das Grundgerüst doch gleich und wenn eine Unreal Engine 4.0 gut 4+ CPU Cores auslastet dann sollte das doch auch für eine Unreal Engine 4 Jedi Survior Edition gelten wenn sie auf der 4.0 aufbaut? :confused:

So dachte ich bisher immer als Laie und habe mich in der letzten Zeit immer wieder gewundert :huh:
Naja, die Engine ist ja immer nur ein Fundament zuzüglich einer Sammlung von Entwicklungswerkzeugen, die vom Entwicklungsstudio noch um weitere Werkzeuge ergänzt wird, bevor man auf das Fundament das Haus baut. Schlussendlich kommt es natürlich auch erst einmal darauf an, was genau implementiert. Wenn ich auf das Fundament Tetris baue wird das wahrscheinlich auf jedem zweiten Kaffee-Vollautomaten laufen, wenn ich Cyberpunk 2077 baue wird es schwierig.

Bestes Beispiel ist Serie City Skylines, wo jetzt für den Nachfolger angekündigt wurde, dass CPUs mit mehreren Kernen besser ausgenutzt werden können. Im ersten Teil des Spiels lief die gesamte Simulation über einen Kern und das hat das Spiel stark limitiert. Die Engine ist immer noch Unity, zwar in einer neueren Version, aber auch damals konnte sie schon mehrere Kerne ausnutzen. Wenn die Entwickler beschließen, den zusätzlichen Aufwand für die Simulation nicht zu investieren, um die einzelnen Teile der Simulation auf verschiedenen Kernen laufen zu lassen und gleichzeitig alles synchron zu halten, dann hilft auch Unity nicht. Außerdem gibt es Probleme, die nicht parallelisiert werden können, hier kann es sogar zu Performance-Verlusten kommen, wenn man auf Teufel komm raus alles auf eigene Threads aufspalten möchte.
 
Ist halt wieder einfach gehalten (CPU und GPU). Es wird nicht darauf eingegangen, welcher Typ von RAM, welche Menge von VRAM, die Wechselwirkung von wenig VRAM und nur 16GB Hauptspeicher, was eine flotte SSD bringt usw. eingegangen. Man kann sich mit einer HDD oder auch alten SSD jedes moderne System kaputt machen. Nehmt es nicht persönlich, aber der Artikel hier sticht nirgends heraus, da man ihn so auch auf anderen Seiten lesen könnte. Früher wart ihr da definitiv mehr mit Deep-Diving beschäftigt.

Ihr geht z.B. nicht darauf ein, dass eine nicht ausgelastete GPU auch durch die Engine, Singlechannel-RAM, Mischbestückung bei RAM, wenig VRAM, lahme HDD/SSD, die nicht schnell genug streamt bedingt sein kann. Ihr zielt nur stumpf auf die CPU. Das ist doch zu simpel gedacht.

1689264662230.png



Wie kann es eigentlich sein das unterschiedliche Spiele mit der gleichen Engine so krass unterschiedlich performen ?! Selbst bei angepassten Engines ist das Grundgerüst doch gleich und wenn eine Unreal Engine 4.0 gut 4+ CPU Cores auslastet dann sollte das doch auch für eine Unreal Engine 4 Jedi Survior Edition gelten wenn sie auf der 4.0 aufbaut? :confused:

So dachte ich bisher immer als Laie und habe mich in der letzten Zeit immer wieder gewundert :huh:


Ganz so einfach ist es vermutlich nicht. Man muss als Entwickler ja bestimmt angeben, wie der Scheduler arbeitet und je mehr Kerne aktiv genutzt werden sollen, umso höher wird der Optimierungsaufwand dafür sein. Vielleicht gibts hier ja den ein oder anderen Entwickler, der dazu etwas sagen kann.
 
Früher wart ihr da definitiv mehr mit Deep-Diving beschäftigt.
---> Print
Du musst zudem bedenken, dass das eine Frage der Zeit ist. Wir können es uns einfach nicht mehr leisten, dass ein Redakteur für vier oder fünf Wochen nur eine Sache macht. Leider müssen wir auch mit der Zeit gehen. Aber wir gehen so tief wie möglich in das Thema, um das zu zeigen, was gezeigt werden soll (dazu einfach mal einen UEFI-Guide anschauen, als Beispiel). Ich habe mich hier dem Thema CPU- und GPU-Limit angenommen. Umfangreich. Im Heft noch viel umfangreicher. SSD/HDD könnte @PCGH_Manu vielleicht mal testen, Speicher macht @PCGH_Stephan, Grafikkarten eigentlich Raff, also habe ich bereits zwei Fachbereiche übernommen und einem Artikel vereint (und das nicht zum ersten Mal). Dinge, wie PCI-E-Anbindung prüft gerne @PCGH_Phil, insgesamt können wir jedoch nicht alle das Gleiche machen, weil sich monatlich ein Heft füllen soll und ihr täglich ein Online-Special lesen wollt.

Es macht die Sache auch nicht gerade einfacher, verschiedene Zielgruppen mit ein und demselben Thema zu bedienen. Ich kann auf Instagram und TikTok nicht das erklären, was ich in der Print auf 12 Seiten verteile. Ich kann Online nicht das bringen, was ich in der Print bringe, weil sonst niemand mehr das Heft kaufen würde. :ka:
 
Zurück