CPU-Last in Spielen mit I5-8600k...

RAVENXS1981

Komplett-PC-Aufrüster(in)
Hallo Leute...

habe schon ewig PC´s und nutze sie generell zum arbeiten und zum spielen...

Hauptsächlich letzteres...

Habe mir im Dezember folgendes geholt:

I5-8600k @ 5.0 ghz
MSI 370Z A-PRO
16GB DDR4 2400
STRIX GTX 1080 8GB
2x SSD 240GB + 6TB HDD

Jetzt meine Frage:

Durch den Afterburner habe ich etwas aufgezeigt bekommen was mir vielleicht bekannt, aber nicht so bewusst war:

Wenn ich den Superposition Benchmark laufen lasse passiert bei mir folgendes:

Bei 8k Optimized habe ich 32 Fps im Mittel und eine CPU auslastung von 10-23%.

Bei 4k Optimized habe ich 60 Fps im Mittel und 15-25% auslastung der Cpu.

Bei 1080p Extreme habe ich 35 Fps im Mittel und 25-35% auslastung der Cpu.

Bei 720p low habe ich 300 fps und die CPU auslastung beträgt 35-47%...

Kann mir als altem Hasen in Sachen Hardware mal detailliert erklären weshalb die CPU Last bei geringerer Auflösung seigt und nicht verständlicherweise andersherum?

Also umso mehr Datenaufkommen und Berechnungen von Nöten sind ist mehr Last vorhanden... ?

Ich hatte da iwo mal was zu gelesen... Ist aber schon länger her...

Meine GTX 1080 zeigt übrigens immer 100% auslastung.

Das die Kombination meiner 120GFlops CPU und 10TFlops GPU sehr ausgewogen ist weiss ich...

Wäre nett wenn mir mal jemand den Effekt der abfallenden CPU Last erklären könnte.

Schönen Tag noch und danke für Eure Antworten!

Lg

Screenshot (76).jpg

Ein Beispiel meines PC´s mit Afterburner Monitoring:

Ultra HD 3840x2160p mit 60hz.

Alles Maximal bis auf Bildschärfe.Diese steht auf 0.8 iwas...
 
Es limitiert immer CPU, RAM, GPU oder Vram.
Je höher die Auflösung, desto höher die GPU-Last, was man daran sieht, dass man bei höheren Auflösungen weniger FPS hat.
Die CPU liefert unabhängig von der Auflösung eine bestimmte Anzahl FPS, weil sie hauptsächlich für Sachen wie Physik oder KI zuständig ist, was unabhängig von der Auflösung eine bestimmte, gleich bleibende Last erzeugt.
Da in höheren Auflösungen die GPU-Last steigt, limitiert die GPU dementsprechend früher die CPU, was bei steigender Auflösung zu sinkender CPU-Last führt.
Es gibt natürlich auch Software/Games, bei denen die CPU auch in hohen Auflösungen noch limitiert, z.B. schlecht optimierte Spiele, die nur 1nen Kern nutzen.
 
Zuletzt bearbeitet:
Das liegt an den Presets von Superposition.
Die optimized Settings sind dafür da die Fps in normalen Bereichen zu halten, auch bei 4k und 8k, das low Setting ist halt low, da kommt die Auslastung der Cpu von von der sehr hohen Bildrate, aber das Extreme Preset frisst nicht nur Gpu-, sondern auch Cpu ohne Ende, deshalb gehen da auch bei nur 35 Fps schon 20% Cpu drauf.
 
Mit steigender Auflösung steigt auch die GPU-Last, daraufhin weniger CPU-Last.
Umso weniger Auflösung, sinkt auch die GPU-Last und die CPU wird weniger limitiert, CPU-LAST steigt, die Framerate daraufhin auch.

Die Grafikkarte ist so gut wie immer die Bremse!
 
Danke für die tollen Informativen Antworten!

Ich verstehe sehr viel von den Prozessen im Computer, jedoch ist dieses Phänomen eigentlich technisch nicht logisch...

Umsomehr Rechenaufwand aufkommt, umso höher sollte die Belastung bei allen 3 Teilen (CPU,RAM, GPU) die für die Leistung zuständig sind, sein.

Der Superposition Bench war nur ein Beispiel... Bei Spielen kommt das gleiche Ergebnis heraus.

Jetzt noch mal eine sehr interessante Frage:

Mein I5-8600K läuft jetzt stabil AllCore auf 5.0 Ghz mit Turbomode der ausgesprochen gut agiert.

Könnt Ihr aus meinen CPU-Last Ergebnissen sehen das ich erstmal garnicht mehr upgraden muss?

2. Wie denkt Ihr darüber wenn ich jetzt zb. als Primärkarte noch ne 1080Ti reinzimmere und die 1080 dann als Sekundärkarte für SLi drin halte.

Wird der 8600k @ 5ghz immernoch ausreichend sein für diese 20 TFLOPS fassende Grafikleistung?

Oder muss es da am besten schon mehr CPU Leistung sein?

Danke! Lg
 
Ich verstehe sehr viel von den Prozessen im Computer, jedoch ist dieses Phänomen eigentlich technisch nicht logisch...

Umsomehr Rechenaufwand aufkommt, umso höher sollte die Belastung bei allen 3 Teilen (CPU,RAM, GPU) die für die Leistung zuständig sind, sein.
Ist sogar sehr logisch. Du warst bei allen Benchmarks im GPU-Limit. Das heißt die Grafikkarte gibt vor wie viele FPS erreicht werden.
In höheren Auflösungen sind das weniger FPS als in geringeren. Deshalb hat die CPU in hohen Auflösungen noch weniger zu tun, sie muss ja weniger Berechnungen anstellen da weniger Frames.
Die Auflösung interessiert die CPU in den meisten Titeln nicht. Lediglich einige Detaileinstellungen können auf die CPU gehen. Edit: das siehst du z.B. daran dass im 720p low test die FPS in die Höhe schnellen, die CPU-Auslastung aber nur moderat steigt.
Ansonsten fordern höhere Auflösungen immer die GPU.
Nicht umsonst sprechen sich Fans langsamer CPUs immer dafür aus dass ihre lieblings-CPUs im GPU-Limit getestet werden. Da sieht man dann nicht ob sie tatsächlich langsamer sind :devil:
 
Zuletzt bearbeitet:
Ne unlogisch ist das nicht meines erachtens.
Anwendung(Spiel) X hat einen bestimmten Grundumsatz was es an CPU Rechenleistung benötigt um das Ding am laufen zu halten. Bei Niedriger Auflösung inclusive niedrigen Details muss über die Grafikkarten nur wenig Kapazität der Rechenkraft für Pixel und zu berechnende details verwendet werden. Und die CPU kann dann z.B. anhand von fps, zeigen was sie kann. Weil die GPU sie nicht ausbremst. Die CPU gibt die fps vor (bremst).
Steigt die Auflösung wird zunehmend die Graffikkarte zur Bremse, weil ja viel mehr zu berechnende Datenmenge der Karte abverlangt wird. Aber die CPU muss einfach weiter den Grundumsatz berechnen auch dieser steigt bei steigender Auflösung und Details( es gibt ein paar bestimmte details die CPU lastig sind.
Je höher die Auflösung und die Details je ehr stöß die Karte an ihre Leistungsgrenze, und wenn die erreicht ist und diese liegt nidriger als die von der CPU prodzierbaren fps, wird die CPU natürlich weniger ausgelastet


2.
1080Ti und 1080 im Verbund geht nicht SLI hat meisten auch mehr Nachteile als Vorteile.

oh zu spät vergessen abzuschicken..^^
 
Also, ich hatte bisher immer CrossFire....

Mir wurde bisher immer gesagt das sich die stärkere, bzw schnellere Karte auf das Niveau der schwächeren Karte anpasst...

Würde also bedeuten:

Im Single Gpu modus hätte ich ne 1080ti zur verfügung.

Im SLi wären es dann 2x ne 1080 mit 8GB Vram statt 18GB Vram... usw...

Also trifft diese These gänzlich nicht zu?
 
Dass SLI abseits synthetischer Benchmarks nicht perfekt skaliert und einen ganzen Haufen anderer Probleme mit sich bringt ist die bewusst? Selbst wenn das gehen würde mit den 2 Karten, realistisch betrachtet hättest du vielleicht ~20% mehr avg. FPS in Spielen die es unterstützen als mit der 1080TI allein. Das klingt für mich nicht sehr verlockend angesichts der Kosten und anderer Nachteile.
 
Also, ich hatte bisher immer CrossFire....

Mir wurde bisher immer gesagt das sich die stärkere, bzw schnellere Karte auf das Niveau der schwächeren Karte anpasst...

Würde also bedeuten:

Im Single Gpu modus hätte ich ne 1080ti zur verfügung.

Im SLi wären es dann 2x ne 1080 mit 8GB Vram statt 18GB Vram... usw...

Also trifft diese These gänzlich nicht zu?

Nein diese These trifft hier überhaupt nicht zu.
 
Ich verstehe sehr viel von den Prozessen im Computer, jedoch ist dieses Phänomen eigentlich technisch nicht logisch...

Ohne dich jetzt auf die Schippe nehmen zu wollen, klingt es eher so als hättest du nicht viel Ahnung von Prozessen im Computer :D

Um aber auch noch was sinnvolles hier bei zu legen :
Die 1080 könntest du nur für die Physx in den Spielen benutzen. Sinnvoll ist das aber auch nicht.

SLI muss jeder selbst für sich entscheiden.
Hatte auch Crossfire mit 290X. Krasse Leistung, Microruckler hab ich auch nicht wahrgenommen. GTA V hat super funktioniert.
Mit der Abwärme beider GPU's wurde es schon heiss im Gehäuse, ergo liefen die Lüfter auch dementsprechend laut.
 
Hey Amdahl... Das CrossFire abseits synthetischer Benches auch nicht perfekt skaliert weiss ich ....

SLi ist da keine ausnahme...

Ganz im Gegenteil höre ich immer das Crossfire oft besser skaliert als SLi...

Ja, sicher, Kosten... Realistisch gesehen lieber Amdahl ....

Bei meinem System brauche ich eigentlich kein Upgrade mehr.... Lange nicht mehr....

Wobei ich schon immer gerne den Power Knopf gedrückt habe wenn da 2 Grafikherzen ein zuhause hatten ;-) Nvidia bietet leider keine DualGPU an wie damals die 5970 oder 6990 bei AMD...

Grundsätzlich sind meine Ansprüche jetzt mehr als erfüllt. Grade wo ich es endlich geschafft habe der CPU Beine zu machen auf 5ghz....

Und der Unterschied ist deutlich spürbar, diese 25% mehr Leistung.

Ich bereue es auch nicht bloss die GTX 1080 ohne Ti genommen zu haben.

Stimmig ist mein System allemal...

Keine Ahnung, evtl. warte ich auch einfach was Nvidia dieses Jahr neues auf den Markt bringt....

Lg lieber Amdahl!
 
Mein Sarkasmus-Detektor ist gerade in Reparatur, darum gehe ich einfach mal davon aus dass du dich mit "lieber Amdahl" nicht über mich lustig machen willst :bier:
Wenn du noch mehr Leistung im CPU-Limit brauchst bzw. dahingehend optimieren willst kannst du ja deinen RAM ein wenig übertakten. So lange du wie in den Benchmarks im GPU-Limit hängst bringt das natürlich keinen echten Vorteil.
 
Die Auflösung ist zu 100% Sache der Graka. Du belastest die Graka durch die Auflösung immer mehr, so dass der Rendervorgang von einem Bild länger dauert als die Vorbereitung durch die CPU.
Deine CPU wartet bei höheren Auflösungen also länger auf die Graka im Graka-Limit, deshalb sinkt die Auslastung der CPU.
Eventuell bedeutet "Optimizied" ja noch zusätzlich dass ein paar Features (von welchen Du nicht weißt ob sie auf der CPU oder auf der Graka gerechnet werden) wegfallen.
Und eventuell befindest Du Dich bei 1080p ja im CPU-Limit. Ein Blick auf die Auslastung der Graka würde dort Bände sprechen. Zu jedem Zeitpunkt, an dem die Graka nicht mindestens zu 95% (oder mehr) ausgelastet ist, befindest Du Dich im CPU-Limit.



Bei einem Absoluten CPU-Limit würde sich die CPU-Auslastung nicht ändern. Sondern nur die Auslastung der Graka.

Nachweis für meine Aussage im 1. Satz:
arma3_2017_01_03_20_2n8un2.jpg arma3_2017_01_03_20_2evu3n.jpg
 
Im Grunde ist es recht einfach.

Die Last der CPU ist bei jeder Auflösung gleich. Egal ob 4K oder 720p, die CPU hat immer das gleiche zu tun.

Steigt jetzt die Auflösung und damit die Last der GPU, hat die CPU irgendwann weniger zu tun wenn eben die GPU nicht nach kommt.

Daher hat man mit einer schwachen CPU mit einer starken GPU teilweise sogar das Problem, das egal welche Auflösung man wählt, die FPS gleich bleiben, da kommt dann nämlich die CPU nicht hinterher.

Denn jede GPU, brauch auch genug CPU Leistung! Umgekehrt ist es fast egal, ich kann mit der schnellsten CPU jede GPU voll auslasten, aber eben nicht mit der schnellsten GPU die langsamste CPU.

Bei SLI und CF sieht es genauso aus, deswegen skaliert meist auch eine 1080Ti zum Beispiel schlechter als eine 1050TI. Da reicht oft die CPU Leistung dann nicht aus um beide GPUs voll und ganz auszulasten. Wobei man sagen muss, wer 2 1080TI hat, zockt nicht auf Full HD sondern eher in Richtung 4K und höher, da skaliert es auch wieder besser.

Und CF skaliert tatsächlich etwas besser als SLI. Woran das liegt kann ich nicht sagen, aber da leider immer weniger Spiele Multi GPU fähig sind, würde ich inzwischen auch davon abraten. Es lohnt nicht mehr, sowohl NV als auch AMD sind damit zurück gerudert, weil eben kaum ein Spielehersteller das System mit implementiert.

Und ja, ich hatte bereist des Öfteren Multi GPU Systeme.
 
Diese Erfahrung das CrossFire besser skaliert hatte ich auch immer....

Ja, im Grunde.... Ich zocke IMMER auf 4k...

Im grundsatz reicht mir das wiedergespiegelte Bild vollkommen...

Im übrigen: Meinem Crucial Ram habe ich mit 2900Mhz schon 500Mhz mehr gegeben. Mit den 5ghz des I5-8600K ist mein PC jetzt echt am Rande des übertreibe es mal nicht.... Bin ja eigtl soweit zufrieden... sicher... War halt schon immer gerne ein Nerd der 2 Gpu´s beherbergt.

Leider gibt es ja keine Dual Gpu Lösung mehr wie anno dazumal.... Diese MultiGpu Lösungen auf einer Karte, einem PCIe Die funktionerten eigtl ganz gut...

Genauso hatte AMD anno 2010 auch mal angekündigt man überlegt ein Board zu entwerfen wo man 2x einen 1090T bzw 1100T installieren kann.

Ich schaue einfach mal was passiert dieses Jahr...

Ich danke auf jeden Fall Allen die mir erklärt haben weshalb es so ist wie es ist.

Nur so: Anno 1985 habe ich mit nem 8086 angefangen mit 1.8mhz...

Ich weiss schon wie ein PC funktioniert, bin seit 2011 rausgewesen. Die Grundlage wird immer gleich bleiben. Jedoch wollte ich mal genau wissen wo dran es liegt das man bei höheren Auflösungen weniger CPU-Last angezeigt bekommt....


Vielen Dank!

Lg
 
Genauso hatte AMD anno 2010 auch mal angekündigt man überlegt ein Board zu entwerfen wo man 2x einen 1090T bzw 1100T installieren kann.

Ein Board mit 2 FX 9590 Stelle ich mir lustig vor xD. AMD will bei Grafikkarten bald ähnlich wie bei Ryzen mehrere Chips zu einem machen. Nennt sich MCM "Technik".



Gesendet von meinem ONEPLUS 3T mit Tapatalk
 
Danke für die tollen Informativen Antworten!

Ich verstehe sehr viel von den Prozessen im Computer, jedoch ist dieses Phänomen eigentlich technisch nicht logisch...

Umsomehr Rechenaufwand aufkommt, umso höher sollte die Belastung bei allen 3 Teilen (CPU,RAM, GPU) die für die Leistung zuständig sind, sein.

Du musst immer daran denken, dass die CPU eine intelligente Komponente ist. Sie bekommt als Feedback, dass die GPU nur x-Bilder (nein, kein Schmuddelkram) berechnen kann und dann wird der Rechenaufwand für die zu bereitstellenden Daten entsprechend angepasst. Sonst würde die CPU auch in UHD theoretisch immer auf 100% laufen und der GPU Daten und Befehle über den internen Bus bereitstellen obwohl diese die überhaupt nicht abarbeiten kann. Wahrscheinlich würde der Computer irgendwann einfach hängenbleiben oder mit einem Bluescreen den Dienst quittieren.

Also, ich hatte bisher immer CrossFire....

Mir wurde bisher immer gesagt das sich die stärkere, bzw schnellere Karte auf das Niveau der schwächeren Karte anpasst...

Würde also bedeuten:

Im Single Gpu modus hätte ich ne 1080ti zur verfügung.

Im SLi wären es dann 2x ne 1080 mit 8GB Vram statt 18GB Vram... usw...

Also trifft diese These gänzlich nicht zu?

Nein, bei Crossfire war es mal so geplant, dass die Leistung dynamisch verläuft und somit z.B. eine HD 5670 1/3 des Bildes und eine HD 5870 2/3 des Bildes berechnet. So wirklich ist dieses Konzept aber nie aufgekommen bzw. wurde nicht weiter verfolgt. Bei SLI müssen es immer identische Chips sein, die verbaut sind und dann wird die schneller OC-Version z.B. dem langsameren Modell mit Referenztakt angepasst. Für SLi holt man sich aber erfahrungsgemäß die Founder-Edition oder stattet die Karten von vorne herein mit einer Wakü aus.


Bei Deinem Prozessor hätte ich gleich zu einem i7 8700(k) gegriffen, dem i5 8600k dürfte schon bald wieder die Luft ausgehen wenn sich erst einmal 8+ Threads als neuer Standard etabliert haben. Hoher Takt kann dann zwar kompensieren, aber das hat schon damals nie geholfen, wenn die Software umgestellt wurde. Mal schauen, ob sich in den nächsten Wochen Far Cry 5 genauso wie Assassins Creed Origins verhält, wenn es um CPU-Last geht.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Zurück