@Gerry1984
Hier - lies!
Im Grunde genommen muss man die CPU-Benchmarks fernab dem GPU-Limit vollziehen, demzufolge in hohen Auflösungen auf niedrigen Details.
Was besagt, dass eine hohe Auflösung gleich ins GPU-Limit läuft!? Da ist noch Puffer, solange die Details angepasst sind. Ja - Und niedrige Details bringen der GPU schlussendlich Puffer, den die CPU ausfahren kann.
Tja, wieder so einer, der sich alles schön redet.
Genau solchen Leuten wie dir haben wir das zu verdanken.
Was ist das für ein Argument? Muss nicht immer alles High End sein?
Früher war High End im Vergleich zu heute einfach viel günstiger. Das sind Fakten!
Kannst mir nicht erzählen, dass man für die Entwicklung so viel drauf zahlt.
Gibt auch Leute, die spielen in 144 Hz. Zeig mir eine Mittelklasse GPU, die jedes aktuelle Game mit 100-144fps in Full HD betreibt.
So ein Quatsch, was du da erzählst!
Aber wie gesagt, man kann sich auch alles schön reden!
Ich denke, wer in 1080p zockt und voraussichtlich noch lange dabei verweilen wird, so wie ich, wegen den Monitor, für den lohnt weder das Upgrade auf den Intel Core i7-8700K noch den Intel Core i9-9900K. In 2160p sind die Thread-Level Parallelism befähigen Quad-Cores zu grenzwertig und überfordert. Ein Game wie Watch Dogs 2 zeigt sich so dermaßen von der CPU bedingend, dass selbst der Intel Core i7-7800X zum Bottleneck mutiert, wenn in 2160p die Details zu niedrig gesetzt sind, die Grafikakrte[n] weg sind von ihrem GPU-Limit. Im Extrem-Szenario kann also auch ein Intel-Hexa-Core in die Knie gezwungen werden - wenn die Rahmenbedingungen in so geschaffen sind, dass der Overhead zu Lasten der CPU geht. 8 Threads sind die Mindesanforderung, für 1080p genügend, für 1440p befriedigend und für 2160p unzureichend.
Der Intel Core i5-3450 ist allerdings für nicht mehr ausgelegt wie 1080p. Wenn also mehr gezockt werden soll wie WOW dann lohnt das Upgrade allemal.
Worin steht dieser zitierte Passus zum Rest von meiner Aussage im Widerspruch!? Du inkompetenter Quatschkopf kannst noch nicht einmal den Gegenbeweis erbringen, geschweige denn verstehst das Metier!
Die Thread-Leistung wächst an. Die CPU macht die Vorberechnung und das Meiste davon ist die Physik, zum Beispiel die Matrizenrechnung. Mehr Polygone bedeuten mehr Objekte mit einerm Eigenleben, die Physik. Das will berechnet werden. Eine Entlastung ist das nicht. Dafür braucht es viele Kerne, nicht viel Takt. Was Du ansprichst braucht den Takt, weswegen die Intels so stark punkten, auch die Quad-Cores. Abgesehen davon, dass die Game-Branche auf diese CPUs und auch NVIDIA bestens zugeschnitten ist, aber das ist ein anderes Thema.
Na ja, eigentlich schläft man bei Intel schon seit März 2017 nicht mehr. Und was nächstes Jahr kommen soll ist Zen 2 bzw. Ryzen 3. ^^Hoffentlich knallt AMD ihnen nächstes Jahr richtig einen vorm Bug mit Ryzen 2. Das die mal aufwachen!
Ist doch leider immer so. Hatte glück meinen 8700k für "nur" 315€ zu bekommen. und das war für mich da schon die obere Grenze.Wenn die Dinger nicht wie geschnitten Brot gekauft werden, dann fallen auch die Preise zügig. Aber ich hab so ein Gefühl, dass die Dinger eine Weile mehr gekauft werden, also Intel liefern kann, und deswegen die Preise entsprechend hoch bleiben (oder sogar noch steigen).
Da du dir ja jetzt wieder einmal selbst widersprichst - es war deine Asusage das die CPU-Last mit steigender Auflösungen sinken würde.@Casurin
Nur weil Du etwas missverstehst musst Du nicht intrigieren! Zu Deiner Ignoranz im Folgenden: Dass die Auflösung die CPU-Last erhöht steht in so nicht da. - Habe ich nicht gesagt. Die Bildauflösung steht einzig zur GPU-Last im Bezug.
Im Grunde genommen müssen die CPU-Benchmarks fernab dem GPU-Limit vollzogen werden, demzufolge in hohen Auflösungen auf niedrigen Details, damit die GPU noch Luft und die CPU noch mehr gefordert wird.
davon war nie die Rede - aber lüg dir die Welt wie sie dir gefällt zusammen.Die Rede ist von den zusätzlichen Polygonen und deren Bewegungsmatrix rechnet die GPU nicht immer, das ist von Game zu Game verschieden wie Watch Dogs 2, wo die meiste Physik die CPU übernimmt.
XDD Krass - die Ironie deiner Kommentare ist einfach überirdisch - traurig das so etwas überhaupt möglich ist.Verallgemeinere also nicht! Die Rede ist nicht von Batman: Arkham City. Und von wegen Pixel.
Der 7800X ist gut lieferbar. Wenn es wegen Cascade Lake-X wäre, müssten die anderen Modelle auch betroffen sein. Sie sind es aber nicht.Auch der Intel Core i7-7800X. Warum soll Intel diese Modelle noch pflegen? Cascade Lake-X steht vor der Tür.
Perlen vor die Säue! Das versteht der typische Foren-DAU hier nicht.Aber wenn die GPU am Limit ist holt auch die CPU nicht mehr raus, weil das 2160p zu anspruchsvoll ist. Die CPU wird sogar entlastet. Aber nicht deswegen, weil sie weniger zu tun HAT sondern weil sie weniger zu tun BEKOMMT. Deswegen die niedrigen Details, damit der GPU noch etwas Puffer für andere Berechnungen bleibt, bspw. um die FPS zu steigern, denn genau das passiert. Und genau in diesem Moment wächst die CPU-Last an.