Intel Core i7-9700K auf 5,5 GHz: Benchmark zum Achtkerner aufgetaucht

Außerdem gibt's Tricks, um die 720p Ergebnisse abzuschätzen. Bei AMD legt man ne Gerade durch 1080p, 2K, 4K, bei Intel ne Hyperbel. Zack, kommt die "Überkapazität" zu Tage.
 
Wow, cool. Ca. 8 Jahre alte Prozessoren werden in der Taktung wieder eingeholt. ^^
Ist das wirklich so, dass man da irgendwie am natürlichen Limit angekommen ist?
Oder hat Intel gerade erst wieder die Entwicklungsabteilung aufgemacht? LOL
 
Da hauts einem doch glatt die Hufen von den Stelzen!

Häh warum soll ich meine CPU in 720p testen, ich spiele doch in 4K mit ultrasettings, also teste ich auch unter diesen für mich realen Bedingungen. Habe dabei feststellen können, dass meine CPU richtig schlecht ist, egal ob auf 3GHz getaktet oder auf 5.4GHz getaktet, meine Fps bleiben einfach gleich. Übertakten bringt gar nix bei der CPU, darum kaufe ich mir das nächste mal eine richtig starke CPU mit ganz vielen und ganz doll starken Kernen. Ich bin maßlos enttäuscht vom 8700K. Nicht 1 Fps mehr trotz 2.4GHz mehr Takt, was hat sich Intel dabei nur

:D

Ich hab mich schon gewundert wann es die nächste sinnfreie, wie teste ich meine CPU in Spielen Diskussion gibt.
Anscheinend haben die mühsamen Erklärungen der letzten Male wieder nichts gebracht.
Wer heute ein Gamingsystem in 4 K zusammenstellt, der ieht sich Benchmarks der Wunsch GPU in 4 K an und Benchmarks der Wunsch CPU in 720 p an, um Messungenauigkeiten auszuschliessen.
Und wenn dann die CPU immer genug Frames für seine geplanten Settings abwirft, kann man auch ein oder zwei Regale tiefer greifen.
Aber klar, wer in 4 K spielt schaut sich natürlich CPU Benchmarks in 4 K an, am besten mit einer 750 Ti kombiniert. :D

Es kann doch nicht wahr sein dass dieser triviale Blödsinn immer von den gleichen Querulanten jeden Morgen wie frischer Kaffee erneut aufgebrüht wird.
 
Zuletzt bearbeitet:
Ich hoffe du hast meinen Post nicht ernst genommen Schaffe^^

Nein, die Antwort war nicht auf dich bezogen^^.
Das was gaussmath hier wohl fehlt sind Skalierungstests, die man sich aber aufgrund CPU Messungen im CPU Limit und GPU Messungen im GPU Limit recht einfach erschliessen kann.
 
Nein, die Antwort war nicht auf dich bezogen^^.
Das was gaussmath hier wohl fehlt sind Skalierungstests, die man sich aber aufgrund CPU Messungen im CPU Limit und GPU Messungen im GPU Limit recht einfach erschliessen kann.

Klar, wir kalkulieren uns die Sets durch Interpolation. Mir geht's ja aber gerade um Pragmatismus auf einen Blick.
 
Da wird nichts interpoliert. Eine CPU ist in jeder 16:9 Auflösung gleich schnell, worauf man sich noch einlassen könnte wäre das separate Testen einer möglichst niedrigen 21:9 Auflösung und zusätzlich noch mal ein Vergleich zwischen einer AMD und einer Nvidia Karte im CPU-Limit
Damit wäre dann echt alles abgedeckt ;)
 
Hardware Unboxed hat dazu vor einiger Zeit mal ein extrem ausführliches Video, bzw. extrem großen Benchparkour gemacht.
Dieser war, wie ich finde, sehr sehr aufschlussreich und es kamen recht viele unerwartete Ergebnisse bei rum.
(Z.B. Längerer Balken in höherer Auflösung, kürzerer in 720p. Oder auch völlig andere Ergebnisse je nach GPU vs. Res.)

Zum Thema "Zukunftssicherheit aufgrund des längsten 720p Balkens" kommen ja noch weitere Punkte,
wie z.B. Mehrkern/HT-Optimierungen, Anpassung aufgrund neuer Architekturen usw.

Genau das war es auch, was ich meinte, nur daß ich es nicht so gut belegen konnte! :daumen:
 
Da wird nichts interpoliert. Eine CPU ist in jeder 16:9 Auflösung gleich schnell, worauf man sich noch einlassen könnte wäre das separate Testen einer möglichst niedrigen 21:9 Auflösung und zusätzlich noch mal ein Vergleich zwischen einer AMD und einer Nvidia Karte im CPU-Limit

Und die Welt ist eine Scheibe.

Wenn die Gegenseite selbst nach mehrfachen Erklären und ausführlicher Argumentation immer noch sagt „Die Erde ist eine Scheibe“ erübrigt sich die Diskussion.

Wer in einem Hardwareforum nicht verstehen kann (oder will) warum man in einem CPU Test den Einfluss der GPU soweit wie möglich ausklammert, dem ist schlicht nicht zu helfen.

Themaverfehlung! Bitte vorher lesen, verstehen und dann erst kommentieren oder mich nicht zitieren. Danke.
 
Willst du mir jetzt allen Ernstes erzählen dass die CPU in UHD weniger fps ausspuckt als in 720p? Falls ja, hätte ich da gerne eine Begründung...
 
Willst du mir jetzt allen Ernstes erzählen dass die CPU in UHD weniger fps ausspuckt als in 720p? Falls ja, hätte ich da gerne eine Begründung...

Lies doch bitte die Beiträge. Jobsti84 hat was verlinkt. Ich habe eine Möglichkeit erwähnt. Wenn die Auflösung hoch ist, können gewisse Details überhaupt erst Sinn machen und werden akiviert. Das führt zu mehr Draw Calls und das zu mehr CPU Last.

Außerdem, wie willst du von 720p und 4k auf 2k schließen ohne Interpolation?
 
Willst du mir jetzt allen Ernstes erzählen dass die CPU in UHD weniger fps ausspuckt als in 720p? Falls ja, hätte ich da gerne eine Begründung...

Genau das ist es, was die Leute nicht begreifen...

Auflösung ist der CPU egal... die kümmert sich um Physik, Ki...
Wie fliegt die Kugel, was für Schäden erzeugt die Bombe, was machen die NPCs...

GPU Kümmert sich um das Bild, das aus diesen Physik und Ki-Berechnungen entstehen soll... ob 720p oder4K, sogar 8K... die CPU hat berechnet was sie berechnen sollte...
-in diesem GLEICHBLEIBENDEM Bildauschnitt - Das ist wichtig zu verstehen! 21:9 z.B. hat einen größeren Bildauschnitt von der Umgebung.

In was für einer Auflösung, das jetzt die GPU ausgibt, Das ist nur ihr Problem. Die CPU hat ihre Arbeit für den Frame schon gemacht

Ich glaube jetzt verstehen das alle.


P.s. Freesync auf Nvidia: Nutzer bringt Monitor-Technik durch Trick zum laufen

Mit Glück kann ich dieses WE berichten wie/ob Freesync geht, wenn das Bild einer 1080ti über eine AMD GPU an einen Freesync Monitor geschleift wird.
 
Willst du mir jetzt allen Ernstes erzählen dass die CPU in UHD weniger fps ausspuckt als in 720p? Falls ja, hätte ich da gerne eine Begründung...

Casurin hat in diesem Thread ein Video gepostet wo u.a. Benchmarkergebnisse von einem Pentium + Geforce 1080 enthalten sind. Bei manchen Spielen sinken die fps unter 2,5K gegenüber 2K ab. Es scheint vom Spiel abhängig zu sein. Leider gibt es wenig Benchmarks dazu, weil es eine seltene Kombination ist.
Auch bei anderen Seiten habe ich schon ähnliche Effekte gesehen, dass der Pentium unter 4K massiv gegenüber niedrigeren Auflösungen einbricht. Der Grund dafür würde mich interessieren.

Man sollte nur nicht Aussagen von Usern einfach so glauben, sondern kritisch sein und langsam habe ich die Vermutung, dass die fps im CPU-Limit nicht immer unabhängig von der Auflösung sind. Den Grund kenne ich bisher nicht, aber würde mich selber interessieren.

Genau das ist es, was die Leute nicht begreifen...

Wenn du so sicher bist, dann beweise es mir. Nimm einfach einen Pentium und eine Geforce 1080 ti und mach Benchmarks unter 720p und 4K. Die bisherigen Benchmarks legen nahe, dass es bei einigen Spielen fsp-Einbrüche gibt.
Einfach irgendwas zu behaupten kann jeder, aber ich sehe keinerlei Beweise.
 
Bei Ashes of the Singularity gab's das doch auch. Gewisse Features wurden erst mit einer 8 Kern CPU aktiviert. Warum sollte also der Detailgrad nicht von der Auflösung abhängen? Das ist eine durchaus sinnvolle Optimierung.
 
Themaverfehlung! Bitte vorher lesen, verstehen und dann erst kommentieren oder mich nicht zitieren. Danke.

Du musst nicht ständig Themaverfehlung rufen, wenn du nicht mehr weiterweißt.

Du könntest dir deinen Rat „vorher lesen, verstehen und dann erst kommentieren“ auch einfach mal selbst zu Herzen nehmen.

Warum 720p Tests der richtige Weg sind, wurde dir jetzt mehrfach und sehr ausführlich erklärt.
 
Zurück