Ist die Ära der Quadcores wirklich vorbei? Eine Analyse von gaussmath [Leser-Special]

Ganz so einfach ist das nicht, weil es nicht linear skaliert. Eine stärkere CPU kann sogar im GPU-Limit noch einige Prozent bessere Werte liefern.

Stimmt - hatte ich nicht mehr auf dem Schirm :ugly:

Damit man eine möglichst vielseitige Analyse durchführen kann, könnte man ja in Zukunft die Community-Benchmarks noch ausweiten.
Damit könnte man dann Matrizen schaffen, die Aufzeigen mit welchem Prozessor und Grafikkarte eine solche angepasste Testmethode welche Auswirkungen haben :gruebel:
 
Nochmal als Nachtrag. Ich bin da jetzt ganz penibel rangegangen. Aus einer praktischen Perspektive heraus kann man die Grafik von PCGH natürlich nehmen, da man eh eine gewisse Toleranz mit draufpacken sollte. Dann spielt die nicht-lineare Skalierung keine Rolle.

Mir ging's tatsächlich um eine Analyse, die auf ein paar Prozent genau ist. Nerd Motivation halt.. :D

Ich habe die Grafik gerade mal auf Twitter geteilt. Großartige Arbeit von PCGH!
 
Ich kann die Ansicht dahinter verstehen. Nur spielt so gut wie niemand in 720. Die Ergebnisse sind also in der Praxis unbrauchbar..

1080p-Ergebnisse wären für 1440p-Spieler genauso unbrauchbar. Und dann gibt es noch die mit 2160p. Und Leute wie mich, mit 1200p. Oder 2400p mit Downsampling, wenn es die GPU-Leistung zulässt. Und dann sind da noch die Ultra-Wide-Formate. Wenn wir jedem Spieler Tests in seiner Wunschauflösung vorsetzen würden, könnten wir, je nachdem wie weit wir es treiben, nur noch maximal ein Viertel bis minimal ein Zehntel soviele Spiele testen, wie bislang.

Die meisten unserer Leser finden 10 Benchmarksergebnisse in einer nicht von ihnen genutzten Auflösung, insbesondere 720p, deutlich brauchbarer als 1 Benchmark in der von ihnen genutzten Auflösung, auch wenn das eine gewissen Transferleistung erfordert. Wenn du das anders siehst, tut es uns leid – aber wir können nicht beide Zielgruppen gleichzeitig bedienen. Und ehrlich gesagt gibt es im Netz auch mehr als genug 1080p-Bencher und wir selbst behandeln alle wichtigen Spiele zusätzlich noch in Spielanlysen mit mehreren Auflösungen, da ist eine Konzentration auf 720p für die CPU-Tests nun wirklich kein Beinbruch. Umgekehrt wären keine 720p-Tests für viele unserer Leser aber ein massiver Rückschritt.
 
Mit anderen Auflösungen kommen ist hier einfach nur Ablenkung. Es nutzt so gut wie keiner 720P. 1080P nutzt aber immer noch die Mehrheit.
 
Die Mehrheit nutzt auch Boxed-Kühler. Jetzt stell dir mal vor, man würde damit CPUs testen. CPU-Tests in 720p sind absolut sinnvoll, da sie die Last auf das lenken, was getestet werden soll. Wer das nicht versteht, kann ja bei CB die Tests in UHD bestaunen, wo alle CPUs gleichschnell sind. Hilft bestimmt bei der Kaufentscheidung ;-)
 
Diese Diskussionen wegen der Auflösung bei Tests hören wohl nie auf. Ich persönlich finde CPU Test's in niedrigen Auflösungen richtig und nötig da es auch Spiele gibt wo es auf CPU-Leistung unabhängig der Grafikkarte ankommt. Wer wie ich gerne Spiele wie z.B. City Skylines, Transport Fever oder jetzt Workers and Ressources: Soviet Republik spielt der ist für jedes % an CPU Leistung dankbar. Wenn auf einer Karte mehrere 10K Einwohner in Echtzeit simuliert werden dann kann ich mir vorstellen das da längst die CPU die Puste ausgeht während die Graka noch Kaffee trinkt nebenher. Daher befürworte ich weiterhin CPU Test's in niedrigen Auflösungen.
Ich würde mir auch mal wünschen das solche Spiele verstärkt in den Tests Einzug halten, denn diese Spiele bringen jede aktuelle CPU an ihre Grenze.
 
Du testest also einen Ferrari auch im Stau, denn nur das ist praxisrelevant, wann gibt es denn mal freie Autobahnen?
Du meinst eher man testet den Ferrari nur auf der Autobahn. Obwohl man ihn eher in der Stadt nutzt. Mit dem Argument würde ich übrigens noch die Hochskalierung nutzen und 480 wenn es Spiele anbieten.
 
Du meinst eher man testet den Ferrari nur auf der Autobahn. Obwohl man ihn eher in der Stadt nutzt. Mit dem Argument würde ich übrigens noch die Hochskalierung nutzen und 480 wenn es Spiele anbieten.

Die Standardantwort ist dann immer: Wenn dich die reine CPU-Leistung nicht interessiert, was völlig ok ist (!), dann schau dir doch die 1080p Grafikkartentests an. Aber das reicht, warum auch immer, dann auch wieder nicht. Das wirft dann bei mir immer Fragen auf. Warum will man partout, dass die tatsächliche CPU-Leistung nicht offenbart wird? Das scheint irgendwas Ideologisches zu sein. ^^

Du kannst ja mal, vorausgesetzt du bist einigermaßen bekannt, auf Twitter schreiben, dass der 10900K in Wirklichkeit 20% schneller ist als der 3900X. Hardware Unboxed kommt auf 7%. Was glaubst du, was dann los ist? :D

Ich würde gerne ein paar Highlights raussuchen, aber ich musste leider kräftig blockieren. Die Leute haben sich persönlich angegriffen gefühlt und mich daraufhin persönlich beleidigt, sogar bekannte Youtuber.
 
Zuletzt bearbeitet von einem Moderator:
Hast Du sie nicht zu einem Vergleich eingeladen?
Bin mir sicher, daß von den Laberbacken keiner antritt.

Die haben eine andere Wahrnehmung als ich. Auf die prasselt jeden Tag so viel Shit ein, dass die gar nicht mehr auseinanderhalten können, wer was Brauchbares zu sagen hat. Sehr wahrscheinlich haben die mich als einen Störenfried gesehen, der auf Bait aus ist.

Jedenfalls hat irgendeiner von Hardware Unboxed dann noch einigermaßen vernünftig mit mir diskutiert. Steve von GamersNexus kam mir mit der Aussage, dass ich von ihm lernen soll. :D Wäre sogar mal was, wenn wir beide was voneinander lernen könnten. Jedenfalls haben die kein Interesse, ihre Methodik zu überdenken, also somit bestimmt auch nicht an irgendwelchen Vergleichen.
 
Die Standardantwort ist dann immer: Wenn dich die reine CPU-Leistung nicht interessiert, was völlig ok ist (!), dann schau dir doch die 1080p Grafikkartentests an. Aber das reicht, warum auch immer, dann auch wieder nicht. Das wirft dann bei mir immer Fragen auf. Warum will man partout, dass die tatsächliche CPU-Leistung nicht offenbart wird? Das scheint irgendwas Ideologisches zu sein. ^^

Du kannst ja mal, vorausgesetzt du bist einigermaßen bekannt, auf Twitter schreiben, dass der 10900K in Wirklichkeit 20% schneller ist als der 3900X. Hardware Unboxed kommt auf 7%. Was glaubst du, was dann los ist? :D

Ich würde gerne ein paar Highlights raussuchen, aber ich musste leider kräftig blockieren. Die Leute haben sich persönlich angegriffen gefühlt und mich daraufhin persönlich beleidigt, sogar bekannte Youtuber.


Die reine CPU-Leistung sehe ich hier nicht. Ich sehe kleine Annäherungen, wenn du wirklich die "reine" Leistung sehen willst müsstest auf die kleinstmöglichste Auflösung runter und hoch die Hochskalierung (falls dies, das Spiel anbietet) aktivieren.

Dann noch in mühsamer Kleinarbeit raus finden, welche Optionen jetzt die CPU belasten und dann hätte man einen halbwegs guten vergleich. Zwar völlig praxisfern, aber man hätte ihn.

Und ähnlich verhält es sich mit 720. Ist zwar nett aber für den Vergleich eigentlich 0 von Bedeutung, wird aber gerne benutzt um zu zeigen, wie geil CPU x doch noch ist, oder mal war.

Und da nützt es mir auch nix wenn ein Ryzen dort 10 % schneller ist, schon aber ab Full-HD plötzlich 5 % langsamer. Bei identischen Karten. Denn runter auf 720 geht man eher ungerne. Runter von 2K auf 1080 schon eher.

Und nur was persönliches. Ich will deine Arbeit nicht klein reden, du hast da echt Zeit und Mühe reingesteckt.
 
Die reine CPU-Leistung sehe ich hier nicht. Ich sehe kleine Annäherungen, wenn du wirklich die "reine" Leistung sehen willst müsstest auf die kleinstmöglichste Auflösung runter und hoch die Hochskalierung (falls dies, das Spiel anbietet) aktivieren.

In sehr seltenen Fällen muss man noch weiter runter, das stimmt. Man kann auch so Bullshit Settings wie "Volumetrische Wolken" in AC:Od einfach abschalten. Games wie Strange Brigade ins CPU-Limit zu kriegen ist ziemlich schwierig, das muss man dann einfach akzeptieren oder aus dem Parcours kicken. Eines weiß ich mittlerweile aus meiner eigenen Testerfahrung heraus: 720p + sinnvolle Settings ist sehr nah dran am Ideal, aber 1080p eher nicht. Das ist kein Wunder, denn (1920*1080)/(1280*720) = 2.25. Die Grafikkarte muss also mehr als das Doppelte stemmen.

Zwar völlig praxisfern[...]

Die Keule wird tatsächlich ziemlich ausgiebig geschwungen. Mittlerweile empfinde ich es sogar als egoistische Bevormundung, wenn mein Interesse an der tatsächlichen Spieleleistung einer Arch mit diesem "Argument" niedergebrüllt wird. Gut, ich könnte ja woanders lesen, wenn die Tests nicht meinen Vorstellungen entsprechen. Das Problem ist, dass das immer weniger wird. Immer mehr Tester gehen auf FHD, wahrscheinlich weil sie keinen Bock mehr auf die Diskussionen haben. Es gibt ja in der Tat wichtigeres als sich immer zu rechtfertigen. Ich habe allerdings schon Stimmen gehört, die 1440p fordern. Ich werde mich vehement gegen so einen Blödsinn aussprechen, auch wenn's dann mal wieder einen Shitstorm gibt.
 
Zuletzt bearbeitet von einem Moderator:
Ok reden wir mal Klartext. Was nützt dir die "tatsächliche" Leistung denn?

Es ist auch nicht die tatsächliche Leistung, da zum Beispiel Strategiespiele gerne auch mal mit der Auflösung den Bildauschnitt verkleiner, tada weniger Einheiten und damit auch weniger CPU-Last.

Je nach Spiel werden auch durch die Auflösung weniger Details angezeigt, die auch die CPU belasten. Beispielweise Passanten oder Fahrzeuge bei GTA.

Und ich hätte da auch noch manches Kuriosum, dass CPU-Typ y bei einer höheren Auflösung um 30 % einbricht, CPU-Typ x nur um 20 %.

Und nein es geht mir nicht darum 720P komplett zu verbieten. Ich hätte trotzdem gerne auch eine Auflösung zum Vergleich und die fehlt mir hier.
 
Die reine CPU-Leistung sehe ich hier nicht. Ich sehe kleine Annäherungen, wenn du wirklich die "reine" Leistung sehen willst müsstest auf die kleinstmöglichste Auflösung runter und hoch die Hochskalierung (falls dies, das Spiel anbietet) aktivieren.

Dann noch in mühsamer Kleinarbeit raus finden, welche Optionen jetzt die CPU belasten und dann hätte man einen halbwegs guten vergleich. Zwar völlig praxisfern, aber man hätte ihn.

Und ähnlich verhält es sich mit 720. Ist zwar nett aber für den Vergleich eigentlich 0 von Bedeutung, wird aber gerne benutzt um zu zeigen, wie geil CPU x doch noch ist, oder mal war.

Und da nützt es mir auch nix wenn ein Ryzen dort 10 % schneller ist, schon aber ab Full-HD plötzlich 5 % langsamer. Bei identischen Karten. Denn runter auf 720 geht man eher ungerne. Runter von 2K auf 1080 schon eher.

Und nur was persönliches. Ich will deine Arbeit nicht klein reden, du hast da echt Zeit und Mühe reingesteckt.

720p ist in den meisten Titeln die kleinste Auflösung, bei der Bildinhalt und Perspektive, also die von der CPU bereitzustellenden Inhalte und damit die CPU-Last je Frame, noch denen in typischen Spielsettings entsprechen und wir deaktivieren alle Effekte, die ausschließlich die Grafikkarte (AA,...).
 
Ok reden wir mal Klartext. Was nützt dir die "tatsächliche" Leistung denn?

Gut, dann rede ich auch Klartext. Ich habe praktisch gesehen gar nichts davon, weil ich eh mittlerweile alles mitnehme, was gelauncht wird. :D Das hat aber seine Gründe, ich habe halt gewisse Pläne. Aber was bringt den Leuten Kenntnisse über schwarze Löcher, die zig Lichtjahre entfernt sind? Was bringt Mathematikern noch tiefer in algebraischen Strukturen zu graben, um noch universellere Eigenschaften zu entdecken? Was bringt Wissen im Allgemeinen? Es ist menschliche Neugierde und es fasziniert mich. Wer das nicht akzeptiert, sorry, der soll woanders rumstänkern.

Was habe ich davon, eine Software + Quellcode kostenlos zu Verfügung zu stellen, die mittlerweile an die 60k Euro wert ist? Weil es eine Leidenschaft ist...
 
Zurück