Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Das mit der 720p-Leistung und Zukunftssicherheit dachte ich mir auch immer, bin aber letztens über dieses Viedo gestolpert:

Zukunftssicher insofern, dass du die Leistung mit einer schnelleren GPU schon heute bei gleichbleibender Software oder im Falle von CPUs mit gleichvielen Cores auch mit später erscheinender Software siehst, mal Befehlsätze wie AVX 512, die nur Intel bietet ausgenommen.

Was soll denn das bringen bei einem CPU Test in ein GPU Limit zu laufen?
Das kann man sich durch Logik recht einfach herleiten.
TL;DR: i5-2500 K war bei den Release-Tests in 640x480 viel schneller als der FX-8350. Mittlerweile ist aber in der Realität (d.h. bei tatsächlicher Spielerhardware und "normalen" Einstellungen) der 8350 schneller als der 2500 K, v.a. weil er 8 "Kerne" hat, statt 4.

Nö, da irrst du dich schlicht und ergreifend und verwechselst zwei paar Schuhe.
Mit der alten Software ist der 2500 K auch heute noch etwas schneller, viel schneller war der nie.

Nur hat sich die Software nach 5 Jahren eben geändert und lässt mehr Kerne zu und die hat der 2500 K eben nicht.

Mit der Auflösung hat das gar nix zu tun.

Diese 720p-Tests, die auch mehr als kritisch anzusehen sind, geben halt maximal etwas Rückschluss darauf, wie gut die Engine unter nicht GPU-limitierenden Szenario mit dem Prozessor skaliert. Man kann darauf, wie ich finde, null auf Ingame-Streetperformance Rückschlüsse ziehen noch irgendwas anderes (Also nichts was Anwendungsbenchmarks besser abdecken).

Wieso machst du nicht selber CPU Tests in Spielen und veröffentlichst sie in 4K?
Das von dir so ein Quatsch kommt, hätte ich am wenigsten erwartet.
Jedes mal die selben elenden Diskussionen unter den Tests.
Ich lass es mir eingehen wenn jemand Neues das nicht versteht, aber du?

Was soll denn Ingame Streetperformance sein?
Kombinierst du dann eine RX 580 mit dem 9900K in WQHD? :D

Wie ist denn so die City Street Performance mit einem Mustang Shelby bei 50 Km/h?

Da reicht doch auch ein FX 4100 kombiniert mit meinem 8 K Monitor bei 30 Hertz!!
Das ist mal #Street Performance.

Das ist mir alles völlig klar, bin auch kein großer Freund von 720p-Tests.

Dann mangelt es einfach an Verständnis diesbezüglich.

Entweder wurden hier Fehler gemacht oder die Benchmarkszenen sind nicht reproduzierbar und damit für Vergleiche generell ungeeignet.

Soweit kann ich dir zustimmen.
Die Leistung der neuen TR dürfte nicht geringer sein.
 
Zuletzt bearbeitet:
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Wieso ist der 1920X bei gleicher Kernzahl und weniger Boost und schlechterem Speicher in manchen Benchmarks vor dem neuen 2920X???
Liegt das an der Software, oder an dem Betriebssystem, die den Prozi anscheinend nicht richtig ansprechen?
Denn der Prozi kann ja gar nicht langsamer sein.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Wieso ist der 1920X bei gleicher Kernzahl und weniger Boost und schlechterem Speicher in manchen Benchmarks vor dem neuen 2920X???
Liegt das an der Software, oder an dem Betriebssystem, die den Prozi anscheinend nicht richtig ansprechen?
Denn der Prozi kann ja gar nicht langsamer sein.

AC:O ist langsamer geworden. Wenn die alten Messwerte für den 1920X einfach übernommen wurden, liegt der 2920X rund 20% zurück. Vermutlich liegt das an diversen Windows Updates. Ich kann den Unterschied bei mir reproduzieren. Der 2950X sollte 10% schneller sein als mein alter 1950X, ist aber in der Tat 10% langsamer, daher die 20% Differenz.

Nö, da irrst du dich schlicht und ergreifend und verwechselst zwei paar Schuhe.
Mit der alten Software ist der 2500 K auch heute noch etwas schneller, viel schneller war der nie.

Nein, er irrt sich nicht, weil er implizit von einer modernisierten Software ausgegangen ist. Es ist ein Sache der Fragestellung. Ich bin auch dafür, tendenziell möglichst immer neuste Software für CPU Tests zu verwenden.

@PCGH: Dennoch habt ihr ein bissl geschlampt. Jetzt reagiert doch mal auf den Punkt. :nene:
 
Zuletzt bearbeitet von einem Moderator:
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Ach Schaffe, hier treibst du dich jetzt rum :-). Wir haben dich im 3dcenter schon vermisst.

Aber mal zu deiner beleidigenden Auslassung, mir würde es an Verständnis fehlen: weiter oben bringst du doch selbst den Gegenbeweis gegen die Behauptung, 720p-Tests würden etwas substantielles Aussagen. Was nutzt es mir zu wissen, dass in 720p Prozessor A mit Spiel 1 heute schneller ist als CPU B, und das in Spiel 1 auch in 3 Jahren noch ist? In drei Jahren spiele ich nicht mehr Spiel 1, wahrscheinlich auch nicht 2 oder 3, sondern eher Spiel 4. Deiner Aussage nach hat der Test bei Spiel 1 keine Aussagekraft für Spiel 4, also habe ich nichts aus dem 720p-Test für Spiel 4 gelernt. Und selbst Spiel 1 spiele ich heute in QHD oder in UHD im GPU-Limit. Also keine Aussage für meine heutige Praxis und keine Aussage für die Spiele von morgen.

Natürlich ist die absolute Spieleperformance schon von Interesse, aber im Spielebereich eher akademischer Natur. Und natürlich kann ein gewisses Leistungspolster für kommende Spiele nie schaden. Und natürlich kann man auch Anhaltspunkte über die Leistungsentwicklung von einzelnen CPUs ableiten, wenn man weitere Annahmen über zukünftige Softwareentwicklungen einbezieht. Aber deswegen muss man so einen 720p-Test mit heutigen Spielen eben auch nicht überbewerten.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Ich hoffe ihr haltet durch, wenn ich jetzt noch weiter rumargumentiere... Normalerweise bin ich eher jemand, der nichts postet sondern Kommentare ließt und sich seinen Teil denkt. Aber manchmal wäre dann doch etwas Diskussion hilfreich, um andere Meinungen besser zu verstehen. Also:

Was zeigt der Spiele-Test bei 720p/480p/etcpp mit der jeweils besten Graka?
(1) Die "Gaming Performance" der CPU. Das stimmt genaugenommen nur für dieses Szenario, d.h. niedrige Auflösung mit Höchstleistungs-GPU. Das ist aber ein unrealistisches Szenario (v.a. weil die Monitorfrequenz usw. gar nicht mithalten können).
(2) Die "Gaming-Zukunftssicherheit" der CPU. Das stimmt genaugenommen nur für das Szenario, dass sich die Spiele in Zukunft wie die Spiele in der Gegenwart verhalten, sowohl Software- wie Hardware-seitig (--> CPU-Systemanforderungen RTX, siehe BF1). Ein blick auf das YT-Video (siehe mein vorheriger Post) zeigt, dass das Szenario auch nicht immer hält.

Ergo: Die 720p/480p-Test zeigen Unterschiede, die für die allermeisten Spieler nicht relevant sind.
Macht das dann nicht auch die Tests irrelevant bis irreführend, v.a. in einer Publikation die sich tendenziell eher an Spieler richtet?

Viel spannender (und wahrscheinlich auch hilfreicher für die meisten potentiellen Käufer) wäre doch die Frage, welche CPU ich brauche, um eine bestimmte GPU bei _sinnvollen_ Einstellungen ans Limit zu bringen, bzw. welche GPU man kaufen kann, ohne die CPU zu überfordern.
_Sinnvolle_ Einstellungen sind natürlich schwierig zu definieren, aber auch nicht weniger willkürlich und weltfremd als die 720p. Man könnte z.B. 1080p Medium & Ultra und 1440p Medium & Ultra vergleichen. Die bessere "Gaming-CPU" ist dann die, die die schnellere GPU versorgen kann. Wenn eine CPU also z.B. mit einer 1060 oder 580 (als Mainstream-Karten) schneller ist als eine andere, wird das für den Spieler, der Budget für eine 1060 hat, viel mehr aussagen.

Im Endeffekt bräucht man eine Referenz-Matrix in der Form:

---------------- GPU
---------------- Low --- Mid --- High --- Extrem
CPU---------- 1050 -- 580 --- 2070 -- 2080 Ti
Low: 200 GE
Mid: i3-8100 _____ [fps oder "Score"]
High: 2600X
Ext: 9900K

Neue CPUs/GPUs könnte man dann recht einfach einordnen und abschätzen, ob eine Kombo etwas bringt. Meine Vermutung ist, dass das besser klappt als GPUs mit ner 7980XE und CPUs mit ner 2080Ti zu testen und daraus irgendeinen praktischen Wert für den Durchschnittsbürger ziehen zu wollen.

Ja/Nein/Vielleicht?
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Man muss das nur mal so sehen: Wir zeigen euch schon jetzt die Leistung in Ultra HD mit einer RTX 4080 Ti! Erreicht wird das durch Nutzung der 720p-Auflösung im Hier und Jetzt mit einer Asbach-Ti. :devil:

Die Simulation lässt sich übrigens nicht Ultrawide-Auflösungen übertragen, denn diese stellen aufgrund des breiteren Sichtfelds größere Ansprüche an die CPU.

MfG,
Raff
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Guten Tag die Herren und Damen,

ein kurzer Nachtrag zum Ergebnis des TR-2920X in Assassins Creed Origins: Der frühere Wert war tatsächlich falsch. Ich bin - schlicht und ergreifend - beim Übertragen der Werte in den Online-Beitrag verrutscht und habe den falschen Wert genommen. Es tut mir leid und der Übertragungsfehler wurde so eben behoben. :-D
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

@ChiliFlo:
Ich denke du sprichst es schon fast richtig aus.

Ich bin der Meinung, dass CPU Tests in 720p durchaus Sinn ergeben. Genau wie GPU Tests in FHD, WQHD und UHD.
Die Sache ist doch Folgende. Die langsamste Komponente bremst.
Im Endeffekt kannste dir ne CPU raussuchen die in deinem Spiel deine gewünschte FPS liefert. Dann eine GPU die das auch schafft und fertig (vereinfacht gesagt).
Was bringt es dir wenn du CPUs in FHD oder WQHD bencht und dann im Endeffekt die GPU Leistung siehst? Dann bringt es auch kein schnellerer Prozessor bzw. ein langsamerer hätte es eventuell auch getan.

Ich selber zocke in FHD nur auf FPS getrimmt (144Hz). Es darf nicht ruckeln. Wie es aussieht ist mir relativ egal. Da sind die CPU Tests in 720p für mich genial. Meine Grafikkarte limitiert nicht.

Genauso verstehe ich dann nicht, warum einige auf den 9900k geiern, wenn sie nachher in WQHD oder sogar UHD spielen und eh im GPU Limit hängen.

Wenn man jetzt sagt für die Zukunft gekauft muss man halt hoffen, dass sich nicht Grundlegend was bei den Spielen ändert. Siehe das oben genannte Beispiel mit dem 2500k und dem FX.

Sry für Typos. Handy ist nicht mein Freund.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Mittlerweile ist aber in der Realität (d.h. bei tatsächlicher Spielerhardware und "normalen" Einstellungen) der 8350 schneller als der 2500 K, v.a. weil er 8 "Kerne" hat, statt 4.
Future-Proofing hat da hart versagt ;)

Die Topologie der Mikroarchitekturen Bulldozer- Piledriver und Steamroller setzt sich in bis zu vier Modulen zusammen, diese auf der Clustered-integer-Core-Architektur von Digital Equipment Corporation basieren. In einem jeden Modul, das als Gesamtes den Core bildet, werkeln je eine Floating Point Unit und je eine Schedduler Unit. Diese Einheiten sind physische Cluster und fungieren je Modul in dem sogenannten Cluster-based Multithreading. In der Assoziation sind es jeweils ein Dual-, Triple- und Quad-Core-Prozessor mit einem asymmetrischen, physischen Thread-Level Parallelism, dieses sich aus bis zu acht Based-Clustern zusammensetzt. Eine jede Shedduler Unit fungiert wie das HyperThreading und Simultaneous Multithreading und übernimmt lediglich die Operationen zum Postprocessing. So und nicht anders agiert ein solcher Prozessor: Die Shedduler Unit übernimmt nicht die Operationen von der Floating Point Unit, gemeinsam teilen sie sich einen Shared-Cache, im negativen Aspekt auch als Victim-Cache bekannt. Die Funktionsweise des namentlichen Eight-Core-Processors entspricht nicht derer eines Octa-Core-Prozessors.
 
Zuletzt bearbeitet:
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Nein, er irrt sich nicht, weil er implizit von einer modernisierten Software ausgegangen ist.

Nö, er geht von Praxiseinstellungen aus, die diese Verdänderungen bewirken und nicht von der Software die unabhängig der Auflösung diese Veränderungen bewirkt.
Auflösung hat damit überhaupt nichts zu tun, also bitte hier nicht schon wieder Unsinn vebreiten, danke.

Es ist ein Sache der Fragestellung

Eher des Verständnisses. Die modernisierung der Software und die Unterstützung von mehr Cores, hat rein gar nichts mit der Testmethodik am Hut.
Es ist immer richtig die GPU aus der Rechnung weitestgehend zu entfernen, alles andere ist Unfug.
Und da bietet sich 720p nun einfach an. Hat ja nicht jeder eine RTX 2080 Ti und die passenden Savegames um ein CPU oder RAM Limit zu garantieren um damit Noob-freundlich in 1080p oder gar WQHD zu testen, nur weils alle Nase lang jemand nicht versteht.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

@Schaffe: Es geht darum nach einer gewissen Zeit, einen anderen Parcours mit besser optimierter Software zu verwenden. Das hat nichts mit Auflösung und Testmethodik zu tun, ja das stimmt.

Es wird auch noch dauern, bis alle namhaften Studios auf Ryzen optimierte Compiler verwenden. Übrigens verwende ich diese bereits und kann sagen, dass es teils einen ziemlich großen Unterschied ausmachen kann. Ich habe Unterschiede bis zu 50% gemessen.

Die Aussage über die Zukunft unter Verwendung von schnelleren GPUs ist somit grober Unfug, es sei denn, man verwendet exakt denselben Parcours, was aber einen ordentlichen CPU Vergleich hinfällig macht. Genauso wie die GPU bei einem CPU Vergleich nicht limitieren darf, so sollte es auch die Software nicht tun.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Aber mal zu deiner beleidigenden Auslassung, mir würde es an Verständnis fehlen: weiter oben bringst du doch selbst den Gegenbeweis gegen die Behauptung, 720p-Tests würden etwas substantielles Aussagen.

Was soll deran beleidigend sein? Es ist doch auch einfach so, ich meine, dass du das als ausgewiesener AMD FAN, wie ich aus den 3D Center Diskussionen um ein CPU Limit mitbekommen habe, nicht einsehen willst, ist mir doch absolut klar.
Dennoch hat es keinen Sinn, hier um den heißen Brei zu reden. Es gibt scho genug Seiten die nicht auf ordentliche Benchmarkmethodiken wert legen.
Und jeder Beitrag indem dieser Müll behauptet wird, 720p Tests seien für die CPU Performance nicht aussegekräftig, werden von mir mit genau dem selben Vorwurf beantwortet.

Was nutzt es mir zu wissen, dass in 720p Prozessor A mit Spiel 1 heute schneller ist als CPU B, und das in Spiel 1 auch in 3 Jahren noch ist?

Weil dort draußen nicht alle Menschen mit derselben Grafikkarte, denselben Einstellungen und denselben Anforderungen die du dir ausdenkst, spielen wollen.
Soll ja vorkommen, dass Menschen auch die GPU oder die CPU, je nachdem wo das Limit liegt, nachrüsten wollen, oder ganz einfach eine andere GPU aus dem Test nutzen, oder sie sogar übertakten, oder ein SLI oder CF System nutzen, oder wie schon gesagt, einfach mit anderen Einstellungen spielen.

Deiner Aussage nach hat der Test bei Spiel 1 keine Aussagekraft für Spiel 4, also habe ich nichts aus dem 720p-Test für Spiel 4 gelernt.

Das habe ich so nicht gesagt, nein. Es ist immer von Interesse was eine CPU ohne GPU Limit leistet, oder glaubst du eine 8C8T CPU von AMD verhält sich in Zukunft, das heißt bei neueren Engines und Spiel 9999 statt Spiel 1 plötzlich völlig anders als eine 8C8T Intel CPU?
Man kann rein empirisch aus der Vergangenheit sagen, dass das nicht der Fall ist.

Und wer sich heute einen Threadripper für Gaming einbaut, der kann gerne auf mehr Leistung in 7 Jahren spekulieren, wenn eventuell mehr als die typischen 7 Threads richtig belastet werden, die typisch für heutige Konsolen sind.

Und selbst Spiel 1 spiele ich heute in QHD oder in UHD im GPU-Limit.

Das was du persönlich machst, juckt nur niemanden, so einfach wie simpel.
Nur kann selbst für deine Anforderungen nur ein Test im CPU Limit dir maximale Informationen über das Produkt liefern, auf deren Grundlage du dich für eine CPU entscheiden kannst.

Aber deswegen muss man so einen 720p-Test mit heutigen Spielen eben auch nicht überbewerten.

Was würde es dir denn helfen, wenn der Test im partiellen GPU Limit stattfindet?:ugly: Ist das aussegekräftiger? Nö.
Anstatt eine einfache Gegenfrage zu stellen, speist du mich mit solch unsinnigen Betrachtungen ab, die einfach naiv und höchst subjektiv sind.
Nur weil du in gewissen Einstellungen und angeblich dauerhafter GPU Limit Spieler bist, sind die Betrachtungen keineswegs rein akademischer Natur.

Da könnte ich genauso hergehen und die 4K und WQHD Tests komplett weglassen und als CPU für GPU Tests nur einen FX-8350 einsetzen und mich dann hinstellen und sagen.
Es haben so wenig Menschen 4K und WQHD Monitore und so wenig Menschen teure Prozessoren. Deswegen testen wir nur noch mit Casual Setups, alles andere ist rein akademischer Natur.

Wenn du solche Maßstäbe an Tests anlegst, dann kann aus diesen ja nur Schwachfug rauskommen.
Ich denke der Leser wird es selbst schaffen, GPU Benchmarks zu dem betreffenden Spiel zu schauen, um einschätzen zu können, wie viel FPS seine GPU drückt, anstatt bei einem CPU Test eine GPU da unnötig limitieren zu lassen.

Akademisch ist wenn dann die CPU Leistung im Anwendungsbereich (Beispielhaft 8700K vs 2700x), beispielsweise bei Blender. Entscheidender ist vielmehr die Performance beim Modelling und nicht beim finalen renderjob.

(1) Die "Gaming Performance" der CPU. Das stimmt genaugenommen nur für dieses Szenario, d.h. niedrige Auflösung mit Höchstleistungs-GPU. Das ist aber ein unrealistisches Szenario (v.a. weil die Monitorfrequenz usw. gar nicht mithalten können).

Deshalb wählt man in der Regel auch Spiele die bereits sehr CPU lastig sind und nicht etwas wie Wolfenstein, hier ist es vermutlich dabei, weil es beliebt ist und sehr fortschrittlich.
Es gibt am Markt so viele Spiele die bei handelsüblichen Framerraten in ein CPU Bottleneck laufen, zu nennen wären hier beispielsweise Strategiespiele mit weit forgeschrittenen Savegames, was dann auch absolut praxisnah wäre.
Ich spiele beispielsweise in 3840x1080 144 Hertz in 2560x1440 144 Hertz und 1920x1080 240 Hertz, meistens Shooter.
Ich bin bei hohen Einstellungen sehr häufig durch die CPU limitiert.

Warum sollte ein Tester einen Test für Menschen machen, die auf ihrem 60 Hertz Monitor in WQHD mit einer Mittelklasse GPU spielen wollen? Der Test wird ja für alle möglichst aussagekräftig gemacht.

(2) Die "Gaming-Zukunftssicherheit" der CPU. Das stimmt genaugenommen nur für das Szenario, dass sich die Spiele in Zukunft wie die Spiele in der Gegenwart verhalten, sowohl Software- wie Hardware-seitig (--> CPU-Systemanforderungen RTX, siehe BF1). Ein blick auf das YT-Video (siehe mein vorheriger Post) zeigt, dass das Szenario auch nicht immer hält.

Man kann es aber mit Einschränkungen auch genau so sagen. Eine CPU die heute schnell ist und ausreichend Reserven an Threads hat, wie zum Beispiel der 8700K, der wird auch in Zukunft schnell sein.
Für einen 8400 mit nur 6 Threads, würde ich das nicht behaupten wollen, sofern man dessen Marktpreis bei ausreichender Lieferbarkeit mit einem 2600 oder 2600x vergleicht.
Vergleichst du CPU´s mit gleich vielen Threads und Kernen, verändern sich die Unterschiede zwischen diesen CPU´s über die Jahre nur geringfügig bis gar nicht und da kannst du quasi sagen, dass das ein eingeschränkter Ausblick auf die Zukunft ist.

Ergo: Die 720p/480p-Test zeigen Unterschiede, die für die allermeisten Spieler nicht relevant sind.
Macht das dann nicht auch die Tests irrelevant bis irreführend, v.a. in einer Publikation die sich tendenziell eher an Spieler richtet?

Nein, überhaupt nicht, da liegt einfach dein Denkfehler.
Der Testgegenstand ist die CPU und nicht ein Setup XY mit all seinen Besonderheiten.

Viel spannender (und wahrscheinlich auch hilfreicher für die meisten potentiellen Käufer) wäre doch die Frage, welche CPU ich brauche, um eine bestimmte GPU bei _sinnvollen_ Einstellungen ans Limit zu bringen, bzw. welche GPU man kaufen kann, ohne die CPU zu überfordern.

Das wird durch diese Testmethodik am zuverlässigsten geliefert. Man sehe sich GPU Benchmarks zu einem betreffenden Spiel im GPU Limit und CPU Benchmarks im CPU Limit an und kann anhand seines FPS Ziels daraus auswählen.
Ein 0815 Test wo mal die eine oder andere Komponente limitiert, liefert hingegen nichts verwertbares, außer eine Larifari- Aussage, dass es wohl schon laufen wird.

Skalierungstests in mehreren Auflösungen sind unnütze Arbeit, da ist halt eine minimale Transferleistung der Leser gefragt.

Es wird auch noch dauern, bis alle namhaften Studios auf Ryzen optimierte Compiler verwenden. Übrigens verwende ich diese bereits und kann sagen, dass es teils einen ziemlich großen Unterschied ausmachen kann. Ich habe Unterschiede bis zu 50% gemessen.

Mit welchen Compiler hast du das denn gemessen? AOCC? Und welcher workload wurde dabei verwendet?

Die Aussage über die Zukunft unter Verwendung von schnelleren GPUs ist somit grober Unfug, es sei denn, man verwendet exakt denselben Parcours, was aber einen ordentlichen CPU Vergleich hinfällig macht.

Nur liegst du bezüglich den Performancesteigerungen mit AMD optimiertem Compiler in der Bringschuld und alle solche Aussagen die in die Richtung bessere Spieleperformance durch AMD Compiler gingen, haben sich in der Vergangenheit immer als unwahr herausgestellt.
Bis auf Enzelfälle hat AMD in letzter Zeit nie Leistungssteigerungen durch sagenumwobene Compiler in Spielen hervorbringen können, wenn dann war es immer das Scheduling, auch damals bei Bulldozer.
Da gibt es kaum Hoffnung auf Besserung, insofern sollte man solche steile Thesen auch nicht in den Raum werfen.

Die CPU´s verhalten sich in Einklang mit Anwendungsbenchmarks die AMD keinesfalls durch den Compiler bremsen, nur die Latenzen und der Takt verhindern bei AMD einen Gleichstand in Spielen.
Einen ziemlich großen Unterschied wird es da ergo nicht geben, das wird einfach so weiterlaufen.
 
Zuletzt bearbeitet:
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Ich hoffe ihr haltet durch, wenn ich jetzt noch weiter rumargumentiere... Normalerweise bin ich eher jemand, der nichts postet sondern Kommentare ließt und sich seinen Teil denkt. Aber manchmal wäre dann doch etwas Diskussion hilfreich, um andere Meinungen besser zu verstehen. Also:

Was zeigt der Spiele-Test bei 720p/480p/etcpp mit der jeweils besten Graka?
(1) Die "Gaming Performance" der CPU. Das stimmt genaugenommen nur für dieses Szenario, d.h. niedrige Auflösung mit Höchstleistungs-GPU. Das ist aber ein unrealistisches Szenario (v.a. weil die Monitorfrequenz usw. gar nicht mithalten können).
(2) Die "Gaming-Zukunftssicherheit" der CPU. Das stimmt genaugenommen nur für das Szenario, dass sich die Spiele in Zukunft wie die Spiele in der Gegenwart verhalten, sowohl Software- wie Hardware-seitig (--> CPU-Systemanforderungen RTX, siehe BF1). Ein blick auf das YT-Video (siehe mein vorheriger Post) zeigt, dass das Szenario auch nicht immer hält.

Ergo: Die 720p/480p-Test zeigen Unterschiede, die für die allermeisten Spieler nicht relevant sind.
Macht das dann nicht auch die Tests irrelevant bis irreführend, v.a. in einer Publikation die sich tendenziell eher an Spieler richtet?

Viel spannender (und wahrscheinlich auch hilfreicher für die meisten potentiellen Käufer) wäre doch die Frage, welche CPU ich brauche, um eine bestimmte GPU bei _sinnvollen_ Einstellungen ans Limit zu bringen, bzw. welche GPU man kaufen kann, ohne die CPU zu überfordern.
_Sinnvolle_ Einstellungen sind natürlich schwierig zu definieren, aber auch nicht weniger willkürlich und weltfremd als die 720p. Man könnte z.B. 1080p Medium & Ultra und 1440p Medium & Ultra vergleichen. Die bessere "Gaming-CPU" ist dann die, die die schnellere GPU versorgen kann. Wenn eine CPU also z.B. mit einer 1060 oder 580 (als Mainstream-Karten) schneller ist als eine andere, wird das für den Spieler, der Budget für eine 1060 hat, viel mehr aussagen.

Im Endeffekt bräucht man eine Referenz-Matrix in der Form:

---------------- GPU
---------------- Low --- Mid --- High --- Extrem
CPU---------- 1050 -- 580 --- 2070 -- 2080 Ti
Low: 200 GE
Mid: i3-8100 _____ [fps oder "Score"]
High: 2600X
Ext: 9900K

Neue CPUs/GPUs könnte man dann recht einfach einordnen und abschätzen, ob eine Kombo etwas bringt. Meine Vermutung ist, dass das besser klappt als GPUs mit ner 7980XE und CPUs mit ner 2080Ti zu testen und daraus irgendeinen praktischen Wert für den Durchschnittsbürger ziehen zu wollen.

Ja/Nein/Vielleicht?

So eine Matrix gibt es manchmal im PCGH-Heft.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

So eine Matrix gibt es manchmal im PCGH-Heft.

Die reicht aber auch nur als grobe Hilfe bei festen Spielesettings aus.
Für den 60 FPS Casualgamer der nicht ins Thema eintaucht, kann das aber schon hilfreich sein.
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Nur liegst du bezüglich den Performancesteigerungen mit AMD optimiertem Compiler in der Bringschuld und alle solche Aussagen die in die Richtung bessere Spieleperformance durch AMD Compiler gingen, haben sich in der Vergangenheit immer als unwahr herausgestellt.
Bis auf Enzelfälle hat AMD in letzter Zeit nie Leistungssteigerungen durch sagenumwobene Compiler in Spielen hervorbringen können, wenn dann war es immer das Scheduling, auch damals bei Bulldozer.
Da gibt es kaum Hoffnung auf Besserung, insofern sollte man solche steile Thesen auch nicht in den Raum werfen.

Die CPU´s verhalten sich in Einklang mit Anwendungsbenchmarks die AMD keinesfalls durch den Compiler bremsen, nur die Latenzen und der Takt verhindern bei AMD einen Gleichstand in Spielen.
Einen ziemlich großen Unterschied wird es da ergo nicht geben, das wird einfach so weiterlaufen.

Nur mal so am Rande, du kannst Bulldozer jetzt nicht für alles hernehmen. Du reagierst ziemlich harsch mein Lieber. So wie du auftrittst kannst du auch selber recherchieren. Das Know-How, das zu beurteilen scheinst du ja zu haben. ;)
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Ich hoffe ihr haltet durch, wenn ich jetzt noch weiter rumargumentiere... Normalerweise bin ich eher jemand, der nichts postet sondern Kommentare ließt und sich seinen Teil denkt. Aber manchmal wäre dann doch etwas Diskussion hilfreich, um andere Meinungen besser zu verstehen. Also:

Was zeigt der Spiele-Test bei 720p/480p/etcpp mit der jeweils besten Graka?
(1) Die "Gaming Performance" der CPU. Das stimmt genaugenommen nur für dieses Szenario, d.h. niedrige Auflösung mit Höchstleistungs-GPU. Das ist aber ein unrealistisches Szenario (v.a. weil die Monitorfrequenz usw. gar nicht mithalten können).
(2) Die "Gaming-Zukunftssicherheit" der CPU. Das stimmt genaugenommen nur für das Szenario, dass sich die Spiele in Zukunft wie die Spiele in der Gegenwart verhalten, sowohl Software- wie Hardware-seitig (--> CPU-Systemanforderungen RTX, siehe BF1). Ein blick auf das YT-Video (siehe mein vorheriger Post) zeigt, dass das Szenario auch nicht immer hält.

Ergo: Die 720p/480p-Test zeigen Unterschiede, die für die allermeisten Spieler nicht relevant sind.
Macht das dann nicht auch die Tests irrelevant bis irreführend, v.a. in einer Publikation die sich tendenziell eher an Spieler richtet?

Viel spannender (und wahrscheinlich auch hilfreicher für die meisten potentiellen Käufer) wäre doch die Frage, welche CPU ich brauche, um eine bestimmte GPU bei _sinnvollen_ Einstellungen ans Limit zu bringen, bzw. welche GPU man kaufen kann, ohne die CPU zu überfordern.
_Sinnvolle_ Einstellungen sind natürlich schwierig zu definieren, aber auch nicht weniger willkürlich und weltfremd als die 720p. Man könnte z.B. 1080p Medium & Ultra und 1440p Medium & Ultra vergleichen. Die bessere "Gaming-CPU" ist dann die, die die schnellere GPU versorgen kann. Wenn eine CPU also z.B. mit einer 1060 oder 580 (als Mainstream-Karten) schneller ist als eine andere, wird das für den Spieler, der Budget für eine 1060 hat, viel mehr aussagen.

Im Endeffekt bräucht man eine Referenz-Matrix in der Form:

---------------- GPU
---------------- Low --- Mid --- High --- Extrem
CPU---------- 1050 -- 580 --- 2070 -- 2080 Ti
Low: 200 GE
Mid: i3-8100 _____ [fps oder "Score"]
High: 2600X
Ext: 9900K

Neue CPUs/GPUs könnte man dann recht einfach einordnen und abschätzen, ob eine Kombo etwas bringt. Meine Vermutung ist, dass das besser klappt als GPUs mit ner 7980XE und CPUs mit ner 2080Ti zu testen und daraus irgendeinen praktischen Wert für den Durchschnittsbürger ziehen zu wollen.

Ja/Nein/Vielleicht?

PCGH macht bereits alle erdenklichen Tests.
Du brauchst es nur kaufen und lesen. :-)

Es gibt monatliche Bestenlisten (wer hat die meiste Power in Relation) , jährliche Aufrüstmatrixen (ich vermute mal vor Weihnachten? genau das was du willst) und alle Nase lang spezielle Testberichte für alle anderen vorstellbaren Konstellationen.
Da ist für jeden was dabei.
Außerdem sind die Spiele sowas von unterschiedlich gestrickt, einige brauchen mehr CPU-Takt, andere mehr CPU-Kerne, andere sind mit dem einen oder anderen oder gar beidem sehr genügsam, benötigen dafür deutlich mehr GPU.
Aber genau das wird anhand einzelner Beispiele immer wieder mal verdeutlicht.
Daher ist selbst so eine Aufrüstmatrix nur bedingt aussagekräftig, zumal jeder andere Vorraussetzungen anhand der eingesetzten Auflösung und Framerate am Monitor hat.
Wenn man schon sieht, dass Spielehersteller nicht einmal wissen, wie sie was programmiert haben und wann was wie gut läuft und komische Angaben machen, wie soll PCGH das für hunderte Spiele am Markt mit einem einzelnen Wert wiedergeben?
 
AW: Ryzen Threadripper 2970WX und 2920X im Test: Benchmarks der "kleinen" Zen+-CPUs

Doch, glaub mir, das geht. Gerade bei langsamen/alten Prozessoren, welche die Bildrate auch bei Full- oder WQHD bestimmen.

Die Leistung sehr schneller Prozessoren wird in der Praxis meist von der GPU-Leistung maskiert. Daher ist es ja so wichtig, die wahre CPU-Leistung mithilfe einer geringen Auflösung aufzuzeigen. Das ist erstens fair und zweitens zeigt es, was die CPU einige Jahre später in Kombination mit einer stärkeren Grafikkarte auf die Straße bringt.

Die ewige Diskussion reloaded.

MfG,
Raff
Aber nur, wenn sich die Engines in der Zeit überhaupt nicht entwickeln und bspw. mehr Kerne deutlich besser nutzen wie bei Ubisoft bereits teilweise der Fall.
Der Grundgedanke ist auf den ersten Blick zwar richtig, aber nicht zu Ende gedacht.

Mal davon abgesehen, dass die Spieleauswahl und deren Umfang oft einen deutlich größeren Einfluss auf die Ergebnisse haben. Bei den Tests von Hardware Unboxed sieht man gut, dass ein Prozessor je nach Spiel genausogut 20% vorne wie hinten sein kann.

Die 720p Tests haben ihre Berechtigung um die MOMENTANEN Leistungsunterschiede aufzuzeigen. In den Tests wird aber mMn viel zu viel Betonung auf 720p gelegt und es kommt für mich immer so rüber, als könnte man davon definitive Aussagen über die zukünftige Performance treffen. Quasi CPU A ist um x% langsamer als CPU B, darum ist es auch mit in 5 Jahren erscheinenden Titeln noch so. Wie man beim vorher genannten Beispiel der FX CPUs sehen kann imuss das nicht der Fall sein.
 
Zurück