Ryzen Threadripper 3990X: Erste Messwerte aus dem 3D Mark Time Spy

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen Threadripper 3990X: Erste Messwerte aus dem 3D Mark Time Spy

Zum Ryzen Threadripper 3990X sind erste Messwerte aus dem 3D Mark Time Spy aufgetaucht. Die CPU sieht in diesem Benchmark nicht so übermächtig aus, wie 64 Kerne vermuten lassen, da die Anwendung schlechter skaliert. Im Cinebench wäre es wohl anders.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ryzen Threadripper 3990X: Erste Messwerte aus dem 3D Mark Time Spy
 
Solche Tests stoßen bei mir immer auf Unverständnis. Wenn man sich schon genötigt sieht mit 3DMARK die CPU zu testen, dann sollte man wenigstens einen Test wie Time Spy extreme nehmen.
Der CPU Test nutzt die Kerne relativ gut aus. Ausserdem wird hier auch AVX2 verwendet. Der normale Time Spy ist ja schon fast ein erweiteter Ram Test.
 
Wenn in der Liste noch der oblgatorische, überlegene Intel aufgetaucht wäre, hätte ich an "Real World Performance" geglaubt. So ist es nur ein gutes Beispiel für einen miesen Benchmark geworden, der einzig durch die TDP des 64 Kerners begrenzt wurde. Klar, dass ein kleinerer Prozessor mit der Wattzahl höher boosten kann und hier einzig der maximale Takt zählt. Damit vollkommen sinnlos...
 
Lol, naja, gemäß Werten auf guru3d erreicht ein 9900KS bereits ohne OC über 11500 Punkte und ist damit bereits schneller. ;-)

Abseits dessen ist es natürlich Blödsinn eine Server- bzw. extrem hochkernige CPU mit Gaming-Benchmarks vermessen zu wollen. Hinterlässt wieder einmal mehr nur einen ClickBait-Eindruck, nichts Nennenswertes/Wesentliches zu berichten, aber einfach unreflektiert jedes unsinnige Gerücht aufgreifen und verwursten; wird schon irgendwie ein paar Clicks generieren. Schade dass man hier nicht etwas mehr Rückgrad zeigt. (Ähnliches sieht man ja zurzeit auch bei jederm noch so kleinen Aufgreifen etwaiger Gerüchte rund um Ampere/BigNavi und RDNA2 ... hier wird auch schonungslos alles verwurstet, auch wenn es nur den Schatten eines Gerüchts darstellt.)
 
Es ist einfach nicht der richtige Anwendungsfall für eine CPU wie den 3990x. 64 Kerne, das ist eine umgelabelte Server-CPU. Wenn man da fair testen wollte müsste man den Benchmark auf 4 Benutzkonten parallel laufen lassen oder ähnliche Spielchen veranstalten. Wenn man diese Schlagzeilen ließt provoziert man damit nur ein paar oberschlaue kleine Kinder, die dann im Forum schreiben dass Intel besser ist weil der 9900ks trotzdem beim 3dMark mehr Punkte schafft mit einem Achtel an Kernen...
 
Hinterlässt wieder einmal mehr nur einen ClickBait-Eindruck, nichts Nennenswertes/Wesentliches zu berichten, aber einfach unreflektiert jedes unsinnige Gerücht aufgreifen und verwursten; wird schon irgendwie ein paar Clicks generieren. Schade dass man hier nicht etwas mehr Rückgrad zeigt. (Ähnliches sieht man ja zurzeit auch bei jederm noch so kleinen Aufgreifen etwaiger Gerüchte rund um Ampere/BigNavi und RDNA2 ... hier wird auch schonungslos alles verwurstet, auch wenn es nur den Schatten eines Gerüchts darstellt.)

Deine Ausführungen lassen natürlich die Frage aufkommen, warum du die News dann überhaupt liest und sogar noch kommentierst. Hast bestimmt gehofft, dass sich hinter der Überschrift mehr Substanz befindet... :ugly:

Wenn man diese Schlagzeilen ließt provoziert man damit nur ein paar oberschlaue kleine Kinder, die dann im Forum schreiben dass Intel besser ist weil der 9900ks trotzdem beim 3dMark mehr Punkte schafft mit einem Achtel an Kernen...

Ja, ungefähr so: "LöoööoooL, 64 Kerne + 7nm + neue Arch und trotzdem ist Intel mit seiner steinalten Technik und 14nm schneller."
 
Zuletzt bearbeitet von einem Moderator:
Es ist einfach nicht der richtige Anwendungsfall für eine CPU wie den 3990x. 64 Kerne, das ist eine umgelabelte Server-CPU. Wenn man da fair testen wollte müsste man den Benchmark auf 4 Benutzkonten parallel laufen lassen oder ähnliche Spielchen veranstalten. Wenn man diese Schlagzeilen ließt provoziert man damit nur ein paar oberschlaue kleine Kinder, die dann im Forum schreiben dass Intel besser ist weil der 9900ks trotzdem beim 3dMark mehr Punkte schafft mit einem Achtel an Kernen...

Dann werde ich mal genau das jetzt machen:
Der 9900ks ist schneller in Games!!!

Genug Spaß, das Ergebnis überrascht nicht. Es kommt beim Cpukauf immer auf den Anwendungsfall an, in Spielen sind die hohen Taktraten Intels von Vorteil, in Anwendungen dagegen sieht der 9900ks kein Land mehr, wenn man mal Anwendungen herausnimmt, die eben nicht auf massive Parallelisierung ausgelegt sein.
Man kann mit dem 3990x natürlich sehr gut zocken (und nebenbei kann der noch 546244 andere Dinge machen), aber es ist eben eine Workstation-Cpu.
 
Deine Ausführungen lassen natürlich die Frage aufkommen, warum du die News dann überhaupt liest und sogar noch kommentierst. Hast bestimmt gehofft, dass sich hinter der Überschrift mehr Substanz befindet... :ugly:

Wohl kaum, die Überschrift war da schon erschreckend eindeutig. Aber in dem Falle rein gar nichts zu sagen/schreiben, heißt mehr oder weniger stillschweigend der Praxis zustimmen. Und das war jetzt das erst Mal seit langem, dass ich das mal wieder erwähnt habe, denn bei den ewigen GPU-PseudoNews der letzten Wochen habe ich da weitestgehend nichts geschrieben, weil man das Therma auch nicht totreiten muss. Wenn PCGH es für seine Bilanzen so braucht/haben will, ist das nun mal so und man muss sich (zumindest bis zu einem gewissen Grad) damit arrangieren. Jedoch etwas Kritik muss ja schließlich auch erlaubt sein und in diesem Fall finde ich es (logischerweise aus meiner Sicht) durchaus berechtigt, denn so manche PseudoNews könnte man sich hier durchaus ersparen und die werden natürlich nicht eingestellt, weil man mit der zur Verfügung stehenden Arbeitszeit der eigenen Mitarbeiter nichts besseres anzufangen weiß, sondern weil es hier um das gezielte Einfahren von Werbeeinnahmen geht. (Ohne das Forum hier würde ich der Plattform wohl deutlich leichter/eher den Rücken zukehren.)
 
Zuletzt bearbeitet:
Phhh, wer testet denn noch in Timespy und Konsorten?
Wer etwas auf sich hält, der wählt heutzutage MS OFFICE als ultimative Benchmarksuite!
Man sollte sich Intel mal als Paradebeispiel für EXCELente Vergleichsmöglichkeiten heranziehen.
So geht das WORDwörtlich!
Fakten und Leistungswerte auf den POWERPOINT genau analysiert!

:D :ugly: :lol:;)
 
Es ist ein großer threadripper - spielen kann man damit, sinnvoll ist es nicht - zumindest nicht als HauptZiel. Ist einfach nicht das Anwendungsgebiet.

Wenn in der Liste noch der oblgatorische, überlegene Intel aufgetaucht wäre, hätte ich an "Real World Performance" geglaubt. So ist es nur ein gutes Beispiel für einen miesen Benchmark geworden, der einzig durch die TDP des 64 Kerners begrenzt wurde. Klar, dass ein kleinerer Prozessor mit der Wattzahl höher boosten kann und hier einzig der maximale Takt zählt. Damit vollkommen sinnlos...
Der "kleine" Prozessor darf aber nicht mehr verbrauchen, hier liegts dann daran wie die CPU sich verhält. Wenn der benchmark mit sagen wir mit 156 Threads skaliert dann hindert nichts daran das der 3990X die 16 Kerne höher taktet.


Phhh, wer testet denn noch in Timespy und Konsorten?
Wer etwas auf sich hält, der wählt heutzutage MS OFFICE als ultimative Benchmarksuite!
Man sollte sich Intel mal als Paradebeispiel für EXCELente Vergleichsmöglichkeiten heranziehen.
So geht das WORDwörtlich!
Fakten und Leistungswerte auf den POWERPOINT genau analysiert!

:D :ugly: :lol:;)
Sagen wir mal so - es ist kein Problem mit einer mittel großen Tabelle einen große n Xeon oder Epic auch mal für eine Minute zu beschäftigen, oder mit Wordokumenten die CPU so zu stressen das das Arbeiten nicht mehr schön ist.
Sie sind genauso valide Benchmarks wie DNS-Simulationen oder auch Spiele - alles hat eben seinen Anwendungsbereich. Sonst müsste man ja auch anfangen Cinebench und Co zu streichen......
 
Der "kleine" Prozessor darf aber nicht mehr verbrauchen, hier liegts dann daran wie die CPU sich verhält. Wenn der benchmark mit sagen wir mit 156 Threads skaliert dann hindert nichts daran das der 3990X die 16 Kerne höher taktet.

Richtig, er darf genauso viel verbrauchen, nur können sich die Watt dann auf weniger Kerne aufteilen. Effektiv steht dann pro Kern mehr Energie zur Verfügung, was dafür sorgen sollte, dass er eben etwas höher takten kann. Was dann seinerseits, bei einem Benchmark der mehr vom Takt abhängig ist als von den Kernen, bedeutet, dass auch mehr Punkte erreicht werden. Die IPC ist bei beiden Threadrippern gleich, irgendwo muss da doch ein Flaschenhals existieren. Denn letztlich werden für die dicksten Threadripper auch die besten Dies genuttz, also jene, die poteniell am höchsten takten. Damit bleibt nur die Energieversorgung als Quelle für den eklatanten Unterschied übrig...
 
Richtig, er darf genauso viel verbrauchen, nur können sich die Watt dann auf weniger Kerne aufteilen. Effektiv steht dann pro Kern mehr Energie zur Verfügung, was dafür sorgen sollte, dass er eben etwas höher takten kann. Was dann seinerseits, bei einem Benchmark der mehr vom Takt abhängig ist als von den Kernen, bedeutet, dass auch mehr Punkte erreicht werden.
Das ist halt nur nicht wie das ganze funktioniert. Aber so wirklich garnicht.
 
Ich hab ja auch schon so Experimente mit meinem TR veranstaltet, den halben CPU und SMT ausgeschaltet und somit auf 8 echte Threads reduziert. Das Ergebnis warn ein paar Fps mehr und ein bissl höherer Takt. Aber mein Test unter Alltagsbedingungen schaut halt anders aus. Ich spiel eine Stunde AC während im Hintergrund gerendert wird. Merken tut man davon natürlich nix weil für beide Anwendeungen 8 Kerne zur Verfügung stehen.

Könnt man darüber nachdenken das in den PCGH-Benchmarkparcours einzubauen. Alle Benchmarks nochmal laufen lassen während im Hintergrund ein bestimmtes Video gerendeet wird. Und dann möcht ich die Frametime und die Renderzeit sehen. Mal sehen ob der 9900k dann noch immer 1. Wahl ist... :devil:
 
Könnt man darüber nachdenken das in den PCGH-Benchmarkparcours einzubauen. Alle Benchmarks nochmal laufen lassen während im Hintergrund ein bestimmtes Video gerendeet wird. Und dann möcht ich die Frametime und die Renderzeit sehen. Mal sehen ob der 9900k dann noch immer 1. Wahl ist... :devil:

Die werden selbst gegen ein 3700X kein Land sehen. Das war schon immer AMDs Parade Disziplin, wenn eben genau das gemacht wird. Alle Threads voll auslasten und dann gucken wie weit die CPU einknickt. Aber um so mehr Threads man hat, um so später passiert das eben. Ich denke auch das der 3990X später schnell über den Speicher limitiert sein wird. Quad Channel und 64 Kerne halte ich auch für etwas wenig. Das wären praktisch 16 Kerne pro Kanal. Octachannel wie bei den Epyc wäre da denke ich schon angebracht.
 
Das ist halt nur nicht wie das ganze funktioniert. Aber so wirklich garnicht.

Also mein 3900X verhält sich genau so, single/dual threaded Last zieht er laut Ryzen Master etwa 50-60W bei ~4.5GHz, wenn ich ihn künstlich auf 60W beschränke ändert sich an single core Benchmarks überhaupt nichts aber unter multi core Last bricht er komplett ein weil er 60W auf 10 Kerne verteilt anstatt ~150W?
 
Also mein 3900X verhält sich genau so, single/dual threaded Last zieht er laut Ryzen Master etwa 50-60W bei ~4.5GHz, wenn ich ihn künstlich auf 60W beschränke ändert sich an single core Benchmarks überhaupt nichts aber unter multi core Last bricht er komplett ein weil er 60W auf 10 Kerne verteilt anstatt ~150W?

Als Bestzer einer sochen CPU sollte man aber schon wissen wieviel Kerne das Ding hat :ugly::P.
 
Ich hab ja auch schon so Experimente mit meinem TR veranstaltet, den halben CPU und SMT ausgeschaltet und somit auf 8 echte Threads reduziert. Das Ergebnis warn ein paar Fps mehr und ein bissl höherer Takt. Aber mein Test unter Alltagsbedingungen schaut halt anders aus. Ich spiel eine Stunde AC während im Hintergrund gerendert wird. Merken tut man davon natürlich nix weil für beide Anwendeungen 8 Kerne zur Verfügung stehen.

Meine Tests haben zum Beispiel ergeben, dass ich oftmals bis zu 20% mehr Leistung hatte mit dem Game Mode. Das natürlich im reinen CPU-Limit. Mal abgesehen davon, dass die Frametimes sehr viel glatter waren.

Und beim Multi-Process-Test ist der TR sogar ungewöhnlich stark eingebrochen, dass aus dem GPU-Limit oftmals ein CPU-Limit wurde. Das ganze trotz Quad-Channel Interface.
 
Richtig, er darf genauso viel verbrauchen, nur können sich die Watt dann auf weniger Kerne aufteilen. Effektiv steht dann pro Kern mehr Energie zur Verfügung, was dafür sorgen sollte, dass er eben etwas höher takten kann.

Auch runtergetaktete Kerne brauchen Strom. Vielleicht läppert sich das einfach.

Könnt man darüber nachdenken das in den PCGH-Benchmarkparcours einzubauen. Alle Benchmarks nochmal laufen lassen während im Hintergrund ein bestimmtes Video gerendeet wird. Und dann möcht ich die Frametime und die Renderzeit sehen. Mal sehen ob der 9900k dann noch immer 1. Wahl ist... :devil:

Ist natürlich absurder Aufwand, weshalb das nicht passieren wird. Spezialtests in die Richtung gab es aber ja schon öfter. Da die meisten Leute beim Zocken nichts rendern, hat das im Spiele-Index auch nichts verloren. Man testet Sportwagen ja auch nicht standardmäßig mit Anhänger.

Das war schon immer AMDs Parade Disziplin, wenn eben genau das gemacht wird.

Schon immer finde ich jetzt übertrieben. ;) Aus heutiger Sicht hätte ich mir damals mein Upgrade vom P4 mit 3 GHz auf einen A64 3500+ vermutlich gesteckt, weil der Performancegewinn für meine heutigen Maßstäbe zu gering war und es durch das fehlende SMT eigentlich eher ein Sidegrade war. Man hat das schon gemerkt.
 
Zurück