Ryzen 2700X: Angeblich deutliches Taktplus in der Basis

Hardware Unboxed hat es wie üblich erschöpfend getestet und festgestellt, dass der Sweet Spot bei 2400/2666 liegt und sich darüber nicht mehr viel tut; siehe hier.

In 1080p und High Quality Settings getestet. Kann man nicht ernst nehmen...

Außerdem kann man so was nicht auf Spiele reduzieren.
 
Außerdem kann man so was nicht auf Spiele reduzieren.

Generell gesehen hast du Recht. Allerdings sind Spiele ein Bereich, in dem Coffee Lake schneller ist als die Ryzens. Insofern wäre es interessant, ob sie da aufschließen können, oder nicht. Was aber komisch ist, die Timings werden nicht erwähnt. Was nützt mir schnellerer Speicher, wenn die Latenz dann durch die Decke geht?
 
Mein Threadripper läuft jetzt schon mit 3466MHz und CL14. Deswegen mache ich mir keine Sorgen.

Im Übrigen ist ein all Core Turbo von 4GHz alles andere als das letzte rauspressen, wenn 4.4 oder mehr durch OC möglich sind.
 
Zuletzt bearbeitet von einem Moderator:
Es würde schon reichen, wenn die Taktgrenze von 4.2GHz weg wäre und die Spannungen dafür geringer.

Ich bin wirklich gespannt, was der neue Transistortyp OC mäßig bringt. Die Begrenzung von 4GHz all Core Turbo könnte erstmal nur der TDP Grenze geschuldet sein, könnte!
 
Hardware Unboxed hat es wie üblich erschöpfend getestet und festgestellt, dass der Sweet Spot bei 2400/2666 liegt und sich darüber nicht mehr viel tut; siehe hier. Wenn Zen+ mehr aus schnellerem Speicher herausholen kann als sein Vorgänger, wäre das ebenfalls positiv zu sehen.

Berücksichtigt man ferner, dass sich ein um 8% höherer CPU-Takt im 3D Mark nicht in einem 8% besserem Ergebnis niederschlägt, scheint es mir doch etwas voreilig, 13% Leistungsunterschied nur am Taktunterschied von CPU und RAM festzumachen.

Aber gut, ich will es nicht kategorisch ausschließen. Sobald die CPUs zum Testen vorliegen kann man abgleichen, welcher Leistungsvorsprung auf welche Merkmale entfällt, bis dahin ist das - in jede Richtung - nur wilde Spekulation.

Wie immer liegt es an der Anwendung bzw Spiel. DDR4 2400 vs 3200 MHZ mit guten Timing kann im CPU Limit schonmal für 20 % Mehrleistung sorgen, manchmal aber auch nur 5 %. Manche Anwendungen profitieren von hohen Takt, andere wiederrum von knacken Timings und manche interessiert beides nicht.:)
 
Erst schreibst du, du kennst kein Spiel welches nicht ausreichend beschleunigt wird, sprich flüssig und genau im nächsten Absatz widersprichst du dir:ugly:
Schau dir doch mal die Minfps bei BF1 oder Kingdom Come an. Da gibts nichts mehr zu feiern mit 4 Threadern. Solche Szenarien werden immer häufiger. Wenn ein "langsamer niedrig taktender" 6 Kerner limitert sind wir bei 100 FPS+, dass ist ein vollkommen anderes Niveau.
Auf meine 4,2 GHz i5 3570K hatte ich bereits Probleme mit Ark, Crysis 3, Subnautica und jetzt auch mit Kingdom Come, der 1700 auf 3,5 GHz läuft hier perfekt. Wer heute mehr als nur Retro oder Moba Spiele spielen will, sollte schlichtweg nicht mehr auf einen 4K/4T zugreifen. Es hat schon seinen Grund warum die inzwischen in die 100 € verbannt wurden.

Das ist mit einer aktuellen High-End Grafikkarte wie der 1080Ti sicherlich richtig, da limitert selbst schon ein Xeon 1231v3.
An der Stelle muss man fairerweise aber sagen, dass die breite Masse der PC-Spieler nicht über eine 1000 Euro GPU verfügt. Mit einer RX 370 4GB oder was auch immer im Durchschnitt verbreitet ist, limitert selbst ein alter 2500k noch nicht.
 
In 1080p und High Quality Settings getestet. Kann man nicht ernst nehmen...

Hast du das Ganze Video angeschaut? Es wird eindeutig gesagt, dass höhere Auflösungen etwas stärker von schnellerem Speicher profitieren, während bei niedrigeren Auflösungen Unterschiede geradezu verschwinden. Man muss also schon Beanspruchung so erhöhen, dass bei dem, was man testen will, auch Unterschiede zutage treten.

Oder wäre dir ein Test lieber gewesen, der lediglich aufgezeigt hätte, dass der Speichertakt bei 720p unerheblich ist? ;)

Außerdem kann man so was nicht auf Spiele reduzieren.

Vor allem könnte man sich - zumindest in dieser trauten Runde - endlich mal darauf einigen, wo man den Schwerpunkt setzt. Mal gibt es Gegenfeuer, weil man die Anwendungsleistung berücksichtigt, obwohl es doch um Spieleleistung gehen würde; konzentriert man sich dann auf diese, wird die Nichtberücksichtigung der Anwendungsleistung moniert. Das ist, offen gestanden, ein wenig ermüdend.

Ich wäre übrigens sehr dafür, Spiele und Anwendungsleistung zu gleichen Teilen zu berücksichtigen, aber das dann bitteschön *immer* und nicht selektiv, wie es gerade in die jeweilige Argumentation passt.
 
Hast du das Ganze Video angeschaut? Es wird eindeutig gesagt, dass höhere Auflösungen etwas stärker von schnellerem Speicher profitieren, während bei niedrigeren Auflösungen Unterschiede geradezu verschwinden. Man muss also schon Beanspruchung so erhöhen, dass bei dem, was man testen will, auch Unterschiede zutage treten.
Oder wäre dir ein Test lieber gewesen, der lediglich aufgezeigt hätte, dass der Speichertakt bei 720p unerheblich ist? ;)

Wenn er davon wirklich überzeugt ist, dann Prost Mahlzeit...
 
Es wird eindeutig gesagt, dass höhere Auflösungen etwas stärker von schnellerem Speicher profitieren, während bei niedrigeren Auflösungen Unterschiede geradezu verschwinden.

Das ist zu 100% völliger Unsinn. Hohe Auflösungen profitieren nicht von schnellem RAM Speicher, wenn dann von schnellem GPU Speicher.
Der RAM wird immer gleich genutzt.

Man muss also schon Beanspruchung so erhöhen, dass bei dem, was man testen will, auch Unterschiede zutage treten.

Du erhöhst da für den RAM keine Beanspruchung wenn du die Auflösung höherdrehst.
Schon wieder dieselbe Diskussion wie zuletzt.
 
Hast du das Ganze Video angeschaut? Es wird eindeutig gesagt, dass höhere Auflösungen etwas stärker von schnellerem Speicher profitieren, während bei niedrigeren Auflösungen Unterschiede geradezu verschwinden. Man muss also schon Beanspruchung so erhöhen, dass bei dem, was man testen will, auch Unterschiede zutage treten.

Oder wäre dir ein Test lieber gewesen, der lediglich aufgezeigt hätte, dass der Speichertakt bei 720p unerheblich ist? ;)

Um ein solches Ergebnis zu untermauern das nicht wirklich intuitiv ist hätte man wenigstens mal verschiedene Auflösungen testen sollen. Vielleicht meinst du ja ein anderes Video?
 
Das ist zu 100% völliger Unsinn. Hohe Auflösungen profitieren nicht von schnellem RAM Speicher, wenn dann von schnellem GPU Speicher.
Der RAM wird immer gleich genutzt.

Liest du wenigstens gelegentlich selbst, was für einen Unfug du manchmal schreibst? Wenn der dedizierte Grafikspeicher ausgelastet ist, wird der Systemspeicher genutzt und schnellerer Systemspeicher verringert Lags - sofern der Speichercontroller der CPU, die das Ganze hin und her schaufelt, mit schnellerem Systemspeicher umgehen kann. Bei hohen Auflösungen ist das VRAM tendenziell schneller ausgelastet und der Systemspeicher wird eher genutzt.
Eine weitere Abhängigkeit ergibt sich daraus, dass obendrein die CPU-Leistung intern ebenfalls vom Speichertakt abhängt - bei manchen Architekturen mehr, bei anderen weniger.

Bei 720p und reduzierten Einstellungen wird bestenfalls die CPU (und in wenig CPU-lastigen Titel auch diese geringer) gefordert und auch die Abhängigkeit der Grafikleistung vom Systemspeicher tendiert gegen Null. Die Unterschiede sind somit insgesamt reduziert und erhöhen sich erst, wenn man Situationen erzeugt, in denen die Abhängigkeit sowohl der CPU als auch der GPU vom RAM-Takt steigt. Was ist daran so schwer zu begreifen?

Wer die Tests die Hardware Unboxed kennt, der weiß, dass dort bei Test von CPUs immer das GPU-Limit durch Verwendung niedriger Auflösungen ausgeschlossen wird. Für einen Test der Auswirkung vom RAM-Takt ergibt das jedoch überhaupt keinen Sinn. Stattdessen muss man lediglich aufpassen, dass die Unterscheide - sobald sie überhaupt erst sichtbar werden - nicht ins GPU-Limit laufen. Und man muss sich die Skalen doch nur anschauen um zu sehen, dass genau dieses nicht der Fall ist, weil *gerade* die höhere Grafiklast Unterschiede zutage fördert. Also, wo liegt gleich noch mal das Problem?
 
Nee du. Sobald in den Arbeitsspeicher ausgelagert werden muss ist die Performance ohnehin futsch. Da gehts dann nicht um ein paar FPS hin oder her.
Alle Benchmarks im verlinkten Video lasten den VRAM nicht voll aus. Auch sonst wird in Benchmarks gesondert darauf eingegangen falls der VRAM mal nicht reichen sollte. Das ist kein normaler Zustand für den man sich rüsten sollte, geht auch gar nicht. Egal wie schnell der RAM dann ist, die Performance ist weg.
 
Nee du. Sobald in den Arbeitsspeicher ausgelagert werden muss ist die Performance ohnehin futsch. Da gehts dann nicht um ein paar FPS hin oder her.

Jain. Zuletzt deutlich wurde das Problem, als die GTX 1060/3G und die 1060/6G von verschiedenster Seite verglichen wurden. In einigen Titel schmierte die 3G in höheren (Textur-) Auflösungen massiv ab, in anderen weniger. Und wie sehr sie abschmierte, *wenn* sie abschmierte, hing dann eben doch mit dem verbauten Systemspeicher zusammen: Die Einbrüche mit einer GTX 1060/3G bei 16 GByte RAM (und in Gaming-Kisten üblicherweise nicht der langsamste) waren mess- und spürbar vorhanden. Mit nur 8 oder gar 4 GByte (und dümmstenfalls noch langsamen Value-RAM) waren sie katastrophal. Das ist ein Effekt, der sich verstärkt, je höher die genutzten (Textur-) Auflösungen sind bzw. wenn Texturen zwecks höherer Qualität weniger stark komprimiert werden.

Retten wird dann natürlich auch schnellerer Speicher nichts, zumal auch der schnellste Systemspeicher gegenüber VRAM immer noch schnarchlangsam ist. Aber darum geht es in diesem Fall ja auch nicht, sondern darum, ob er sich (in Spielen) überhaupt auswirkt. Und die Antwort ist: Im Durchschnitt eher nicht so sehr.
Selbst bei Ryzen, der schon deutlich stärker auf Speichertakt und -latenzen anspricht, gibt es nur in einigen Titel spürbare Auswirkungen und selbst dabei bremst, dass der Speichercontroller von Zen vorzeitig dicht macht.

Wenn dieser jedoch bei Zen+ zum einen nativ mit schnellerem Speicher umgehen kann, während gleichzeitig die Abhängigkeit von selbigen sinkt, ist das eine strukturelle Veränderung und ein Leistungszuwachs wäre nicht die Auswirkung dessen, dass Zen+ mit höherem Speicher läuft, den man bei Zen laut offiziellen Specs nicht verwendet, aber durchaus verwenden könnte. Und diese Behauptung war der Auslöser des Ganzen, falls sich noch jemand erinnert. :)

Im gleichen Posting habe ich übrigens auch angeregt, einfach mal abzuwarten und Zen+ mit dem jeweiligen Vorgängermodell bei Verwendung identischen Speichers / Speichersettings zu testen, sobald dies möglich ist. Dann weiß man's ganz genau und muss sich nicht über Spekulationen zerfleischen.
 
Zurück