Zen 3: 20% mehr Integer-Leistung im Vergleich zu Zen 2?

@gaussmath
Das Bild ist also, daß Leute ohne tiefere Skills und/oder angelernter Testmethodik einfach was zusammenbauen bzw. nehmen und testen? Und nu? Ist das an der Realität vorbei? An welcher so? An der Forenrealität oder der realen Realität?

@DARPA
Ich schrieb ja "fuhr". Minimale Konzentration bitte, wenn du schon die Tasta quälen musst. Sowas alles hab ich halt nicht mehr, da ich brav HW-Vergleiche der Presse lese ;)
Sind wir damit mit saucooler Einwurf fertig? :schief:
 
Zuletzt bearbeitet:
Das Bild ist also, daß Leute ohne tiefere Skills und/oder angelernter Testmethodik einfach was zusammenbauen bzw. nehmen und testen? Und nu? Ist das an der Realität vorbei? An welcher so? An der Forenrealität oder der realen Realität?

In der Man-muss-tatsächlich-testen-was-man-testen-will-Realität. FHD + High Settings ist zu oft GPU-Limit.
 
MIT EINER 2080?? :D
Aber selbst wenn, ist das nur die Stelle wo man sich nicht fragt was sich bisher alles getan hat, sondern eben was das alles auch wirklich brachte. Das erwähnte ich schon mehrmals bisher ;)

Bis denne. Ihr macht das schon. Der Markt und so. Und das Gefühl immer etwas neues zu haben was so wirklich toll ist und auch viel toller als das vorherige. Lasst euch das ja nicht nehmen :D
 
Limitiert eigentlich die CPU oder eher zB CPU+RAM+Cache?
Man spricht ja relativ schnell meist ausschließlich vom CPU Limit, nur ist das so zu 100% richtig?
Durch schnelleren RAM/Cache muss die CPU ja auch mehr ackern.
Auch zu berücksichtigen ist, dass in Tests meist eine Szene genommen wird, wo iwas arg limitiert, nur spiegelt dies meist nur ein kleinen Teil vom Game wider, also bezogen auf die kp 100 Std Spielspaß in dem Game ist es vllt eine 20 Minuten Passage, wo es zu diesen Limitierungen kommt, wie sollte man das korrekt gewichten?
Und bzgl eurer Diskussion hier noch kurz: Habt ihrs bald?^^

Noch was zum Thema: Ich bin echt gespannt inwieweit Zen 3 Intel eventuell alt aussehen lassen wird, stock vs stock werden die das sicherlich tun, nur wie sieht es aus, wenn man optimiert vs optimiert vergleicht, denn aktuell ist Intel ja weit vorne im optimiert vs optimiert Duell ggü Zen 2 in Games.
 
Zuletzt bearbeitet:
@Duvar
Wir können ja nur grob unterscheiden zwischen CPU und GPU (reine Speichergrößenlimits außen vor), wobei CPU=RAM+Cache+Kerne(Takt) ist und GPU=Kerne(Takt)+VRAM.
Innerhalb können wir durch Takt/Timing Anpassungen noch differenzieren, obs ein Rohpower (CPU/GPU Takt), oder ein Versorgungsdefizit (Cache, RAM) ist.
 
Mich interessiert viel mehr, wieviel Spieleperfomance Zen3 zulegen kann, durch die Senkung der Speicherlatenzen.

Der 4900X wird durch seine 15% mehr an Leistung, genau so schnell sein wie der core i9-10900k in Spielen. Beide im default Mode ohne overclocking.
 
Gewohnt sachlich begründet. Thx.
p.s.:
Apple hat sich das auch genauer ne Weile angeschaut und beschloss mit der x86 Iteration ~2015/2016, daß sie genug gesehen haben. Diese Laien haben sich wohl von irgendwelchen Youtubern beeinflussen lassen...
Haben wohl auch keine CPU-relevante Auflösungen genommen, sondern bestimmt nur irgendwelche unnütze RL-Tests gefahren.

Die sind aber bisher nicht so zockerbezogen. Sie haben die Leistung die Leistung wohl von GFX entkoppelt genommen. Da steht (gleiche Hardware) beim z.B. 7-zip Bench, am 3300X eine 32, beim 3770k eine 25. Den Vorteil von DDR4 abgezogen und man hat reine 8 Jahre CPU-Entwicklung auf der Hand.

Herzlich Willkommen.

Apple möchte gerne den Gewinn maximieren und dem Kunden gerade noch was erträgliches vor die Nase setzen, hoffnungslos überteuert für die Leistung aber der Kunde darf es nicht merken.
DAS ist der einzige Grund für den ARM Umstieg bei MAC-OS. Die CPUs sind jetzt schnell genug, um einen Desktop anzeigen zu können.
 
Wobei ich mal gespannt bin, was sich neben der FPU so bei AVX2 mit 256 und 512 Bit tut.

Ich hab vor ein paar Tagen selbst einen kleinen Int-Singlethread Bench geschrieben. Ist ganz interessant, der i3-4030Y im Tablet hat einen Score von ~1000, beim R9 3900X sind es bis zu exakt 8000. :devil:
(Score linear indirekt proportional zur Berechnungszeit)
Wer selbst mal einen Bench machen will, hier ist ein etwas älterer Stand vom Projekt mit Exe und Quellcode als 7z-Archiv: File-Upload.net - LoopPerformance.7z
 
Zuletzt bearbeitet:
Wobei ich mal gespannt bin, was sich neben der FPU so bei AVX2 mit 256 und 512 Bit tut.

Wenn die Milan-Leaks bspw. auf SPEC2017-Durchläufen beruhen, ist da AVX(2) in Teilen schon mit enthalten.
Bei 512 Bit wird sich mit sehr hoher Wahrscheinlichkeit gar nichts tun bzgl. Zen3. ;-)
Ergäneznd dazu: Für den Frontier sollen als "semi-custom" bezeichnete Zen3-CPUs verwendet werden, die über HPC/AI-Erweiterungen verfügen, was sich sehr nach einer Implementation von AVX-512 anhört. Zen4 ist für den Frontier offensichtlich zu spät dran, sodass man darauf wohl anscheinend nicht warten kann. Zumindest in Verbindung mit APUs geistert für 2022 auch ein Zen3+ durch den Äther. Ob der eine massentaugliche Vermarktung dieser semi-custom-IP darstellt, kann man jedoch nur spekulieren.
 
Für mich persönlich ist eigentlich nicht stock vs stock interessant, denn stock läuft bei mir nie was, sondern wie es optimiert vs optimiert ausschauen wird.
Bin dahingehend echt gespannt und vermute, dass sich die teile am Ende nicht viel nehmen werden in Games, dennoch alles in allem AMD natürlich klar besser sein wird.
Ob sich Zen3 lohnt wenn man im Hinterkopf Zen4 mit DDR5 RAM Support etc pp hat, wage ich zu bezweifeln, für Leute die ihre System neu erstellen ja, aber für Leute die aufrüsten wollen wahrscheinlich nicht, es sei denn die rüsten von einem Phenom oder 2500k oder dergleichen auf^^
 
8 Jahre CPU-Entwicklung anhand von 4C/8T.
Wenn man sich die speedups anschaut könnte man meinen, das ist ein DDR3 vs. DDR4 Vergleich. Und da läuft wegen "stock" bestimmt nur ein 1600er RAM beim 3770k...

Ganz genau so müssen CPU Tests aussehen.
Hohe Auflösung, realistische Bedingungen, ansonsten testet man den Durchsatz des Mainboards anstatt die CPU.
Je niedriger die Auflösung desto niedriger wird die CPU Last, je höher die Auflösung, desto mehr Details werden dargestellt.
CPUs in niedrigen Auflösungen zu testen ist absolut falsch!

Einen wissenschaftlichen Anspruch können diese Messungen nie haben, da sind mir Youtube Messungen lieber als Messungen in 720p, selbst wenn keine Systemangaben mit dabei sind.
Was bringen solche Prozessoren real? Testet einfach keiner.
 
Zuletzt bearbeitet:
Ganz genau so müssen CPU Tests aussehen.
Hohe Auflösung, realistische Bedingungen, ansonsten testet man den Durchsatz des Mainboards anstatt die CPU.
Je niedriger die Auflösung desto niedriger wird die CPU Last, je höher die Auflösung, desto mehr Details werden dargestellt.
CPUs in niedrigen Auflösungen zu testen ist absolut falsch!

Einen wissenschaftlichen Anspruch können diese Messungen nie haben, da sind mir Youtube Messungen lieber als Messungen in 720p, selbst wenn keine Systemangaben mit dabei sind.
Was bringen solche Prozessoren real? Testet einfach keiner.

Und die Diskussion geht wieder von vorne los :D
 
Ist das Ironie, oder versteht der wirklich nichts?

Bei Corona hat er ja nach 1000 mal den selben Erklärungen auch immer noch nichts verstanden.
 
Ganz genau so müssen CPU Tests aussehen.
Hohe Auflösung, realistische Bedingungen, ansonsten testet man den Durchsatz des Mainboards anstatt die CPU.
Je niedriger die Auflösung desto niedriger wird die CPU Last, je höher die Auflösung, desto mehr Details werden dargestellt.
CPUs in niedrigen Auflösungen zu testen ist absolut falsch!

Einen wissenschaftlichen Anspruch können diese Messungen nie haben, da sind mir Youtube Messungen lieber als Messungen in 720p, selbst wenn keine Systemangaben mit dabei sind.
Was bringen solche Prozessoren real? Testet einfach keiner.

Ja, gute Nacht.

Ich frage mich gerade, ob einige Reviewer wirklich so denken. Das würde einiges erklären.
 
Ganz genau so müssen CPU Tests aussehen.
Hohe Auflösung, realistische Bedingungen, ansonsten testet man den Durchsatz des Mainboards anstatt die CPU.
Je niedriger die Auflösung desto niedriger wird die CPU Last, je höher die Auflösung, desto mehr Details werden dargestellt.
CPUs in niedrigen Auflösungen zu testen ist absolut falsch!

Einen wissenschaftlichen Anspruch können diese Messungen nie haben, da sind mir Youtube Messungen lieber als Messungen in 720p, selbst wenn keine Systemangaben mit dabei sind.
Was bringen solche Prozessoren real? Testet einfach keiner.

sagt mir bitte, dass er trollt... es kann doch inzwischen wirlich keinen geben (zumindest im PCGH Forum) der das wirklich ernst meint :ugly::ugly::ugly::hmm:
 
Und ja - so gut wie keiner Spielt mit 720p und das ist auch der Sinn dahinter - damit erfasst man fast die CPU leisten KANN wenn sie nicht durch die GPU limitert wird.

Dann testest du den Durchsatz des Mainboards also I/O, die API, den Grafiktreiber, aber mit Sicherheit nicht die CPU.
Für CPU Tests nimmt man Anwendungen, wie Cinebench und Co, Spiele testet man in den Auflösungen, in denen sie gespielt werden.

Dann muss man nur noch nachschauen was die GPU leisten KANN wenn die CPU nicht limitiert und schon weiß man was man von jeder beliebigen Combi erwarten kann (Hinweis für die ganz Denkunfähigen: es ist das schlechtere Ergebnis der beiden - die kleinere Zahl).

Dieses Argument kann man alleine mit den Bulldozer CPU´s entkräften. Diese haben gezeigt, dass 720p Ergebnisse nicht die Zukunft vorhersagen können. Dazu kommt, dass Prozessorlast, je niedriger die Auflösung ist, immer weiter absinkt.

Das kann jeder für sich testen.
Bedingung ist natürlich ein gleichzeitiges Heruntertakten des Grafikprozessors, ansonsten limitiert wieder I/O von Board/Plattform und der Grafiktreiber.

Ich frage mich gerade, ob einige Reviewer wirklich so denken. Das würde einiges erklären.

Bist du nicht der Entwickler von CapeFrameX?
Ich habe die letzten Tage und Wochen mit deinem Tool gemessen und habe nur in hohen Auflösungen realistische Ergebnisse erzielt.

Die Prozessorlast steigt mit höheren Auflösungen massiv, gerade in Anno 1800.
 
Bist du nicht der Entwickler von CapeFrameX?
Ich habe die letzten Tage und Wochen mit deinem Tool gemessen und habe nur in hohen Auflösungen realistische Ergebnisse erzielt.

Die Prozessorlast steigt mit höheren Auflösungen massiv, gerade in Anno 1800.

Ich bin einer der Entwickler, ja. Ich weiß zwar nicht, was genau du getestet hast, aber Anno 1800 hat die Eigenart, dass die FPS nach dem Ladevorgang ohne jede Interaktion innerhalb von 2-3 Minuten stark abfallen.

Halbwegs moderne CPUs mit einer hinreichenden Anzahl an PCIe Lanes juckt der I/O-Durchsatz nicht die Bohne.
 
Zuletzt bearbeitet von einem Moderator:
Zurück