Special CPU-Benchmarks in UHD: Welche Rolle spielt der Prozessor in höheren Auflösungen?

Locker, die X86 CPUs von heute haben allein schon durch die Kern anzahl einen deratigen Faktor erreicht.
Warum vergleichst Du eine 2700K mit der 14900k?

Wenn dann musst Du 4960X (also 6 Kern) mit der 14900k vergleichen.

Oder meinetwegen eine 3700k (4 Kerne) gegen eine 13800k.

Und gerade da ist es andersrum: In Benchmarks hast Du eine überdimensionale Leistungssteigerung, da die Anzahl der Kerne linear in die Leistung geht. Bei Spielen kommt kaum etwas davon an.

Bei GPUs hast Du dank RT und KI-Upscaling genau den anderen Effekt: Die Leistungssteigerung ist de fakto überdimensional wenn man die Zahl der Kerne in Relation stellt.
Klar wird der fortschritt langsamer, aber ein ende ist noch nicht in sicht.
Die 4090 hat auf die 3090 knapp 70% RT leistung draufgelegt und das in ca 2 Jahren.
Weil RT noch Potential hat.

Beim Brute-Force Rendering sind die Leistungssteigerungen meist < 30%. Seit Jahren.
 
Warum vergleichst Du eine 2700K mit der 14900k?

Wenn dann musst Du 4960X (also 6 Kern) mit der 14900k vergleichen.

Oder meinetwegen eine 3700k (4 Kerne) gegen eine 13800k.
Weil beide das high end in der Consumer Platform waren.
der 4960x ist ein Pro Prozessor und müsste demnach mit dem Saphire Rapid verglichen werden.
ein 3700k kann mann dann auch vs einem 13700k oder 14700k vergleichen, ist halt eine Gen Später.

Wären im fall vom 3700k zum 14700k
hat laut seiten die ich auf die schnelle gefunden habe 680 punkte zu 5300.

Ich vermute also meine 800 Punkte für den 2700k waren schon OCed oder sowas.

Aber selbst wenn wir die 5% drauf rechnen oder gar 10%
also 880 zu 5300
Sind wir immer noch bei einem Faktor von 6.0.
.

Technik entwickelt sich und damit auch die Anwendungen und die Leistung in diesen. RT war damals in Echtzeit nicht denkbar und ist es heute auch nur mit Simplenen Ansäzen bzw. Optimierung.

zum Raster:
Das sind mal geschmeidige 63%
1733307209732.png
 
Du weißt sicher, dass das ein Strohmann-Argument ist.
Nein, das ist kein Strohmann. Aber egal.
Wie die Chips ausgelegt werden ist nicht Gott-gegeben sondern wird vom Hersteller gezielt ausgesucht, um eine bestimmte Performance bei angepeilten Kosten (Waver, Ausbeute, Board...) zu erreichen.
Richtig, aber es war das erste mal das Nvidia die Performance Chips als High End verkauft hat. natürlich nur, weil man es machen konnte, weil AMD damals nicht hinterher kam.

Das ist schon rational nachvollziehbar warum das viele nicht begrüßen. Natürlich hast du aber auch Recht, das letztendlich nur entscheidet was du real am Markt kaufen kannst.
Wie der Chip am Ende heißt und ob oder wie er beschnitten ist, ist dabei völlig egal.
Das meine ich.
In beiden Fällen gab es noch ein Halo Modell. Die GTX 690 2012 und die 4090 in 2024
Die GTX680 war der Halo, denn die GTX690 war eine Dual Karte, die es in der Form einfach nicht mehr gibt.
Genau genommen wäre die Halo Version der GTX600, aber die 780TI.
Und da hat die Performance weit aus mehr zugelegt, dank Upscaling und RTX Einheiten.
Was man auch schreibt, man kann es keinem Recht machen. Mal ist Upscaling Teufelszeug, oder Gotteslesterung und beim nächsten der heilige Gral der Leistungssteigerung.
Was absolut bemerkenswert ist. Welche andere Technik hat bitte in 13 Jahren einen Faktor von 6 hingelegt?
Da findet sich etwas, aber ist mir jetzt zu blöd. Denn eigentlich wird auch dir der eigentliche Punkt klar gewesen sein.
Batterien/Akkus? Nein. PV-Zellen? Nein.
CISC CPUs wie x86? Nicht im Ansatz.

Die Weiterentwicklung bei den GPUs flacht immer weiter ab, was auch zu erwarten war. Das Gesetz des abnehmenden Grenzertrags.
Wir werden sehen, wie es weiter geht.
Wenn ein Bergsteiger mit zunehmender Höhe merkt, dass die Luft immer dünner wird und jeder weitere Höhenmeter teurer wird (Kraft und Ausdauer), über wen schimpft er dann? Über den Berg? Seinen Körper? Seine Ausrüstung?
Laber jetzt keinen saftigen Stuss und schon gar nicht so.
Nein, er sieht es als Tatsache und als Herausforderung.
Ja und...
Warum vergleichst Du eine 2700K mit der 14900k?

Wenn dann musst Du 4960X (also 6 Kern) mit der 14900k vergleichen.
Warum?
Oder meinetwegen eine 3700k (4 Kerne) gegen eine 13800k.
Welchen 13800k?
Und gerade da ist es andersrum: In Benchmarks hast Du eine überdimensionale Leistungssteigerung, da die Anzahl der Kerne linear in die Leistung geht. Bei Spielen kommt kaum etwas davon an.

Bei GPUs hast Du dank RT und KI-Upscaling genau den anderen Effekt: Die Leistungssteigerung ist de fakto überdimensional wenn man die Zahl der Kerne in Relation stellt.

Weil RT noch Potential hat.
Ja und genau hier werden wir noch "länger" größeres Potential haben. Das reicht doch ;)
Beim Brute-Force Rendering sind die Leistungssteigerungen meist < 30%. Seit Jahren.
Ja, wenn man immer weiter kleinere Chips die Karten verwendet.
 
Nein, das ist kein Strohmann. Aber egal.
Doch. Es ist ein Argument das am Thema vorbeigeht und von der eigentlichen Diskussion ablenken soll.

Die GTX680 war der Halo, denn die GTX690 war eine Dual Karte, die es in der Form einfach nicht mehr gibt.
Genau genommen wäre die Halo Version der GTX600, aber die 780TI.
SLI gibt es nicht mehr. Wenn man nur den Markt zum jeweiligen Zeitpunkt ansieht, war die 690 das überteuerte Halo Produkt, genau wie die 4090 heute. Du schaust schon wieder zu sehr, wie das Halo Produkt technisch realisiert wird, aber das ist mir hier egal. Mir geht es darum, was es auf dem Markt real gibt.

Was man auch schreibt, man kann es keinem Recht machen. Mal ist Upscaling Teufelszeug, oder Gotteslesterung und beim nächsten der heilige Gral der Leistungssteigerung.
Ich fand es nie Teufelszeug. Ich war schon sehr lange der Meinung, dass man von der Denke nur gerastert erzeuge Grafik wäre das einzig wahre, wegkommen muss.

Wie man die beste Annäherung an realistische Grafik erreicht, ist wieder nur ein technisches Detail. Und die Praxis zeigt, dass KI Upscaling in vielen Fällen bessere Ergebnisse liefert als hochauflösende Rasterisierung. Ich denke, Du bist da nicht anderer Meinung.

Nur weil es ein paar Betonköpfe gibt, die der Meinung sind, Upscaling wäre ein Cheat und irgendwie schlechter, macht es das Argument als solches, dass auch Fortschritte in der Render-Technologie, wie eben RT und Upscaling durchaus zur Leistungssteigerung der Generationen mit hinzugezählt werden muss, deswegen nicht falsch.

Da findet sich etwas, aber ist mir jetzt zu blöd. Denn eigentlich wird auch dir der eigentliche Punkt klar gewesen sein.
Nö.

Ich sehe eine enorme Erwartungshaltung an die Industrie, um nicht zu sagen "Entitlement", die enttäuscht wird. Und viele machen daraus "man zieht uns über den Tisch mit immer höheren Preisen bei immer geringeren Leistungssteigerungen".

Dass man dabei die Physik außer Acht lässt... egal. Hauptsache laut beschwert.
Laber jetzt keinen saftigen Stuss und schon gar nicht so.
Entschuldige, aber das ist absolut kein Stuss sondern ein sehr guter Vergleich für einen abnehmenden Grenzertrag. Je höher man kommt, desto schwerer wird jede weitere Verbesserung.

Das ist einfach eine Tatsache.
 
Doch. Es ist ein Argument das am Thema vorbeigeht und von der eigentlichen Diskussion ablenken soll.
Lassen wir das. Das wird ins nichts verlaufen.
SLI gibt es nicht mehr. Wenn man nur den Markt zum jeweiligen Zeitpunkt ansieht, war die 690 das überteuerte Halo Produkt, genau wie die 4090 heute. Du schaust schon wieder zu sehr, wie das Halo Produkt technisch realisiert wird, aber das ist mir hier egal. Mir geht es darum, was es auf dem Markt real gibt.
Sehe ich etwas anders, aber gut..
Ich fand es nie Teufelszeug. Ich war schon sehr lange der Meinung, dass man von der Denke nur gerastert erzeuge Grafik wäre das einzig wahre, wegkommen muss.
Hier denken wir sowieso gleich.
Wie man die beste Annäherung an realistische Grafik erreicht, ist wieder nur ein technisches Detail. Und die Praxis zeigt, dass KI Upscaling in vielen Fällen bessere Ergebnisse liefert als hochauflösende Rasterisierung. Ich denke, Du bist da nicht anderer Meinung.
Das wussten wir aber vorher schon ;)
Nur weil es ein paar Betonköpfe gibt, die der Meinung sind, Upscaling wäre ein Cheat und irgendwie schlechter, macht es das Argument als solches, dass auch Fortschritte in der Render-Technologie, wie eben RT und Upscaling durchaus zur Leistungssteigerung der Generationen mit hinzugezählt werden muss, deswegen nicht falsch.
Wenn Upscaling Ergbenisse liefert, die mit der "nativen" Auflösung konkurrieren können, was mit DLSS3.X+ für mich erfüllt ist, aber mit FSR als Beispiel nicht. Da ich dort zu oft Probleme mit verschwimmenden Hintergrund, oder sonstigen Problemen habe. Umgangssprachlich zu unruhig.
Ich sehe eine enorme Erwartungshaltung an die Industrie, um nicht zu sagen "Entitlement", die enttäuscht wird. Und viele machen daraus "man zieht uns über den Tisch mit immer höheren Preisen bei immer geringeren Leistungssteigerungen".
Das habe ich nicht vor, auch wenn ich mich gut an die GTX680 erinnere und das dies nur der Performance Chip war.
Dass man dabei die Physik außer Acht lässt... egal. Hauptsache laut beschwert.
Die gibt es hier auch, aber das sind doch sehr wenige.
Entschuldige, aber das ist absolut kein Stuss sondern ein sehr guter Vergleich für einen abnehmenden Grenzertrag. Je höher man kommt, desto schwerer wird jede weitere Verbesserung.
Vor dem Hintergrund ala GTX600 passt das nicht. Bezogen auf die Schwierigkeiten die Fertigung weiter zu verbessern schon.
Das ist einfach eine Tatsache.
Dem einen eine Tatsache, dem anderen nicht.

Ich denke eigentlich denken wir sehr gleich.
 
Ich konnte nicht widerstehen und habe doch (laienhaft) den 13700K (E-Cores ausgeschaltet) mit dem 9800X3D verglichen, immer maximale Details (inklusive Raytracing/Pathracing, falls vorhanden), und DLSS Quality bzw Balanced in Cyberpunk, UWQHD. Kein OC, DDR5 6400 MHz und RTX 4090.

GTA 5: ich hätte es nicht erwartet, aber der 9800X3D ist mit maximalen Einstellungen deutlich schneller unterwegs, der i7 hatte immer wieder Drops in den 140er Bereich, beim Fliegen sogar auf 120, der 9800X3D hingegen hat fast die ganze Zeit 160 FPS gehalten (Limit bei 160, da die Engine spinnt bei zu viel FPS).

RDR1: Downsamplig 5120*2160, aber mit DLSS Quality, der 13700K droppt teilweise auf unter 100 FPS in Armadillo und Thieves Landing, der 9800X3D schafft leider keine konstanten 144 FPS (Engine Limit), fällt aber nur auf etwa 120 FPS.

Cyberpunk: kaum Unterschiede, im Benchmark ist der 9800X3D bei den Avg FPS sogar leicht drunter (13700K 88 FPS, 9800X3D 84 FPS). Hat Cyberpunk eine Faible für Intel CPUs?

Spiderman: der 9800X3D ist minimal schneller, etwa 5-10 FPS je nach Szene, hätte gerade hier größere Unterschiede erwartet. Aber dabei natürlich weniger unter Last, der 13700K war bei weniger FPS zu etwa 10-15% mehr ausgelastet und dabei deutlich wärmer.

Eventuell teste ich später noch Hogwarts Legacy, dann ergänze ich noch was.
 
Ich konnte nicht widerstehen und habe doch (laienhaft) den 13700K (E-Cores ausgeschaltet) mit dem 9800X3D verglichen

Nice. HT / SMT on oder off?

Hat Cyberpunk eine Faible für Intel CPUs?

Eventuell liegt der leichte Unterschied am leicht höheren Takt des Intels und/oder der 3D-Cache spielt da nicht so krass rein. Dazu kommen Messungenauigkeiten. Der ursprüngliche "Intel-Bias" beim Hyperthreading gegenüber AMD wurde ja eigentlich gefixt.

Wie hast du gemessen?
Eine reproduzierbare Benchmarkszene ist da ja schon recht wichtig.
 
Nice. HT / SMT on oder off?
Bei beiden CPUs eingeschaltet.

Ich habe einmal den integrierten Benchmark gewählt (da kamen die 4 FPS Unterschied zustande) und einmal eine eigene Benchmarkszene wo ich in der Spielwelt rumgefahren bin mit festen Wegpunkt und gemessen mit Afterburner, da waren die Average FPS minimal geringer als beim 13700K, aber mehr oder weniger innerhalb der Messtoleranz. Ich hätte trotzdem gedacht dass der 9800X3D dem 13700K wegläuft mit DLSS Balanced ;)
 
So CPU 9800 X3D ist mit einem Asrock X870 Taichi Lite Mainboard und 6.800 Mhz DDR5 RAM (64 GB) bestellt. Soll noch dieses Jahr kommen, ich bin gespannt und werde meine 4090 mit 5900X bis dahin durch meine Spiele jagen, um Vergleichswerte zu haben:
Division 2, Diablo4, Anno 1800, POE2, Indiana Jones, Satisfactory und No Mans Sky. Das ganze bei 5.120 x 1.440.
Teurer Artikel für mich ;)
 
So CPU 9800 X3D ist mit einem Asrock X870 Taichi Lite Mainboard und 6.800 Mhz DDR5 RAM (64 GB) bestellt. Soll noch dieses Jahr kommen, ich bin gespannt und werde meine 4090 mit 5900X bis dahin durch meine Spiele jagen, um Vergleichswerte zu haben:
Division 2, Diablo4, Anno 1800, POE2, Indiana Jones, Satisfactory und No Mans Sky. Das ganze bei 5.120 x 1.440.
Teurer Artikel für mich ;)

Also cool, dass du dir die Mühe machen möchtest. Aber was genau erwartest du? Das neue System wird im Schnitt mehr P1 FPS bringen.
 
Zurück