Stray im Technik-Test: Liebenswert fluffiges Cyber-Catventure mit Unreal Engine

Hehe, du hast die Herausforderung angenommen - that's the spirit (das wird aber hart)! Ich wollte eigentlich auch den 12900WTF aus dem GPU-Rig über die Dächer scheuchen, aber leider wachsen die Aufgaben gerade schneller nach.

Saves kommen nachher! Wir haben die Übertragbarkeit nicht geprüft, aber die ist sehr wahrscheinlich. Ansonsten kommt man mit Durchrennerei in ca. 30 Minuten zur CPU-Stelle. Für die GPUs braucht's etwas mehr Zeit.


Danke für die Screenshots - ich hielt das ja bis eben für ein Gerücht, dass dann tatsächlich ray-traced wird (Leistungseinbruch hin oder her). :daumen:

Auf deinem Bild sind tatsächlich umfassende RT-Effekte zu sehen, nicht bloß Spiegelungen, die das Bild signifikant verbessern. Dass das sehr teuer ist, kann man bei anderen Spielen mit Vollbild-UE4-RT sehen, zuletzt bei Loopmancer, das ich mir gerade ansehe. Ohne Upscaling ist da wenig zu holen. Eventuell warten die Stray-Entwickler nur darauf, dass sie das fertig implementiert kriegen und schalten Raytracing dann als offizielle Option live. Dann spiele ich's (nochmal) durch. :D

MfG
Raff
Screenshot_20220726-142422.jpg

Screenshot_20220726-142320.jpg


Ja die Auswirkungen auf die Optik sind enorm und sehen so aus, als wäre das auch die originale Vision der Entwickler gewesen, die dann aber durch hohe Kosten und Aufwand nicht mehr ins Produkt finden konnte. Artstyle, Pfützen und Abschnitte sehen teilweise aus wie RT rech Demos. Die sehr schönen Katzenanimation werden im aktuellen Stand aber nicht von RT reflektiert, was ein Zeichen für existente, enorme, evtl. nicht überwindbare Probleme sein kann.
 
Du hast mich jetzt so weit, ich schaue mir das nachher mal an - im Stadtzentrum, wo eigentlich alles leuchtet und reflektiert. :-) Du hast einfach nur -dx12 an die Verknüpfung gepackt, oder?

MfG
Raff
 
Yep, erwartetes Verhalten ohne Upscaling. Abseits von GA102 wird's eklig. Mit RDNA 2 vermutlich unspielbar.

MfG
Raff
 
Ja stürzt in der Szene von 141 auf 27 fps Mit 3090 ab in 5120x1440.

QaZT6h4~01.jpg

Eav3SgE~01.jpg


Einfach nur bei den steam bei den start parametern -dx12 anhängen oder beim ziel der Desktop verknüpfung.
 
So, GPU Szene auch erreicht.

6900XT OC:

1440p
1658848703669.png

1658848759625.png

Da geht also schon noch ein wenig mit OC.

Werde das ganze nun mal mit RT testen, bin gespannt und reiche die Werte nach.

1658849486445.png

Ich glaube langsam den Grund gefunden zu haben, wieso man RT nicht nutzt.
Das "Lila Licht" in der GPU Szene wird mit RT ON nicht dargestellt auf dem Boden.
Siehe Screenshots

Wird dann wahrscheinlich aus Gameplay technischen Gründen deaktiviert worden zu sein.

1658849613494.png

1658849728366.png

Savegame -> Kapitel für die GPU = letztes aktives


Nachtrag:

CPU Bench
Intel 12900K @5.2GHz | RAM @ 6800MT/s (mit Hintergrundanwendungen offen aka Youtube und Discord etc)

1658864666054.png
 

Anhänge

  • Savegame GPU.zip
    223,6 KB · Aufrufe: 10
Zuletzt bearbeitet:
RT Full ohne Upscaler..

Wir sprechen uns dann in 10 Jahren noch mal, wenn man dann 80 FPS erreicht (vielleicht) in WQHD...
Der Mehrwert an Optik ist den Verbrauch und die Preise nicht wert, mMn.

(Gegen einen sehr sehr guten Upscaler hätte ich natürlich auch nichts)
 
Zuletzt bearbeitet:
Ja stürzt in der Szene von 141 auf 27 fps Mit 3090 ab in 5120x1440.
Das ist halt null optimiert, deswegen haben die Devs es auch noch nicht freigeschaltet.

--------------------------------------------------------------------------------------------------------------

Zusammenfassung der Ergebnisse von @Darkearth27 und anderen (12900K).

5800X3D stock: 204 FPS
5800X3D OC: 220 FPS (8% Steigerung)

12900K stock: 160 FPS
12900K OC: 230 FPS (44% Steigerung)

Kopf-an-Kopf-Rennen am Ende, wobei die Alder Lake CPU mit OC massiv zulegt.
 
Zuletzt bearbeitet von einem Moderator:
@PCGH_Dave
Habt ihr intern schon mal (bzw erneut) darüber diskutiert wie zeitgemäß Tests nach "Spec" (was eh nicht ganz zutrifft) noch sind?
Bei einer Sonntagsumfrage von ComputerBase kam raus, dass zumindest deren Leserschaft zu 93% den RAM übertaktet.
Da frage ich mich, wen will man mit Spec Tests erreichen?

Auch wird die Diskussion mit Zen4 sicherlich erneut aufflammen, falls die Gerüchte zutreffen, und Zen4 "nur" 5200MHz bietet, während Raptor mit 5600MHz kommen soll.

Dann heißts wieder hätte wäre könnte unfair...

Danke & VG
 
Wir, also @PCGH_Raff und ich, diskutieren tatsächlich relativ oft darüber. Doch wir kommen immer zum selben Schluss: Natürlich können wir beispielsweise alle DDR5-Prozessoren fest mit DDR5-5600 und alle DDR4-Prozessoren fix mit DDR4-3600 testen. Allerdings kommt dann der nächste und sagt „Warum testet ihr Intel-CPUs nicht mit DDR4-4000, die packen das doch locker?“ und wieder einer sagt, dass seine AMD-CPU mit DDR5-6000 rennt und dass wir das doch bitte auch so testen sollen. Verstehst du, worauf ich hinaus will? Wir können es nicht allen recht machen, egal, wie oft wir uns im Kreis drehen.

Da fahren wir lieber eine klare Linie und schaffen damit beständige Vergleichbarkeit, über alle Tests und Generationen hinweg. Doch nach wie vor behandeln wir Dinge wie Übertaktung, RAM-Skalierung und Ähnliches in separaten Artikeln – Specials, Videos und Eindrücke, die jeden CPU-Launch begleiten.
 
@PCGH_Dave Wenn ich Benchmarks von euch auf Twitter poste, dann gibt's immer kräftig Gemeckere wegen der niedrigen Speichergeschwindigkeiten. Das wird immer schlimmer. Es geht manchmal gar nicht mehr um das Thema selbst. Genau so wie mit den 720p Tests. Ich glaube, ich gehe auf 1080p mit der RTX 4090. Es wird nur noch gemeckert. Man wird gar nicht mehr ernst genommen von den Leuten. Youtuber mit 1080p Tests gelten als die "reliable Sources" da draußen. Die Zeiten ändern sich.
 
Nicht die Zeiten ändern sich, sondern die Aufmerksamkeitsspanne der Zuschauer/Leser. Ich meine das nicht böse, doch wer sich zwei Minuten hinsetzt und kurz darüber nachdenkt, erkennt schnell, warum CPU-Tests in geringer Auflösung sinnvoll sind. Mark, du kannst das natürlich testen, wie du möchtest und verschiedene Sichtweisen verhelfen zu einer besseren Gesamtbewertung des Produkts. Doch lass dich bitte nicht davon aufhalten, wenn die Leute sagen „ich finde das doof“, denn es wird mindestens genauso viele Leute geben, die sagen „ich finde das gut“. ;)

Die anderen können sich dann gerne mit Schönwetter-Benchmarks berieseln lassen, wie Raff so schön sagt. Doch diese Käuferschicht wundert sich am Ende dann halt, wenn das soeben erfolgte Upgrade nicht den gewünschten Effekt gebracht hat. Selbst Schuld, sage ich da nur :ka:
 
@PCGH_Dave Das sagt du so "einfach". Es sind auch Entwickler und Profis dabei mittlerweile, die Low Res Tests verteufeln, siehe er hier (Entwickler bei Google).

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet von einem Moderator:
Ich kenne den Mann nicht, aber selbst wenn er Stephen Hawkings Verstand hätte, würde ich ihm nicht zustimmen. Natürlich ist das "detached", weil man ja sonst das GPU-Bottleneck testet. Das möchte man bei einem CPU-Test aber nicht, plain and simple. Einfach nochmal das hier lesen, verstehen und für immer glücklich sein: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar :-)

(Allerdings sind wir gespannt darauf, was mit Nanite passieren wird.)

[x] Nieder mit der Auflösungsangabe (und -frage) bei CPU-Tests!

MfG
Raff
 
Übersetz das mal auf Englisch bitte Raff.

@PCGH_Raff @PCGH_Dave @PCGH_Phil
Eine Sache allerdings könnte CPU Benchmarks revolutionieren quasi. Intel arbeitet an einer neuen PresentMon Version, die in der Lage ist, die CPU Renderzeiten (Pipeline) zu tracken. Damit wäre man dann völlig unabhängig von der Auflösung. Ich weiß nicht, ob das für jede API und jeden Hersteller funktioniert, aber falls doch, wäre das BIG.

1658912331425.png
 
Zuletzt bearbeitet von einem Moderator:
Bitte. Teilen dann bitte mit Quellen-Angabe.

The discussion about the right resolution for processor tests is as old as benchmarks themselves. The desire to be as "practical" as possible often obscures the actual purpose of a processor test: to test the processor. The reason for this is a fundamentally wrong approach to the topic and thinking in resolutions. A comment by Raffael Vötter.

No matter which game or processor is tested, there are always voices that get hung up on the test resolution. This discussion only arises because we tend to think "wrong". Wrong in the sense of what goes on inside our computers and how it works. Since PC Games Hardware is currently renovating the CPU benchmark course, I'd like to drop a few words and thoughts on the subject. Certainly this won't end the Neverending Story, but it will certainly inspire one or the other to rethink.

1,280 × 720: Why this resolution?
There are good reasons for the 1,280 × 720 pixels. In most games, it is the lowest possible adjustable resolution in the 16:9 aspect ratio. The latter is by an overwhelming margin the most common column-to-row ratio in computer and console games. The aspect ratio determines the visible section in games, so it is by no means irrelevant. One could also reactivate a classic from the 90s and measure in 640 × 480 instead. However, this would result in a 4:3 aspect ratio and thus a reduced peripheral field of view. Since the edges play a more important role in our perception and current image sizes, we will stick with 16:9 and thus the same cropping as with 1,920 × 1,080, 2,560 × 1,440, 3,840 × 2,160 and many other popular resolutions.

If the latter resolutions are so popular and practical, why do we test processors so vehemently in 1,280 × 720? Because it's the only way to put the load on what should be tested: the CPU (as well as the attached infrastructure around RAM). Yes, we actually follow the insane idea of testing only the processor in a processor test and not the graphics card. At this point, please let's all take a short break and think about what has been said. Does this make sense? You're nodding, I'm sure. So let's continue with the text.

A CPU test is supposed to reveal how strong the CPU is. Makes sense, doesn't it? Let's run Cinebench or Handbrake, let's use it to test CPU performance. No one complains, everyone is happy about the numbers and bars gained with it. But nobody asks about the resolution. Have you noticed that? That's because of the expectations: application benchmarks are those weird, rather ugly applications where you don't move interactively in space. What do we care about resolution there? This is exactly the mindset that should become the standard when we talk about processor tests. Even for games!

To understand the problem and put it out of your mind, you just have to take a quick look under the hood of your PC and understand how it works. Don't worry, it's not going to be technical, but highly simplified - if you want to be more precise, you can help yourself to the rich literature on the subject, both on and offline. For us, this insight is important: The processor commands the graphics card, without instructions (drawcalls) the pixel specialist twiddles his thumbs. And now comes the clou, which seems to always fall under the table in this pixelated discussion: From the point of view of a main processor, there are no pixels. Pixels are the job of the graphics card, and only the graphics card. It takes care of squeezing all the data into a fixed pixel grid at the end and displaying it on the screen. This is called rasterization.

Gaming benchmarks without resolution
What does that mean exactly? Quite simply, in an ideal world, graphics cards would be infinitely fast at rasterizing, so resolution could also be infinite and we wouldn't have to worry about performance. In our imperfect world, however, each pixel to be drawn costs computing time. This computing time passes solely because of or in the GPU. While the graphics card struggles with the pixels, the processor is already preparing the next instructions and packs them into a strictly limited queue. The consequences of this interaction are clear: If the graphics card takes too long (-> GPU limit), the processor twiddles its thumbs. This would have fatal consequences in a processor test, because suddenly you are no longer testing the throughput of the processor, but that of the installed graphics card. CPU tests in the CPU limit are therefore the only logical and sensible thing to do.

Since we can't prevent games from generating a pixel grid for display on the screen at the end of all calculations, we have to make sure that the generation of the pixel grid, with which the processor has nothing on the heatspreader, doesn't slow down the action. We ensure this by using the lowest common denominator of 1,280 × 720, which is a cuddly 921,600 pixels in a 16:9 aspect ratio. To be on the safe side, the fastest possible graphics card is still used.

The penny still hasn't dropped? Maybe after another numbers game. If we were to test processors in the WQHD resolution, the graphics card would be confronted with 3,686,400 pixels - a factor of 4 compared to 1,280 × 720. Consequently, we would have to use a four times faster graphics card to achieve the same time during rasterizing and thus not slow down the CPU. Not to mention Ultra HD. Thus, we would need a graphics card that is 4× as fast as a Titan RTX or Geforce RTX 2080 Ti OC at this point. Since we haven't received any promises for test samples from time machines so far (only on April 1 something like that happens from time to time), this idea falls away.

Conclusion: 720p, reduced internally if necessary.
Long story short: We stick to 1,280 × 720 pixels for the game tests for good reasons. We even reserve the right to reduce this resolution further with the help of internal scaling controls if we see a partial graphics limit on modern super processors. In return, we leave all other effects active. This is because all effects generate drawcalls, which first the processor and then the graphics card have to take care of. A lot of effort to only test what we want to test. So that you can find out how fast a processor really is in our processor tests. And then there are the graphics card tests, where what has been said applies just as much - with the difference that it is only about pixels here and not the CPU performance underneath.
 
Zurück