Special Kingdom Come: Deliverance im Nachtest - 60 Fps sind immer noch ein hehres Ziel (+ Mods)

btw.
GameGPU hat beim aktuellen Nachtest wohl auch ne interessante Szene mit CPU-Limit beim GPU-Test erwischt:
(mit dem weit verbreiteten R 7600x "interpoliert")

Die minFps bei Green sind kaputter.(zumindestens mit der preiswerten AMD-CPU)

edit: z.Vgl. mit schnellem/teurem Intel 14700k besser (sowohl NV als auch AMD-Grakas profitieren dann)
war mir gar nicht bewusst, das die Cryengine hier auf Intel optimiert ist (bräuchte man mal nen 9600k/9700k OCed)
 

Anhänge

  • KCD@4k..JPG
    KCD@4k..JPG
    94,5 KB · Aufrufe: 27
  • KCD@14700k.JPG
    KCD@14700k.JPG
    89,8 KB · Aufrufe: 27
Zuletzt bearbeitet:
GameGPU hat beim aktuellen Nachtest wohl auch ne interessante Szene mit CPU-Limit beim GPU-Test erwischt:
(mit dem weit verbreiteten R 7600x "interpoliert")
GameGPU sind extrem unseriös, die generieren/interpolieren ihre Daten. Vermutlich sind die sogar teilweise einfach gewürfelt.

Nein, in dem Fall ist es die falsche Zuweisung auf CCD1. Das kann durchaus passieren. Den Core Parking Bug zeige ich da nicht. Den habe ich vom System verbannt, für immer.
Mich wundert das nicht, denn es ist Alltag, da ich die CPU ja aktuell verbaut habe. Ich betreibe den sogar mit 8 Kernen zur Zeit, da sich die Probleme massiv gehäuft hatten in letzter Zeit. Ich würde eine CPU mit asymmetrischer Cache-Verteilung nicht mehr kaufen. Die Nachteile wären mir zu groß.
 
Zuletzt bearbeitet:
*die nur Tester mit dieser CPU haben.
Eigentlich sind sich ja alle einig, dass es für Tester durchaus nervig, für Privatanwender aber niemals relevant ist. Von daher ist ein Wert, der durch den Bug erzeugt wurde, komplett irreführend.
Der 7950x3d ist einfach noch Mal mehr Frankenstein, wenn da mal nextgen CPUs kommen mit 2x 3dcache oder nativ 16 Kerner und der Support dafür ausläuft dann gute Nacht... Manche schalten ja schon den 2. Ccd ab was noch lächerlicher ist...
KCD skaliert bislang nur mit 3D-V-Cache und Takt. Alles andere ist unwichtig, wie mein übertakteter Ryzen zeigt. Letzterer legt in anderen Spielen um über 30 Prozent zu, dank des RAM-OC.
Wär mir ganz neu das 3d-cache CPUs so mit RAM skalieren...
 
Der 7950x3d ist einfach noch Mal mehr Frankenstein, wenn da mal nextgen CPUs kommen mit 2x 3dcache oder nativ 16 Kerner und der Support dafür ausläuft dann gute Nacht... Manche schalten ja schon den 2. Ccd ab was noch lächerlicher ist...
Ich hatte den bis vor kurzem bei mir verbaut - ich kam mit der CPU gut klar und habe immer die Leistung bekommen, die ich erwartet hatte. Aber klar, n 9950X3D ist mir auch lieber :ugly:
 
GameGPU sind extrem unseriös, die generieren/interpolieren ihre Daten.
hatte ich ja auch so geschrieben, ... muss nicht per se unseriös sein, soll nur informativ sein

Zumindestens hat man mal ne Tendenz, ... sprich R 7500F OCed + 7900XT passen in der Szene gerade noch so
zusammen. (wenn man denn Dafür nen PC-Build plant)
 
Zuletzt bearbeitet:
Wär mir ganz neu das 3d-cache CPUs so mit RAM skalieren...
Rein von der Logik, eine CPU ohne 3D Cache Skaliert mit RAM und eine mit 3D Cache soll es nicht tuen?
Alleine diese Tatsache passt nicht zusammem.
Klar keine Frage das die Grenze wann es passiert nicht an der geichen Stelle liegt, es ist ja mehr Cache dabei, aber es ist am Ende auch nur eine CPU die mit RAM zusammenarbeitet.
 
hatte ich ja auch so geschrieben, ... muss nicht per se unseriös sein, soll nur informativ sein

Zumindestens hat man mal ne Tendenz, ... sprich R 7500F OCed + 7900XT passen in der Szene gerade noch so
zusammen. (wenn man denn Dafür nen PC-Build plant)
Ich würde gerne erstmal DLSS vs FSR vs TSR sehen und dann schauen, wer wie performt ;)

Wie du zuvor schon angedeutet hast.
 
Soll der Upsampler bezgl. CPU nen Unterschied machen?

und
XeSS nicht vergessen.
Habe gute Erfahrungen mit 1.3 gemacht.
 
Ich verstehe nicht, warum sich hier beschwert wird.

Das Spiel warnt einen ausdrücklich, dass das wohl nicht flüssig laufen wird und dann wundert man sich, wenn es so ist. Wenn es den Ansprüchen nicht genügt, dann ist die Zukunft eben noch nicht da. Zum anderen läuft es doch ganz gut. Ab der 13600K sind über 60 FPS drin und bei den P0,2 über 30 FPS. Da das kein schneller Egoshooter ist, geht es in Ordnung.

Es erinnert mich an die Leute, die in FC6, mit ihren 10GB und weniger VRAM, das Ultratexturpaket verwendet haben, obwohl sie vom Spiel mehrfach gewarnt wurden, dass das nicht laufen wird. Dann haben sie sich darüber beschwert, dass das Spiel in den Notmodus gewechselt ist und die Texturen ausgetauscht hat, damit es läuft.

Ich finde es schade, da es dafür sorgt, dass die Entwickler sowas nicht mehr einbauen, wenn sie dafür eins auf die Fresse bekommen und es schlechte Tests hagelt. Eigentlich eine tolle Idee: man baut etwas ein, damit man auch noch etwas von PCs hat, die noch nicht erschienen sind.

Interessant wäre es, wie es denn mit etwas geringeren Details läuft, so wie es vorgesehen ist. Also sehr hoch und hoch.
 
Soll der Upsampler bezgl. CPU nen Unterschied machen?

und
XeSS nicht vergessen.
Habe gute Erfahrungen mit 1.3 gemacht.
Du bist zuvor auf mögliche Diskrepanzen bei der Leistung eingegangen (FP16/FP32) je nach verwendetem Upscaling (TSR).

Ich persönlich kann das so nicht greifen, weil mir Latte ist welcher Upscaler welche Berechnungen verwendet.

Und bevor ich nicht einen Vergleich gesehen habe, mit DLSS, FSR, XEsS sind mir die Ergebnisse mit TSR eher suspekt.

Sonst immer ist Nvidia nativ im Vergleich am "schwächsten" und mit Upscaling am "stärksten" nicht umgekehrt.
Ich verstehe nicht, warum sich hier beschwert wird.

Das Spiel warnt einen ausdrücklich, dass das wohl nicht flüssig laufen wird und dann wundert man sich, wenn es so ist. Wenn es den Ansprüchen nicht genügt, dann ist die Zukunft eben noch nicht da. Zum anderen läuft es doch ganz gut. Ab der 13600K sind über 60 FPS drin und bei den P0,2 über 30 FPS. Da das kein schneller Egoshooter ist, geht es in Ordnung.
Sehe ich ähnlich, läuft schon gut genug.
Es erinnert mich an die Leute, die in FC6, mit ihren 10GB und weniger VRAM, das Ultratexturpaket verwendet haben, obwohl sie vom Spiel mehrfach gewarnt wurden, dass das nicht laufen wird. Dann haben sie sich darüber beschwert, dass das Spiel in den Notmodus gewechselt ist und die Texturen ausgetauscht hat, damit es läuft.
FC6 das nicht besser aussah als Spiele die mit den 10GB locker ausgekommen sind. Das war der Makel.
Außerdem kam das große Geschrei von AMD Fraktionen, die darauf herum reiten wollten.

Hier gab es schon geteilte Erfahrungen die mit genutztem DLSS eine ganz andere Sprache sprachen, als die Vergleiche mit TSR hier. Zusammen mit DLSS und FG war auf einer 4070 die Rede von 100Fps in WQHD.

Ich denke, wenn man die nutzbaren Möglichkeiten auch wahrnimmt, läuft auch ARK schon heute sehr gut.
Ich finde es schade, da es dafür sorgt, dass die Entwickler sowas nicht mehr einbauen, wenn sie dafür eins auf die Fresse bekommen und es schlechte Tests hagelt.
Was bauen denn die Entwickler nicht mehr ein?
Eigentlich eine tolle Idee: man baut etwas ein, damit man auch noch etwas von PCs hat, die noch nicht erschienen sind.

Interessant wäre es, wie es denn mit etwas geringeren Details läuft, so wie es vorgesehen ist. Also sehr hoch und hoch.
ARK schon gut aus, aber nicht so sehr das heutige PCs das nicht stemmen dürften.
Aber ist ja auch anscheinend nicht so.
 
Zuletzt bearbeitet:
Was mich bis jetzt am meisten wundert: Niemand hat sich bis jetzt über den Wert des 7950X3D beschwert :-D
Was soll es denn da zu beschweren geben? :D Ein wahrlich schlecht optimiertes Spiel trifft auf einen Prozessor, der richtig eingestellt sein muss damit er seine Leistung auf die Straße bringt.

Dennoch weiß jeder, dass er mit abgeschaltetem CCD in diesem Spiel schneller ist als der 7800X3D und sich mit an die Spitze bei Intel setzen wird.
 
FC6 das nicht besser aussah als Spiele die mit den 10GB locker ausgekommen sind. Das war der Makel.

Also die Texturen, um die geht es ja, sahen damit extrem gut aus. Ansonsten war das Spiel auch mehr, als nur in Ordnung. Gut, nicht das absolut beste, wenn man Cyberpunk als Vergleich nimmt. Aber Leute, die darauf zwanghaft herumreiten, sollten sich lieber Grafikbenchmarks ansehen, als die Internetforen vollzujammern.

Außerdem kam das große Geschrei von AMD Fraktionen, die darauf herum reiten wollten.

Der Punkt war, dass viele (eigentlich alle) Nvidiafanboys die Vorteile eines großen VRAMs geleugnet haben. Das war eben ein gutes Beispiel, warum das durchaus Vorteile hat. Heute wissen wir, dass 8GB nicht unbedingt das Wahre sind. Komischerweise waren die Nvidiafanboys bei der Fury X gegen die GTX 980Ti noch anderer Meinung, vermutlich weil die Lieblingsfirma 50% mehr VRAM bot.

Von daher war das kein Geschrei, sondern völlig berechtigt.

Was bauen denn die Entwickler nicht mehr ein?

Funktionen, die erst in der Zukunft nutzbar sind.
 
Zurück