Kingdom Come Deliverance: Neue Benchmarks mit 20 Grafikkarten und 13 Prozessoren

Tjo, Dynamic bzw. Static Draw Call Batching (das bedeuten wohl die Settings 0 und 1 im Konsolenbefehl). Sollte man was von gehört haben, besonders wenn man in DX11 programmiert.
Sollte man vielleicht. Da ich aber kein Programmierer bin (abgesehen von schulischen Gehversuchen in C++ und Java und ein wenig Webseitengebastel mit HTML/PHP/CSS) sagt mir das garnix ^^
 
Mach ich ja, will ja die Story spielen.
Es ist einfach eben nur schade, dass wirklich feine Details in der Grafik im normalen Gameplay auf einer Mischung zw. medium und high auf der Strecke bleiben.
Bei Far Cry 5 ist das aber z.B. selbst auf höchsten Detals der Fall. Von daher würde ich eher die Einstellungsmöglichkeiten von KCD vorziehen.
Dieser Kinnladeherunterklappeffekt, den ich z. B. vor Jahren beim release von Oblivion hatte, weil eben mein damaliger PC das super hinzaubern konnte, stellt sich einfach nicht ein - leider.
Das wird immer seltener passieren, große Sprünge in der Grafikqualität wird es wohl nicht mehr geben. VR hat trotz dessen den gleichen "Kinnladeherunterklappeffekt".
Btw. Oblivion hat die damalige Hardware (7900 und X1900) auch sehr stark gefordert.
 
Zuletzt bearbeitet:
Btw. Oblivion hat die damalige Hardware (7900 und X1900) auch sehr stark gefordert.

Also ich konnte mich damals mit meiner ATI X1900XT 512MB VRAM, Intel Pentium 650, 4GB RAM, in 1280x720 nicht beklagen, lief auf maximalen Einstellungen durchgängig besser als KcD in bestimmten Situationen heute in Ultra auf FullHD. ;)

Allerdings musste man damals auch schon zimlich einen im Tee haben um sich freiwillig eine Grafikkarte von Nvidia, mit ihrem damaligen CineFX Architektur-Murks und der miesen AF, zu kaufen. :D
 
Also ich konnte mich damals mit meiner ATI X1900XT 512MB VRAM, Intel Pentium 650, 4GB RAM, in 1280x720 nicht beklagen, lief auf maximalen Einstellungen durchgängig besser als KcD in bestimmten Situationen heute in Ultra auf FullHD. ;)

Allerdings musste man damals auch schon zimlich einen im Tee haben um sich freiwillig eine Grafikkarte von Nvidia, mit ihrem damaligen CineFX Architektur-Murks und der miesen AF, zu kaufen. :D
Ich hatte für etwa ein Wochenende eine 7900GTX (CineFX waren die GeForce 5er), dann war sie defekt. Bin dann ebenfalls auf eine X1900XT umgestiegen. Die war zwar laut, aber meist schneller.
 
Ich hatte für etwa ein Wochenende eine 7900GTX (CineFX waren die GeForce 5er), dann war sie defekt. Bin dann ebenfalls auf eine X1900XT umgestiegen. Die war zwar laut, aber meist schneller.

Soweit ich mich noch erinnere schleppten auch die 6000er (CineFX 2.0) und 7000er (CineFX 3.0 & 4.0) Karten von Nvidia noch überarbeitete CineFX Architektur mit sich rum, erst die 8000er Reihe war dann eine voll auf neue Architektur und nutzten nicht mehr diesen CineFX Quark:

Zahlreiche Architekturverbesserungen an den neuen NVIDIA GeForce 7800 Grafikprozessoren mit CineFX 4.0-Engine sorgen jetzt dafür, dass die häufigsten Rechenvorgänge für 3D-Visualisierungen noch schneller ablaufen.

CineFX 4.0|NVIDIA
 
Zuletzt bearbeitet:
Der Unterschied zwischen der 7800 und 7900 GTX war doch nur der Fertigungsprozess, wenn ich nicht irre. Erst die 7950 verdoppelte das Speicherinterface.
 
Der Unterschied zwischen der 7800 und 7900 GTX war doch nur der Fertigungsprozess, wenn ich nicht irre. Erst die 7950 verdoppelte das Speicherinterface.

Nö, die 7900 und 7950 besaßen genau wie die 7800 ein 256bit breites Speicherinterface. Die 7950 war lediglich eine Dual-GPU Karte, wie z.B. die spätere GTX 295.
Der Hauptunterschied zwischen der 7800er und 7900er Reihe war das kleinere Fertigungsverfahren und ein leicht überarbeiteter Chip, was in Summe höhere Taktraten erlaubte, die die Karten auch brauchten um mit ATIs damaliger X1900er und X1950er Reihe wenigstens halbwegs mithalten zu können.
 
Schaffe89 schrieb:
Und dann kommst du mit einer schwachen RX 580 und sagst man müsse doch nur die Regler auf hoch stellen, dann ist man wieder GPU limitiert.

1. Glaube ich nicht. Zeig doch mal deine GPU Auslastung bei einem FPS Ziel von 50 bis 60 FPS in dem Game.
Hoch-Preset mit ein paar Sachen auf Mittel, Sichtweite unverändert.
Bildschirmfoto-696.png
Mit den Settings, mit denen ich normalerweise spiele (Hoch-Preset mit Texturen auf Ultra) komme ich nur noch auf 40-50 FPS, da ist definitiv noch Luft nach oben für eine stärkere Grafikkarte.
Bildschirmfoto-695.jpg

Nur mal fürs Protokoll, mir geht es nicht um Intel vs AMD, auch wenn ich aus deiner Sicht vielleicht die falsche CPU in der Signatur stehen habe, sondern schlicht und ergreifend darum, dass das Spiel, um das es im Artikel geht, im Worst Case-Szenario mal eben 3x so schnell läuft, wenn man die Regler bedient, und das Problem dann eben weitesgehend verschwindet (bzw. zumindest deutlich entschärft wird, wenn man seine GTX 1080 Ti tatsächlich mit FullHD-Auflösung langweilt).

Schaffe89 schrieb:
2. Ist es eine absolute Ausnahme dass man das CPU Limit so stark nach oben verschieben kann, das geht nicht in jedem Spiel.
Richtig. Aber es ist aber auch bei weitem nicht jedes Spiel derart CPU-limitiert wie KCD mit maximalen Settings.

Du kommst halt immer mit denselben Spielen an - KCD, Frostpunk, PUBG. Mögen ja die Spiele sein, die du derzeit am meisten spielst, und das ist ja auch völlig okay, aber das allein ist genau so wenig repräsentativ wie meine Bibliothek aus überwiegend Single Player-Spielen, bei denen mein alter Phenom meist ausgereicht hat, um die RX 480 (bzw. bis vor zwei Jahren eine GTX 670) zu befeuern. In PUBG wäre ich mit dem Teil wohl kaum glücklich geworden.

KCD lief nebenbei sogar auf dem Phenom noch recht vernünftig mit denselben Settings wie oben.
 
Zuletzt bearbeitet:
Die Performance ist gar nicht wirklich schlecht. Es handelt sich nun mal um ein Spiel mit "PC spirit": Man kann alle Regler voll aufziehen, sinnvoll ist das aber nicht unbedingt. Mit sehr hohen Details läuft das Spiel wesentlich besser als mit maximalen. Die Prozessoren testen wir mit allem, was geht, die Grafikkarten "nur" mit Ultra-Optionen. Wer darunter geht, erblickt wesentlich bessere Bildraten. Und mit dem nächsten PC kann man dann 1-2 Stufen raufgehen. :devil:

MfG,
Raff

Genau wie man es früher gemacht hat ;)

seit zen+ eben nicht mehr

eben doch, im Schnitt der Spiele, laut Test der PCGH
 
Hat jemand zufällig die GOG-Version und eine Vega oder andere Radeon? Wäre sehr interessant ob bei der von PCGH verwendeten Version 1.4.2 schon r_BatchType 1 aktiv ist oder nicht.

Bei meiner über ein Monat alten Steam-Version 1.4.3 ist r_BatchType bereits automatisch auf 1, was bei meiner Vega einen massiven FPS-Boost bringt.

YouTube
 
Zurück