Detto.finde die settings max HOCH besser als ULTRA, visuell...
Funktioniert auf den ersten Blick. SMT läuft jetzt. CPU-Auslastung von 50% auf 75%. Wesentlich mehr Performance. Krank.Auf Reddit geht ein HEX-Edit durch die Runde, die die Performance auf AMD-CPUs deutlich verbessern soll:
Für den Grund siehe hier: https://extreme.pcgameshardware.de/...as-sie-beachten-sollten.596426/#post-10599016finde die settings max HOCH besser als ULTRA, visuell...

da ist was dran! kann schon sein, doch doch. dochdochdochAuf Reddit geht ein HEX-Edit durch die Runde, die die Performance auf AMD-CPUs deutlich verbessern soll:
Recommented content - Reddit An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Könnte man wahrscheinlich noch zum Artikel hinzufügen.

Dein Bild zeigt allerdings nur 12 Threads Deiner 24 Thread-CPU an ...da ist was dran! kann schon sein, doch doch. dochdochdoch
Anhang anzeigen 1345945
Hmm Nutzt das Spiel mehr als 10 Kerne?"Problem" ist vielleicht das falsche Wort. Schaut man sich die Auslastung via Windows-Taskmanager an, so scheint es, als nutze Cyberpunk 2077 auf AMD-CPUs nur die physischen Kerne. Die "Kerne", welche SMT bereitstellt, werden nicht angefasst (quasi keine Auslastung) - bei Intel-CPUs schon. Allerdings belegen unsere Messungen, dass Hyperthreading (Intels SMT-Bezeichnung) nicht unbedingt die Fps steigert, ergo könnte das auch eine bewusste Entscheidung seitens CD Projekt sein; da muss man nicht direkt eine weitere Verschwörung wittern.
MfG
Raff
Du hast das Spiel schon durch? Dachte es sind ca 25h Spielzeit für die Kampagne?@HyperBeast Da sitzt das Problem aber ehr vor dem Bildschirm.
Habe die Story jetzt fertig und bis auf wenige Bugs (die ich durch einfaches Save-Game neuladen beheben konnte) lief das Spiel bei mir einwandfrei auf meinem Ryzen 1700 und meiner GTX 1070.
Jeder mit einem Ryzen 1, aber auch die mit Ryzen 2 und 3, die vielleicht nicht die maximalkonfiguration an Kernen gekauft haben, profitiert wahrscheinlich in diesem Spiel von SMT - wenn es gehen würde.Zu dem SMT Problem, jetzt mal ehrlich: Das Spiel verkauft sich sowieso für PS4/5 am meisten. Die Leute, die es am PC spielen und so krasse Grafikkarten haben, dass sie ins CPU Limit laufen und dann überhaupt diese paar Fps merken und sich mit Hex-Edits beschäftigen, sollten sich im 0,0x% Bereich der Gesamtkäufer befinden.
Auf ner Seite wie PCGH wär es schon bei den Benchmarks ein Absatz wert, aber neue Benchmarks usw. sind da doch etwas übertrieben.
Wenn dann nach den nächsten Patches, wenn die Entwickler es selbst beheben sollten.
Nein, tun sie nicht. Habe mich auch gewundert. Nicht alles glauben, selbst testen! Habe RT auf mittel gestellt - alles noch da.Da hier von RT auf mittel gesprochen wird, fallen da nicht die Reflexionen weg? So war mir zumindest
Edit: https://www.computerbase.de/2020-12/cyberpunk-2077-benchmark-test/3/
Tun sie. Ergo sollte man mind. Ultra nutzen.
Edit: Okay, ich habe die Presets falsch verstanden.
Jo. Habe ich editiert. Bin direkt rein.Nein, tun sie nicht. Habe mich auch gewundert. Nicht alles glauben, selbst testen! Habe RT auf mittel gestellt - alles noch da.
Einfach keine Presets nutzen, sondern die Einstellungen und Regler verstehen und anpassen. Alles auf Ultra drehen, Cromatische Aberration, Filmkörnung, Blendefekte und Bewegungsunschärfe aus, DLSS auf Qualität, Fertig. Sieht bei mir bombe und scharf aus (bei bedarf noch Sharpening im Treiber auf 30-40%)...Die Bilder Zeigen nochmal schon, was ich die letzten zwei Tage bei meinen Freunden beobachten konnte. Das Spiel sieht in meinen Augen schlimm aus! Grundsätzlich erstmal geile Optik (und das Spiel selbst ist super cool), aber es gibt absolut kein Preset das meinen Augen gefällt. Auf niedrig ist es scharf, sieht aber aus wie Fallout 3. Bei allem anderen ist das Spiel für mich eine optische Katastrophe. Entweder es ist unscharf, oder aber es grieselt wie irre ab einer bestimmten Distanz. Dieses "grieseln" kenne ich nur von Raytracing. Also wenn ich bei Inventor beispielsweis ein Objekt per raytracing anzeigen lasse, dann grieselt sich das langsam zurecht, bis es scharf wird. Hier bleibt das grieseln aber. Es wird nicht scharf. Einzig in der Einstellung "Max" sieht es annehmbaraus, aber da kommt es zum nachziehen und dem zeitlich verzögerten Aufbau der Schatten. In Bewegung macht es mir da keinen Spaß.
Ich hab mir das Spiel bei drei verschiedenen Leuten jetzt angeschaut. Auf einer 2080ti in 1440p, auf einer 3080 un 2160p+DLSS (außer der Einstellung "Qualität" auch echt unschön) und auf einer RX6800 in 1440p mit HDR.
Auf keiner sah es gut genug aus um dass mich nichts daran stört. Immer ist es dies oder das. Ich habe vor kurzem noch Witcher 3 gespielt und das hat auch so seine unschönen Momente, trotz pcgh-high-config, aber es sieht vom Gesamtbild deutlich ruhiger aus. Hat das noch jemand oder bin ich schlicht dermaßen überempfindlich?
Diese Vergleichsbilder vom "Vergleich Grafikpresets_2" in Full-HD sind eine regelrechte Beleidigung fürs Auge. Da gibts außer "Max" absolut kein einziges Bild welches gut aussieht. Achtet mal auf den Balkon oder was das ist, über dem weißen Sonnenschirm. Die ganze Fassade daraüber sieht aus wie ein unfertiges Bild, oder ein Ameisenhaufen.
Auch die Bordsteinkante vorn rechts... warum besteht die aus Treppchen? Die liegt doch direkt im vorderen Blickfeld, warum ist die nicht anständig aufgelöst? Die sollte ganz sicher nicht stufig sein.
Auch "toll" ist der Zaun vorn links, das obere Ende. In niedrig und Mittel noch scharf, alles andere Brei. Warum? Ist das ein Spielelement? Soll das wirklich so sein? Diese Unschärfe kam mir zudem auf der 3080 viel stärker ausgeprägt vor als auf der 6800. Wie kommt das? Ich hatte schon die Vermutung, dass der Nvidia-Treiber hier überfordert ist. Also dass er um die starke Last zu kompensieren, etwas mehr als üblich für nicht so Wichtig abstempelt und deshalb der äußere Bereich nicht so scharf dargestellt wird. Also fast so als ob das VariableRateShading hier zu stark ansetzt. Das war aber eben schwer zu vergleichen, weil die Karten zwar im gleichen Haushalt waren, aber die 3080 eben 2160p auf 32" und die 6800 nur 1440p auf 27" berechnet haben. Also nicht die selben Bedingungen.
Bitte liebe Redakteure, geht der Sache mal nach. Mich stört das heftig und ich kann mir darauf keinen Reim machen. Ist euch das denn nicht ins Auge gestochen als ihr diese Bilder gemacht habt? Sieht das für euch richtig aus?

es ist doch ein benchmark, dieses CP77!Dein Bild zeigt allerdings nur 12 Threads Deiner 24 Thread-CPU an ...
Nö. Fast 60% der Verkäufe aktuell ist der PC... Und der Hex-Edit hat die minFPS bei mir einfach mal um über 10 angehoben.Zu dem SMT Problem, jetzt mal ehrlich: Das Spiel verkauft sich sowieso für PS4/5 am meisten. Die Leute, die es am PC spielen und so krasse Grafikkarten haben, dass sie ins CPU Limit laufen und dann überhaupt diese paar Fps merken und sich mit Hex-Edits beschäftigen, sollten sich im 0,0x% Bereich der Gesamtkäufer befinden.
Auf ner Seite wie PCGH wär es schon bei den Benchmarks ein Absatz wert, aber neue Benchmarks usw. sind da doch etwas übertrieben.
Wenn dann nach den nächsten Patches, wenn die Entwickler es selbst beheben sollten.
Welche Zeilen stimmen jetzt genau?Hex-Edit
Welche Zeilen stimmen jetzt genau?
Gruß,a.
Merkwürdig. Ich spiele in 4K im Ultra Preset + RT Ultra + DLSS Quality und hänge laut Afterburner Log konstant im Power Limit bei ca 480W.P.S: Ich hatte in ~4 Spielstunden nicht einen Absturz, sogar das gemeine GPU-Undervolting ist standfest. Dafür habe ich aber eine mangelhafte GPU-Auslastung, die auf ein CPU-Limit hindeuten könnte (nur 290-300 Watt Ausnutzung, 350 stehen zur Verfügung)
Genau das hat mich auch interessiert. Ich fasse die Ergebnisse in einer Tabelle zusammen. Es gibt aktuell zwei Hacks, welche die Performance (bei mir) massiv verbessern. Den bereits bekannten "EB"-Hack und den neuen "74"-Hack. Ich habe beides in meinen privaten Settings getestet, dank einer RTX 3080 außerhalb des GPU-Limits. Folgende Angaben entnehme ich der aktuellen Version von CapFrameX.Moin!
Und was bringt die Hexerei?
| Parameter | 5800X Standard | 5800X "EB"-Hack | 5800X "74"-Hack |
| Max. Fps | 88,7 | 117,0 | 118,6 |
| P99 | 84,0 | 89,5 | 89,8 |
| P95 | 78,5 | 84,4 | 84,9 |
| Average Fps | 60,8 | 64,7 | 66,9 |
| P5 | 46,2 | 50,7 | 53,1 |
| P1 | 40,7 | 44,0 | 47,9 |
| 1% Low | 38,6 | 42,2 | 46,5 |
| P0.2 | 35,3 | 38,8 | 41,6 |
| P0.1 | 32,5 | 37,5 | 40,7 |
| 0.1% Low | 30,9 | 37,1 | 36,5 |
| Min | 30,2 | 37,0 | 32,2 |
| CPU load (%) avg. | 46 | 78 | 79 |
| CPU load (%) max. | 61 | 100 | 100 |
| CPU Power (W) avg. | 78 | 83 | 84 |
| GPU Power (W) avg. | 267 | 280 | 286 |
Kann ich mir vorstellen bei deiner CPU.Merkwürdig. Ich spiele in 4K im Ultra Preset + RT Ultra + DLSS Quality und hänge laut Afterburner Log konstant im Power Limit bei ca 480W.
Vermutlich bin ich das erste Mal mit meinem Underclock-Setting (16T @ ~3 GHz) ernsthaft schon bei 40-60 Fps im CPU-limitierten Bereich. Wird vielleicht doch mal Zeit für ein Upgrade.Ich habe irgendwo gelesen, ich glaube bei PCGH, dass CPUs schneller sind, wenn man sie höher taktet.meinem Underclock-Setting (16T @ ~3 GHz) schon im CPU-limitierten Bereich. Wird Zeit für ein Upgrade

Ich danke dir Dave für die Mühe. Das hat meine Frage beantwortet. War irritiert wegen den beiden unterschiedlichen werten.Genau das hat mich auch interessiert. Ich fasse die Ergebnisse in einer Tabelle zusammen. Es gibt aktuell zwei Hacks, welche die Performance (bei mir) massiv verbessern. Den bereits bekannten "EB"-Hack und den neuen "74"-Hack. Ich habe beides in meinen privaten Settings getestet, dank einer RTX 3080 außerhalb des GPU-Limits. Folgende Angaben entnehme ich der aktuellen Version von CapFrameX.
Parameter 5800X Standard 5800X "EB"-Hack 5800X "74"-Hack Max. Fps 88,7 117,0 118,6 P99 84,0 89,5 89,8 P95 78,5 84,4 84,9 Average Fps 60,8 64,7 66,9 P5 46,2 50,7 53,1 P1 40,7 44,0 47,9 1% Low 38,6 42,2 46,5 P0.2 35,3 38,8 41,6 P0.1 32,5 37,5 40,7 0.1% Low 30,9 37,1 36,5 Min 30,2 37,0 32,2 CPU load (%) avg. 46 78 79 CPU load (%) max. 61 100 100 CPU Power (W) avg. 78 83 84 GPU Power (W) avg. 267 280 286
Die wichtigsten dazu grafisch aufbereitet:
Anhang anzeigen 1345969
Die durchschnittliche Leistung steigt bei mir um 10 Prozent und P1 sogar um 17,7 Prozent.
Wer sich die Messungen im Detail ansehen möchte: https://capframex.com/api/SessionCollections/501947d8-bb37-44e6-bcb5-1bdb95a81b67
Wie kann ein simpler Hack sowas machen? Warum bekommen die Entwickler das nicht hin? Ich lasse das jetzt so stehen, offizielle Benchmarks können wir damit aber nicht machen, dafür braucht es auch den offiziellen Patch vom Entwickler (oder AMD).
Dann mach der CPU mal Beine. Als ob sich das bisschen zusätzliche Abwärme bei ner 3090 im Rechner bemerkbar machtMerkwürdig. Ich spiele in 4K im Ultra Preset + RT Ultra + DLSS Quality und hänge laut Afterburner Log konstant im Power Limit bei ca 480W.

Ist doch eigentlich immer so, RaffiEs wäre wohl für alle Beteiligten besser, da noch 2-3 Patches abzuwarten.
Diejenigen, die warten KÖNNEN, werden meist mit einem “runderen“ Spiel belohnt. Dummerweise überwiegt bei so vielen das “sofort haben wollen“.
Da, wo man "EB" einträgt, einfach "74" eintragen. Der Rest bleibt identisch.Was muss man denn für den 74 Hack machen? Ich habe bisher nur den EB Hack gefunden
Welche Grafiksettings? Welche Szene?Genau das hat mich auch interessiert. Ich fasse die Ergebnisse in einer Tabelle zusammen. Es gibt aktuell zwei Hacks, welche die Performance (bei mir) massiv verbessern. Den bereits bekannten "EB"-Hack und den neuen "74"-Hack. Ich habe beides in meinen privaten Settings getestet, dank einer RTX 3080 außerhalb des GPU-Limits. Folgende Angaben entnehme ich der aktuellen Version von CapFrameX.
Parameter 5800X Standard 5800X "EB"-Hack 5800X "74"-Hack Max. Fps 88,7 117,0 118,6 P99 84,0 89,5 89,8 P95 78,5 84,4 84,9 Average Fps 60,8 64,7 66,9 P5 46,2 50,7 53,1 P1 40,7 44,0 47,9 1% Low 38,6 42,2 46,5 P0.2 35,3 38,8 41,6 P0.1 32,5 37,5 40,7 0.1% Low 30,9 37,1 36,5 Min 30,2 37,0 32,2 CPU load (%) avg. 46 78 79 CPU load (%) max. 61 100 100 CPU Power (W) avg. 78 83 84 GPU Power (W) avg. 267 280 286
Die wichtigsten dazu grafisch aufbereitet:
Anhang anzeigen 1345969
Die durchschnittliche Leistung steigt bei mir um 10 Prozent und P1 sogar um 17,7 Prozent. CPU und GPU werden besser ausgelastet.
Wer sich die Messungen im Detail ansehen möchte: https://capframex.com/api/SessionCollections/501947d8-bb37-44e6-bcb5-1bdb95a81b67
Wie kann ein simpler Hack sowas machen? Warum bekommen die Entwickler das nicht hin? Ich lasse das jetzt so stehen, offizielle Benchmarks können wir damit aber nicht machen, dafür braucht es auch den offiziellen Patch vom Entwickler (oder AMD).
Habe etwa 20h für die Story gebraucht und mache jetzt gerade den 100% Durchlauf mit allen Side-Quests.Du hast das Spiel schon durch? Dachte es sind ca 25h Spielzeit für die Kampagne?