News Cyberpunk 2077: Gibt es Probleme mit Update 2.0?

Also ich hatte nur mal einen kurzen Stadtrundgang gemacht. Optisch find ich RR sehr geil. Viel schärfer und deutlich weniger Smearing in den Reflxionen. Schade find ich, dass es nicht unter DLAA funktionert. Daher schaut DLSS nun besser aus als mit DLAA. Ich hab das Game mal neu installiert, da ich Grafikfehler hatte an einigen Passanten, wahrscheinlich wegen Mods. Allerdings bekomme ich nach wie vor beim Spielstart eine dreifache Meldung, dass mein Benutzerkonto beschädigt sei und ich nicht speichern könne, was aber geht.
 
Ich gehe einfach mal davon aus, dass Pathtracing in der aktuellen Form mehr noise produziert. Man müsste die Zahl der Rays noch deutlich erhöhen, bevor das Bild von Haus aus besser ist, der Denoiser weniger zu tun hat und dann ist es ruhiger und schärfer.
CP2077 ist nicht das Ende oder der Höhepunkt von Pathtracing, es ist erst der Anfang. Im Moment läuft alles noch mit der minimalsten Anzahl an Rays.

Ich denke nicht, dass das notwendig ist. Ich denke, bevor Nvidia die RT leistung erreicht, haben sie das Problem längst mit AI gelöst.

Ich meine schaus dir an. Mit DLSS + Frame Gen wird schon jetzt nur noch 1/8 des Bildes tatsächlich berechnet. RR schafft extrem effektives Denoising. Praktisch hat AI schon jetzt Pathtracing überhaupt erst möglich gemacht.

Wenn diese techniken weiter verbessert werden und neue dazu kommen, dann brauchen wir sicherlich nicht 10x RT Leistung.

Ich glaube, bevor Nvidia eine reine Raytracing GPU auf dem Markt hat, haben sie stattdessen einen reinen AI Beschleuniger. Aktuell scheint das einfach der vielversprechendere Ansatz, Rechenprobleme zu lösen. Ansatt per brute Force irgendwas genau zu berechnen, lässt man es einfach einem AI Algorithmus generieren, der ein nahezu gleiches Ergebnis mit viel weniger Rechenaufwand erzeugen kann. Wie gesagt, DLSS macht das in weiten Teilen schon jetzt.

Das tolle an sämtlichen Entwicklungen im Bereich AI/Deep Learning ist, dass die Algorithmen immer schneller und besser werden können. Im Gegensatz zu per Hand entwickelten Algorithmen, die viel Zeit und noch viel mehr Hirnschmalz brauchen und schneller an Grenzen stoßen.
 
Gibt teilweise neue Grafikfehler. Hab jetzt kein Screenshot gemacht, das sah aber sehr komisch aus, als es diesen Sandsturm in der Stadt gab. Beleuchtung stellenweise komplett kaputt an Charakteren. So auch bei Dex im Auto. Der sah ganz kurz aus wie Silberlack. Da war auch irgendwas mit der Beleuchtung falsch.
Neueste Nvidia Treiber ist drauf.
Ansonsten läuft top bei mir alles auf Anschlag 3440x1440/DLSS Qualität, Raytracing alles auf Psycho/scRGB-HDR. Stets über 60 fps mit der 3090 Ti/13900K.
Ist euch mal aufgefallen das Schuhe jetzt endlich unterschiedliche Schrittgeräusche haben? Sogar High-Heel Sound ist drin. Mehr Oberflächengeräusche sind auch drin für Schrittgeräusche. Kleine, aber ganz feine Neuerung.
 
Zuletzt bearbeitet:
Die Polizei ist nun auf jeden Fall deutlich brauchbarer, aber leider gilt das nicht für die generelle KI.

(Sorry für die Überbelichtung, HDR Screenshots sind blöd^^)
Hier, wo ein Auto den Zebrastreifen blockiert, schien es z.B. wohl einfacher zu sein, die NPCs nach einer Weile einfach
die Kollisionsabfrage für das Auto zu entfernen, damit sie über die Straße gehen können, nachdem sie ne Minute gewartet hatten.(Man selbst kann nicht durch das Auto gehen)
1695491491032.png
 
Bei mir crashed das Spiel immer, wenn ich aus dem Benchmark zurück ins Hauptmenü will. Geforce Treiber 537.42
 
Zuletzt bearbeitet:
Bei mir crashed das Spiel immer, wenn ich aus dem Benchmark zurück ins Hauptmenü will. Geforch Treiber 537.42
Komisch. Genau das hatte ich mit dem älteren Treiber und nun mit dem neuen nicht mehr.
Scheint ja doch wieder noch einige Probleme zu haben das Update.
Irgendwie ist alles um Welten besser. Höhere Dichte der Fußgänger. Polizisten patrolieren zu Fuß und in Autos. Wenn man was blödes macht hört man den Polizeifunk und die Polizei versucht schnell an den Ort des geschehens zu kommen um einen zu erwischen und spawnt NICHT direkt vor einem, was V Zeit gibt um Abzuhauen. Was meiner Meinung nach viel besser passt zu dem was im GameStarTalk auf YT vom Entwickler über V's beziehung zur Polizei und dem Gesetz erzählt hat.

Zu dem AA kann ich nicht viel sagen. Kann sein das das schon immer so war und mir nie wirklich aufgefallen ist. Habe bisher nicht wirklich gezockt. Ich finde nicht wirklich eine Einstellung der Grafik die mir zusagt.

Was die Probleme mit dem DLSS 3.5 angeht hat Alex von DF im letzten Video eigentlich das gesagt was ich mir gedacht habe. 3.5 mit RR hatt Stand JETZT ähnliche Problem wie 2.0 am Anfang. Wenn man dann aber 2.3xx-2.51 anschaut ist alles behoben. Alle Spiele die DLSS 2.xx nutzen tausche ich generell die dll gegen die 2.51 aus was smearing und andere Probleme so auslöscht das man es in der Zeitlupe und mit dem Vergößerungsglas suchen muß.

Natürlich hätte ich gerne die Möglichkeit 2.51 dll zu nutzen statts die 3.5. Nur um zu sehen ob das mit meinen Einstellungen besser läuft. Die übrigens wirklich human sind und sogar über 60 min fps in 1440p nativ sorgen.
Nur will das DLAA nicht mehr funtzen bzw. hat keinen effekt mehr auf das AA. Was komisch ist.
Das ist auch der Grund warum ich 1,78x DLDSR (3413x1920) zusammen mit DLSS Q teste.
Mit FG macht das 100fps+. Ohne auch wieder über 60. Meine alte Cpu schreit halt um Hilfe.
 
Zuletzt bearbeitet:
DLSS SR ist in Cyberpunk genau wie FG nur in Version 3.1 vorhanden, nicht in 3.5.
Ich wüsste nicht, warum man sie nicht mit der 2.5.1 tauschen sollen könnte, wenn man das denn will.
Weil DLAA nicht mehr funktioniert und ich extremes smearing habe auch ohne PT. Was komisch ist.
Mit PT und RR ist das Bild wie wenn ich Bloom und Bewegungsunschärfe an hätte. Zusätzlich ist das AA unbrauchbar was pulsierendes Kantenflimmern verursacht. Und 4K DLDSR mit DLSS Q das von 1440p auf 2160p zurück auf 1440p rechnet nur um AA in den Griff zu bekommen, dafür ist meine 4080 zu schwach und ich benötige FG um auf über 60fps zu kommen...
Nicht ganz ideal. Ich hätte gern ein scharfes klares Bild ohne treppen Effekte und ordentlicher Beleuchtung.
Ging ja vorher auch irgendwie.
DLSS SR ist in Cyberpunk genau wie FG nur in Version 3.1 vorhanden, nicht in 3.5.
Ich wüsste nicht, warum man sie nicht mit der 2.5.1 tauschen sollen könnte, wenn man das denn will.
what.JPG

Ich glaube da tausche ich besser nichts aus... :what:
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hier mal ein Beispiel des Ghostings mit RR in Videoform(direkt am Ausgang von V's Appartmentkomplex, alle DLSS dlss auf Version 3.5)

Ohne RR leichtes Ghosting, welches schnell wieder verschwindet, mit RR sehr auffälliges Ghosting, welches sehr lange braucht um komplett zu verblassen
 
Das Ghosting mit DLSS 3.5 gerade mit RR fällt mir auch auf, gerade in den Menüs. Auch habe ich Bildaussetzer (komplett Black Screen) für ein paar Zehntelsekunden im Menü manchmal. Ansonsten läuft das Spiel meiner Meinung nach mit RT Overdrive bei 5120x1440 und DLSS Quality recht gut zwischen 70-100fps auf meiner 7800X3D / RTX 4090.
 
Ich denke nicht, dass das notwendig ist. Ich denke, bevor Nvidia die RT leistung erreicht, haben sie das Problem längst mit AI gelöst.

Ich meine schaus dir an. Mit DLSS + Frame Gen wird schon jetzt nur noch 1/8 des Bildes tatsächlich berechnet. RR schafft extrem effektives Denoising. Praktisch hat AI schon jetzt Pathtracing überhaupt erst möglich gemacht.

Wenn diese techniken weiter verbessert werden und neue dazu kommen, dann brauchen wir sicherlich nicht 10x RT Leistung.

Ich glaube, bevor Nvidia eine reine Raytracing GPU auf dem Markt hat, haben sie stattdessen einen reinen AI Beschleuniger. Aktuell scheint das einfach der vielversprechendere Ansatz, Rechenprobleme zu lösen. Ansatt per brute Force irgendwas genau zu berechnen, lässt man es einfach einem AI Algorithmus generieren, der ein nahezu gleiches Ergebnis mit viel weniger Rechenaufwand erzeugen kann. Wie gesagt, DLSS macht das in weiten Teilen schon jetzt.

Das tolle an sämtlichen Entwicklungen im Bereich AI/Deep Learning ist, dass die Algorithmen immer schneller und besser werden können. Im Gegensatz zu per Hand entwickelten Algorithmen, die viel Zeit und noch viel mehr Hirnschmalz brauchen und schneller an Grenzen stoßen.
KI funktioniert halt bessr wnn si mhr Daten hat. Dass bei CP2077 ein Mehrsekündiger Delay beim Lichtwechsel entsteht liegt eben noch an solchen leistungsabhängigen Kompromissen
 
Dass bei CP2077 ein Mehrsekündiger Delay beim Lichtwechsel entsteht liegt eben noch an solchen leistungsabhängigen Kompromissen
Aber genau diesen Delay will man ja mit RR eliminiert haben, man schaue auf das Beispiel von Alan Wake, wo eine flackernde Lampe zu sehen war, bei der die Texturen drum herum ohne RR 2-3s gebraucht haben um wieder dunkel zu werden und mit RR war es quasi sofort dunkel.
Jedoch zeigt sich in Cyberpunk oft das genaue Gegenteil und Lichtwechsel brauchen mit RR teilweise sogar länger.
 
Ja, richtig. Es funktioniert noch nicht immer sauber bzw. überall.

Dass man das grundlegende Problem aber mit RR bzw. generell mit diesem KI Ansatz lösen kann, wurde hiermit ja bereits bewiesen. Gibt ja sehr viele Stellen wo man vorher Probleme mit Nachleuchten hatte und jetzt eben nicht mehr.

Das ganze braucht halt noch etwas Zeit und ein paar weitere iterationen.

Aber genau das ist ja der Punkt. Ich wiederhole mich. Man hat hier mit RR ein Problem gelöst, für das man auf klassischem Wege viele Jahre an Fortschritt bei der Rohleistung benötigt hätte. Und dabei ist man sogar noch schneller als bisher. Und wie wir wissen, können diese Neural network basierten Algorithmen durch mehr Training besser werden.
Wir müssen also nicht Jahre darauf warten, bis irgend einem Ingenieur eine Idee kommt, wie man es (mit mehr Rechenaufwand) vielleicht ein wenig besser machen könnte. Nein, wir können uns sogar ziemlich sicher sein, dass es mit weiterem Training in einigen Jahren deutlich besser oder sogar perfekt sein kann und unter umständen sogar noch schneller als jetzt läuft.

Praktisch wissen wir noch gar nicht, wo die Limits von neural networks liegen oder wie weit man das theoretisch treiben kann. Was wir jedoch bisher sehen ist rapider Fortschritt, egal welches Problem man versucht zu lösen. Genau das macht es so spannend.

Klar, über KI zu reden hört sich immer wie Träumerei an, aber wär hätte denn vor 10 Jahren gedacht, dass sowas wie DLSS möglich sein kann. Dass man mit so geringen Auflösungen so eine Qualität erzeugen kann und so viele Frames generieren kann. Damals hat man jeden fehlenden Pixel aus 10 meter Entfernung gesehen. 900p statt 1080p waren ein Unterschied wie Tag un nacht. Und heute sehen 1440p mit DLSS auf 4K oft besser aus, als native 4K.

Daher hat sich die Technik den Optimismus mittlerweile mehr als verdient. Und das obwohl ich relativ lange skeptisch war und "KI" vor einigen Jahren für reinen marketing scam gehalten habe.
 
Zuletzt bearbeitet von einem Moderator:
Aber genau diesen Delay will man ja mit RR eliminiert haben, man schaue auf das Beispiel von Alan Wake,
ich hab im DF Video gesehen, dass es besser geworden ist, aber nicht eliminiert.
AI braucht halt Daten zum Interpolieren. Je schneller die Daten kommen, und je mehr davon, desto präziser.
Gibt ja auch schöne Videos woe von 320x240 "hochskaliert" wird usw um zu zeigen wie mächtig DLSS eigentlich ist. Aber so richtig gut funktionierts erst mit mehr Daten
Jedoch zeigt sich in Cyberpunk oft das genaue Gegenteil und Lichtwechsel brauchen mit RR teilweise sogar länger.
Ja, braucht halt noch optimierung. Wie gesagt: wenn du mehr Basisdaten hast, dann tut sich auch die KI leichter und das Ergebnis ist auch universell besser, nicht je nach optimierungsgrad.
 
Hab neu erstmals CP2077 gespielt mit gestern und hatte dabei folgende Probleme:

 
Zurück