Nvidia Turing Laberthread

Seltsam, auch im Video sieht man es nicht mehr. Das Einzige was mir noch einfällt um es zu zeigen ist ein Handy Bild :ugly:.

Das ist klar das Ergebnis von einer zu geringen Bit-Tiefe der Farbansteuerung Deines Monitors und der daraus folgenden sichtbaren Quantifizierung der Farben (sichtbare Schritte im Farbkeil). Du kannst das auch reproduzieren, in dem Du auf dem Desktop einen vollflächigen Farbkeil anzeigen lässt.

Vermutlich kann Dein Monitor nur 6 bit und extrapoliert die fehlenden 2 Bits mittels einem Raster. Oder das sind 8 bit, aber dieser Farbverlauf zeigt auch bei 8 Bit noch Stufen.
 
Das ist klar das Ergebnis von einer zu geringen Bit-Tiefe der Farbansteuerung Deines Monitors und der daraus folgenden sichtbaren Quantifizierung der Farben (sichtbare Schritte im Farbkeil). Du kannst das auch reproduzieren, in dem Du auf dem Desktop einen vollflächigen Farbkeil anzeigen lässt.

Vermutlich kann Dein Monitor nur 6 bit und extrapoliert die fehlenden 2 Bits mittels einem Raster. Oder das sind 8 bit, aber dieser Farbverlauf zeigt auch bei 8 Bit noch Stufen.

Ich habe diesen hier Acer Predator XB3 XB273KGPbmiipprzx ab €' '778,86 (2020) | Preisvergleich Geizhals Deutschland , kann es sein, dass ich den Monitor anders einstellen muss? , denn eigentlich sollte er 10 (bzw. FRC 8+2) Bit haben.
 
Mit welcher Bildfrequenz läuft der? 10 Bit sind bei 4k nur bis zu 98Hz möglich! Weswegen ich meinen Monitor auf 98Hz begrenze.
 
Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?
 
Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?

HDR benötigt per se keine höhere Übertragungsrate oder Bitrate. Es ist nur so, dass HDR deutlich mehr von 10 bit profitiert als SDR, weswegen man bei HDR möglichst 10 bit verwenden sollte.

Ich hab generell immer 10 bit aktiv, auch in RDR2. Aber ich kann das mal ausprobieren... ich hoffe nur, ich sehe den Effekt den Du hast.
 
Aber die HDR Metadaten müssen doch auch übertragen werden? Gerade mit HDMI reicht die Bandbreite nicht für 4K/60 RGB mit HDR. Muss ich dann auf 4:2:0 runter.
Zumindest verlangt der TVs das so weil anders geht es nicht und die Einstellung wird zurückgesetzt im Treiber.
Und setzt HDR nicht eine 10Bit Ausgabe voraus?! Dolby Vision gar 12Bit.

Naja ist ja auch erstmal egal für das Problem. Denke ist nur eine Einstellung.
 
Nein, HDR setzt keine 10 bit voraus, das geht mit allen Bitraten. Die Farbskalierung wird nur aufgespreizt. Am PC nutzen die Monitore HDR10, in wie DolbyVision und HDR10+ überhaupt relevant sind für Spiele ist mir selbst nicht ganz klar. Metadaten werden meines Wissens nicht übertragen, und selbst wenn, das sind ja nur ein paar Bits pro Frame. Am PC stellst Du die HDR Gesamthelligkeit und den Weißpunkt ja in den Spielen auf einen festen Wert ein.

Ich hab das mal versucht in RDR2 nachzustellen ausprobiert. Bei meinem RDR2 Spielstand ist der Himmel strahlend blau, und tatsächlich kann ich in Bewegung eine gaaaanz leichte Quantifizierung sehen - und zwar völlig egal, was ich einstelle. Auch bei 8bit und VCbCr422 oder VCbCr422. Und auch auf meinem wesentlich günstigeren Zweitmonitor, ein LG 27UK650_600 (der macht aber auch 8bit + A-FRC).

Ich habe aber den Eindruck, da sich diese gekrümmten Quanitifizierungslinien immer Bogenartig über den Himmel ziehen und bei Bewegung an Ort und Stelle bleiben (relativ zum Monitor, nicht zur dargestellten Szene), dass die tatsächlich von einem Vignetten-Shader kommen könnten, die die Ränder des Bildes leicht abdunkeln sollen. Und dieser Shader verwendet vermutlich diskrete "Verdunkelungswerte" (je dunkler desto mehr am Schirmrand) und daher kommen dann auch die Linien.

Leider kann man den zumindest in den offiziellen Settings auch nicht abschalten.
 
Ich habe zumindest eben eine Problemlösung gefunden, HDR im OSD des Monitors deaktivieren und weg sind die Wellen, nur ist das optisch ein riesiger Unterschied. Allerdings ist ingame HDR nicht aktiviert, da man bei RDR2 tollerweise HDR in Windows aktivieren muss und sobald man das tut das Spiel sofort abstürzt, egal ob mit Vulkan oder mit DX12, damit bin ich scheinbar auch nicht alleine geht vielen Leuten seit einem Patch, im Juni/Juli? soweit ich weiß so. Daher verändert nur der Monitor selbst die Farben ohne, dass das Spiel bestimmt welche, was wohl ein Problem bei RDR2 sein könnte.

Mit welcher Bildfrequenz läuft der? 10 Bit sind bei 4k nur bis zu 98Hz möglich! Weswegen ich meinen Monitor auf 98Hz begrenze.

120 Hz da nur ein DP angeschlossen war, habe gerade einen 2. angeschlossen jetzt lässt sich zwar 144 Hz aktivieren, aber ich kann nicht von 8 Bit auf 10 Bit wechseln und außerdem kann ich auch nicht auf 98 Hz überhaupt wechseln, generell lässt sich die BPC überhaupt nicht verändern, also auch nicht nach unten unabhängig von der Hz Zahl. Im OSD des Monitors habe ich nichts zu Bit überhaupt gefunden.

Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?

Ja aber nur über den Monitor, HDR in RDR2 gibt es zwar aber wie oben geschrieben nur bei Aktivierung in Windows und dann kratzt das Spiel sofort ab. Was meinst du mit Abtastung?

Das nächste tolle Problem ist jetzt, dass mein 2. Monitor nur noch auf 4k 30 Hz läuft da ich jetzt HDMI verwenden muss (GPU hat nur 2x DP) und auch mit einem zertifizierten Kabel für 4k 60Hz meiner Xbox das Ganze nicht mehr auf 60hz läuft :schief:.
 
Dann betont diese "HDR" Einstellung im Monitor (die ja nur ein Art Fake HDR aktiviert) den Effekt des Vignetten-Shaders. Das kann mein Monitor auch, der hat eine Funktion mit dem man dunkle Szenen aufhellen kann (als Game-Cheat gedacht) und das erzeugt - logischerweise - extremes Banding. Vermutlich ein ganz ähnlicher Effekt.
 
Ich habe gerade selbst ein Problem. Ich habe mir eine Custom Auflösung von 3200x1800 erstellt für Games die mit UHD nicht ganz wollen. Nur zeigt mir mein TV dann immer an das HDR nicht mehr funktioniert. Ist das normal oder übersehe ich etwas?

Bin via HDMI verbunden am TV. 60Hz UHD mit 422 und 12Bit. Sowieso komisch das ich 12Bit einstellen kann obwohl mein TV nur 10Bit können soll. Ist das egal oder vermurkse ich dann etwas wenn ich auf 12Bit gehe?
Danke erstmal. Drehe mich wahrscheinlich gerade im Kreis.
 
HDR ist ein ganz spezielles Displayformat, das vermutlich nicht mit variablen Auflösungen harmonisiert. Hätte mich auch gewundert, ehrlich gesagt. Mit der Bittiefe hat HDR nichts tun, prinzipiell reichen auch 8 bit dafür. Dann spreizen sich die Werte nur über einen größeren Bereich.
 
Hat von euch schon jemals HDR in Windows ordentlich betreiben können? Das sieht aus als wären die Farben ausgebleicht und selbst in Games mit HDR finde ich manche Games natürlicher ohne als mit.
 
Hallo zusammen,
Ich hab eine RTX 2080 ti und wollte damit eigentlich 240 FPS in Full HD in Spielen wie PUBG, Warzone, Apex und Co erreichen, aber leider schaff ich immer nur so um die 180 max obwohl die Grafikkarte nur bis ca 50-60% ausgelastet war. Jetzt hab ich versucht in 1440p so viel FPS wie möglich hinzubekommen, aber auch da schaff ich es nicht die Grafikkarte auszulasten und max FPS hinzubekommen, egal ob ich Low, High oder sonst was einstelle bei den Spielen.
Hat jemand eine Idee warum ich nicht das Maximum an FPS bekomme, also die Grafikkarte ganz ausgelastet wird?
Klar, CPU Limit, aber auch meine CPU ist max. bis zu 60% ausgelastet.

Mein System:
I9 9900k bei 5,0 GHZ auf allen Kernen
RTX 2080 ti bei stabilen 2040 MHZ
16 GB DDR4 Ram mit 3000 MHZ
Alle Treiber natürlich aktuell, Energiemodus auf Maximum.
 
Das ist ein eindeutiges CPU Limit und da die Games schlicht nicht mit 16 Threads umgehen können ist die CPU im Limit eben nur zu 60% und nicht zu 100% ausgelastet.
Für solche Spiele und FPS Ansprüche ist noch keine CPU schnell genug und das wird auch noch lange dauern, da eine wachsende Kernzahl (die recht leicht zu realisieren ist) nichts bringt.
In Zukunft werden aber hoffentlich Games mehr Threads effektiv nutzen können.
 
Zurück