• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Turing Laberthread

nordcore709

Schraubenverwechsler(in)
Frage...macht es heut zu tage noch sinn sich 2x2070super reinzuhauen?? oder hat man dann mit Microruckler zu kämpfen? Die RTX reihe wird doch mit NVlink verbunden hat man damit auch noch die Microruckler? Normalerweiser nimmt man eine gute karte und gut ist.. aber wer weiß was die 3000ner serie kostet speziell die 3080ti oder 3090...vielleicht kann man da besser 2x2070super nehmen...oder was meint ihr?? Ich spiel auf 144hz wqhd mit einer 2060super..könnt euch sicher denken das da nicht viel fps zu holen sind...deswegen meine frage...allerdings spiel ich nur witcher 3 und cod warzone und vielleicht cyberpunk 2077...tja was machen...
 
M

MSI-Fan

Guest
Warten auf die neue Gen und dann auf die Preise. Wenn es dann zu teuer ist, kannst du dir noch immer überlegen eine 2080ti zu holen die bestimmt dann günstiger im Abverkauf wird. Aber auf 2x 2070 würde ich nicht setzen SLI ist ausgestorben.
 

Siriuz

Freizeitschrauber(in)
Frage...macht es heut zu tage noch sinn sich 2x2070super reinzuhauen?? oder hat man dann mit Microruckler zu kämpfen? Die RTX reihe wird doch mit NVlink verbunden hat man damit auch noch die Microruckler? Normalerweiser nimmt man eine gute karte und gut ist.. aber wer weiß was die 3000ner serie kostet speziell die 3080ti oder 3090...vielleicht kann man da besser 2x2070super nehmen...oder was meint ihr?? Ich spiel auf 144hz wqhd mit einer 2060super..könnt euch sicher denken das da nicht viel fps zu holen sind...deswegen meine frage...allerdings spiel ich nur witcher 3 und cod warzone und vielleicht cyberpunk 2077...tja was machen...

Neee. SLI ist tot. Das wird auch kaum noch unterstützt (so gut wie gar nicht). Da verkaufst du lieber die 2060, legst noch was drauf für eine 3070 und kannst wahrscheinlich (!) Cyperpunk 2077 mit 60FPS+ spielen.
 

RawMangoJuli

Volt-Modder(in)
der Typ aus dem Chiphell Forum der immer recht gute AMD Leaks hat, hat jetzt geschrieben, dass eine RTX mit 20GB kommt

vllt hat Jensen ja das Licht gesehen und es gibt allgemein mehr VRAM xD
 

nordcore709

Schraubenverwechsler(in)
Hallo zusammen...kennt jemand von euch das problem...ich habe eine rtx2060super und das spiel call of duty warzone...und ich habe das gefühl ich bewege mich ganz langsam als hätte die karte die Handbremse angezogen..es spielt sich wie kaugummi...also ich hab das vorher auch bei meinem kumpel gespielt das ist ein mächtiger unterschied...so auf meinem pc nicht spielbar...das ganze auf einem wqhd monitor mit 144hz...raytraycing ist deaktiviert..und hohe settings...Treiber ist auf dem neusten stand... und ich habe zwischen 70 und 90fps...das ganze auf ein Ryzen 7 3700x...32gb ram und x570Mainboard...ich hab gedacht der monitor ist nicht gut..bin dann mit monitor zu meinen kumpel gefahren der hat von der hardware den gleichen pc allerdings nur mit einer 2080ti....aber da läuft alles super..also am monitor liegt es nicht....allerdings hat meine gpu auch eine temperatur von 82 grad...ist das zuviel?? gemessen mit Msi afterburner
 
Zuletzt bearbeitet:

nordcore709

Schraubenverwechsler(in)
Also update....ich konnte meine grafikarte in einem anderen pc testen und cod warzone probieren da läuft alles super...dann nächster step...eine rtx 2080ti bei mir rein bauen um zu schauen ob es geht....aber da bekomme ich überhaupt kein bild nicht mal den first screen vom bios...ich habe ein 650w Netzteil...sollte das etwa zu klein sein??
 

micha30111

Freizeitschrauber(in)
Also update....ich konnte meine grafikarte in einem anderen pc testen und cod warzone probieren da läuft alles super...dann nächster step...eine rtx 2080ti bei mir rein bauen um zu schauen ob es geht....aber da bekomme ich überhaupt kein bild nicht mal den first screen vom bios...ich habe ein 650w Netzteil...sollte das etwa zu klein sein??
650 Watt sagt nicht wirklich etwas über die Qualität eines Netzteils aus. Grundsätzlich reichen 650W für eine 2080ti.

Gesendet von meinem Mi Note 10 Pro mit Tapatalk
 

chaotium

BIOS-Overclocker(in)
20GB ist ne Krumme zahl. Toll wäre wenn Mainstream die 12GB bekommt und High 16 / 24
Ich denk aber wieder 8 & 12. Und Anfang September kommt eher nichts. Ca Mitte - Ende Septembder.
 

RtZk

Lötkolbengott/-göttin
Hat jemand eine Ahnung was das hier in RDR 2 ist? (dieses Art flimmern am Himmel, sieht man nur leicht im Screenshot da es sich bewegt und wie in Wellen am Himmel ist)
Habe ich in keinem YouTube Video bisher sehen können und sieht mir auch nicht normal aus, aber einen Grafikfehler den nur ich habe, hört sich für mich ziemlich unwahrscheinlich an? In den Grafikeinstellungen habe ich auch schon rumprobiert, aber es hat nichts geändert.

Edit: PCGH komprimiert den Screenshot so stark, dass man es leider nicht sehen kann, kann ich irgendwie einen vollständigen Screenshot hier hochladen?
Edit Edit: Ich habe es mal auf eine externe Seite in voller Auflösung hochladen können, dort sieht man es auch nicht mehr, aber in der Foto Mediathek am Rechner sieht man es? :huh:
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Nimm es doch einfach auf :) 10s in 4K mit höchster Bitrate und auf YT laden.

Seltsam, auch im Video sieht man es nicht mehr. Das Einzige was mir noch einfällt um es zu zeigen ist ein Handy Bild :ugly:.
 

Anhänge

  • RDR 2 Himmel Flimmern_LI.jpg
    RDR 2 Himmel Flimmern_LI.jpg
    2,4 MB · Aufrufe: 33

IphoneBenz

Software-Overclocker(in)
Ich weiß was du meinst aber habe keine Referenz. Aber ich finde das der gesamte Himmel mehr oder weniger diese Art „Wellen“ hat. Hat was von Farbverläufen wie bei einem 8Bit Pannel und Sonnenuntergang. Zumindest daher kenne ich solche „Wellen“.
 
G

Grestorn

Guest
Seltsam, auch im Video sieht man es nicht mehr. Das Einzige was mir noch einfällt um es zu zeigen ist ein Handy Bild :ugly:.

Das ist klar das Ergebnis von einer zu geringen Bit-Tiefe der Farbansteuerung Deines Monitors und der daraus folgenden sichtbaren Quantifizierung der Farben (sichtbare Schritte im Farbkeil). Du kannst das auch reproduzieren, in dem Du auf dem Desktop einen vollflächigen Farbkeil anzeigen lässt.

Vermutlich kann Dein Monitor nur 6 bit und extrapoliert die fehlenden 2 Bits mittels einem Raster. Oder das sind 8 bit, aber dieser Farbverlauf zeigt auch bei 8 Bit noch Stufen.
 

RtZk

Lötkolbengott/-göttin
Das ist klar das Ergebnis von einer zu geringen Bit-Tiefe der Farbansteuerung Deines Monitors und der daraus folgenden sichtbaren Quantifizierung der Farben (sichtbare Schritte im Farbkeil). Du kannst das auch reproduzieren, in dem Du auf dem Desktop einen vollflächigen Farbkeil anzeigen lässt.

Vermutlich kann Dein Monitor nur 6 bit und extrapoliert die fehlenden 2 Bits mittels einem Raster. Oder das sind 8 bit, aber dieser Farbverlauf zeigt auch bei 8 Bit noch Stufen.

Ich habe diesen hier Acer Predator XB3 XB273KGPbmiipprzx ab €' '778,86 (2020) | Preisvergleich Geizhals Deutschland , kann es sein, dass ich den Monitor anders einstellen muss? , denn eigentlich sollte er 10 (bzw. FRC 8+2) Bit haben.
 
G

Grestorn

Guest
Mit welcher Bildfrequenz läuft der? 10 Bit sind bei 4k nur bis zu 98Hz möglich! Weswegen ich meinen Monitor auf 98Hz begrenze.
 

IphoneBenz

Software-Overclocker(in)
Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?
 
G

Grestorn

Guest
Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?

HDR benötigt per se keine höhere Übertragungsrate oder Bitrate. Es ist nur so, dass HDR deutlich mehr von 10 bit profitiert als SDR, weswegen man bei HDR möglichst 10 bit verwenden sollte.

Ich hab generell immer 10 bit aktiv, auch in RDR2. Aber ich kann das mal ausprobieren... ich hoffe nur, ich sehe den Effekt den Du hast.
 

IphoneBenz

Software-Overclocker(in)
Aber die HDR Metadaten müssen doch auch übertragen werden? Gerade mit HDMI reicht die Bandbreite nicht für 4K/60 RGB mit HDR. Muss ich dann auf 4:2:0 runter.
Zumindest verlangt der TVs das so weil anders geht es nicht und die Einstellung wird zurückgesetzt im Treiber.
Und setzt HDR nicht eine 10Bit Ausgabe voraus?! Dolby Vision gar 12Bit.

Naja ist ja auch erstmal egal für das Problem. Denke ist nur eine Einstellung.
 
G

Grestorn

Guest
Nein, HDR setzt keine 10 bit voraus, das geht mit allen Bitraten. Die Farbskalierung wird nur aufgespreizt. Am PC nutzen die Monitore HDR10, in wie DolbyVision und HDR10+ überhaupt relevant sind für Spiele ist mir selbst nicht ganz klar. Metadaten werden meines Wissens nicht übertragen, und selbst wenn, das sind ja nur ein paar Bits pro Frame. Am PC stellst Du die HDR Gesamthelligkeit und den Weißpunkt ja in den Spielen auf einen festen Wert ein.

Ich hab das mal versucht in RDR2 nachzustellen ausprobiert. Bei meinem RDR2 Spielstand ist der Himmel strahlend blau, und tatsächlich kann ich in Bewegung eine gaaaanz leichte Quantifizierung sehen - und zwar völlig egal, was ich einstelle. Auch bei 8bit und VCbCr422 oder VCbCr422. Und auch auf meinem wesentlich günstigeren Zweitmonitor, ein LG 27UK650_600 (der macht aber auch 8bit + A-FRC).

Ich habe aber den Eindruck, da sich diese gekrümmten Quanitifizierungslinien immer Bogenartig über den Himmel ziehen und bei Bewegung an Ort und Stelle bleiben (relativ zum Monitor, nicht zur dargestellten Szene), dass die tatsächlich von einem Vignetten-Shader kommen könnten, die die Ränder des Bildes leicht abdunkeln sollen. Und dieser Shader verwendet vermutlich diskrete "Verdunkelungswerte" (je dunkler desto mehr am Schirmrand) und daher kommen dann auch die Linien.

Leider kann man den zumindest in den offiziellen Settings auch nicht abschalten.
 

RtZk

Lötkolbengott/-göttin
Ich habe zumindest eben eine Problemlösung gefunden, HDR im OSD des Monitors deaktivieren und weg sind die Wellen, nur ist das optisch ein riesiger Unterschied. Allerdings ist ingame HDR nicht aktiviert, da man bei RDR2 tollerweise HDR in Windows aktivieren muss und sobald man das tut das Spiel sofort abstürzt, egal ob mit Vulkan oder mit DX12, damit bin ich scheinbar auch nicht alleine geht vielen Leuten seit einem Patch, im Juni/Juli? soweit ich weiß so. Daher verändert nur der Monitor selbst die Farben ohne, dass das Spiel bestimmt welche, was wohl ein Problem bei RDR2 sein könnte.

Mit welcher Bildfrequenz läuft der? 10 Bit sind bei 4k nur bis zu 98Hz möglich! Weswegen ich meinen Monitor auf 98Hz begrenze.

120 Hz da nur ein DP angeschlossen war, habe gerade einen 2. angeschlossen jetzt lässt sich zwar 144 Hz aktivieren, aber ich kann nicht von 8 Bit auf 10 Bit wechseln und außerdem kann ich auch nicht auf 98 Hz überhaupt wechseln, generell lässt sich die BPC überhaupt nicht verändern, also auch nicht nach unten unabhängig von der Hz Zahl. Im OSD des Monitors habe ich nichts zu Bit überhaupt gefunden.

Dachte nur mit HDR wäre die Bandbreite so begrenzt das nur 98Hz möglich sind. !Halbwissen meinerseits!

Spielst du mit HDR? Hat das RDR2 am Pc ?:) Wenn ja stell es mal ab bzw. setze die Frequenz mal runter.
Welche Farbabtastung hast du eingestellt?

Ja aber nur über den Monitor, HDR in RDR2 gibt es zwar aber wie oben geschrieben nur bei Aktivierung in Windows und dann kratzt das Spiel sofort ab. Was meinst du mit Abtastung?

Das nächste tolle Problem ist jetzt, dass mein 2. Monitor nur noch auf 4k 30 Hz läuft da ich jetzt HDMI verwenden muss (GPU hat nur 2x DP) und auch mit einem zertifizierten Kabel für 4k 60Hz meiner Xbox das Ganze nicht mehr auf 60hz läuft :schief:.
 
G

Grestorn

Guest
Dann betont diese "HDR" Einstellung im Monitor (die ja nur ein Art Fake HDR aktiviert) den Effekt des Vignetten-Shaders. Das kann mein Monitor auch, der hat eine Funktion mit dem man dunkle Szenen aufhellen kann (als Game-Cheat gedacht) und das erzeugt - logischerweise - extremes Banding. Vermutlich ein ganz ähnlicher Effekt.
 

IphoneBenz

Software-Overclocker(in)
Ich habe gerade selbst ein Problem. Ich habe mir eine Custom Auflösung von 3200x1800 erstellt für Games die mit UHD nicht ganz wollen. Nur zeigt mir mein TV dann immer an das HDR nicht mehr funktioniert. Ist das normal oder übersehe ich etwas?

Bin via HDMI verbunden am TV. 60Hz UHD mit 422 und 12Bit. Sowieso komisch das ich 12Bit einstellen kann obwohl mein TV nur 10Bit können soll. Ist das egal oder vermurkse ich dann etwas wenn ich auf 12Bit gehe?
Danke erstmal. Drehe mich wahrscheinlich gerade im Kreis.
 
G

Grestorn

Guest
HDR ist ein ganz spezielles Displayformat, das vermutlich nicht mit variablen Auflösungen harmonisiert. Hätte mich auch gewundert, ehrlich gesagt. Mit der Bittiefe hat HDR nichts tun, prinzipiell reichen auch 8 bit dafür. Dann spreizen sich die Werte nur über einen größeren Bereich.
 
M

MSI-Fan

Guest
Hat von euch schon jemals HDR in Windows ordentlich betreiben können? Das sieht aus als wären die Farben ausgebleicht und selbst in Games mit HDR finde ich manche Games natürlicher ohne als mit.
 

Sharijan

Komplett-PC-Aufrüster(in)
Hallo zusammen,
Ich hab eine RTX 2080 ti und wollte damit eigentlich 240 FPS in Full HD in Spielen wie PUBG, Warzone, Apex und Co erreichen, aber leider schaff ich immer nur so um die 180 max obwohl die Grafikkarte nur bis ca 50-60% ausgelastet war. Jetzt hab ich versucht in 1440p so viel FPS wie möglich hinzubekommen, aber auch da schaff ich es nicht die Grafikkarte auszulasten und max FPS hinzubekommen, egal ob ich Low, High oder sonst was einstelle bei den Spielen.
Hat jemand eine Idee warum ich nicht das Maximum an FPS bekomme, also die Grafikkarte ganz ausgelastet wird?
Klar, CPU Limit, aber auch meine CPU ist max. bis zu 60% ausgelastet.

Mein System:
I9 9900k bei 5,0 GHZ auf allen Kernen
RTX 2080 ti bei stabilen 2040 MHZ
16 GB DDR4 Ram mit 3000 MHZ
Alle Treiber natürlich aktuell, Energiemodus auf Maximum.
 

RtZk

Lötkolbengott/-göttin
Das ist ein eindeutiges CPU Limit und da die Games schlicht nicht mit 16 Threads umgehen können ist die CPU im Limit eben nur zu 60% und nicht zu 100% ausgelastet.
Für solche Spiele und FPS Ansprüche ist noch keine CPU schnell genug und das wird auch noch lange dauern, da eine wachsende Kernzahl (die recht leicht zu realisieren ist) nichts bringt.
In Zukunft werden aber hoffentlich Games mehr Threads effektiv nutzen können.
 
Oben Unten