News Counter-Strike 2: Mit RTX 4090 über 500 Fps, sagt Nvidia

Hatte gestern bei einem Test mit Bots in den Standardvoreinstellungen des Spieles so um die 100 FPS (schwankend) mit einer RX 6600 XT unter Linux. Meine alte GTX 970 lieferte in CSGO um die 200 FPS, ebenfalls unter Linux. Und CS2 ruckelt auf meinem System, besonders bei Abschüssen. Lief so unruhig wie zuvor die Vulkan-Variante von CSGO. Am besten lief CS(GO) bei mir bisher in der OpenGL-Version auf besagter Nvidia. Ist aber auch schon über ein Jahr und länger her. Denke, dass Valve für CS2 da noch deutlich unter Linux nachbessern wird. OpenGL ist mit CS2 jedenfalls Geschichte. Getestet habe ich unter Xubuntu 22.04 mit Standardtreibern und Kernel (derzeit 6.2.0-33).

Na ja, momentan eh keine Zeit für CS. Mal schauen wie es Ende des Jahres unter Linux aussieht. Immerhin super, dass Valve direkt am Tag des Launches die Pinguin-Binaries bereitstellt. Bei so einem Spiel ein Novum. Apple-Symbol sehe ich bei dem Spiel bisher keines mehr. Wie sieht es da aus?
 
Zuletzt bearbeitet:
Aber wie sinkt denn die Latenz??? Der Server hat eine feste Tickrate von 128 Hz. Das heißt, Du bekommst alle ca. 8ms ein Update vom Gegner. Also 8 Samples pro Sekunde. Mit irgendwelchen Konfigurationen Pakete in 1000Hz zu spammen, geht mittlerweile nicht mehr. Folglich ist die Sample-Rate vom Server her fix. Edit: Somit müsste man das beste Spielerlebnis mit einer fixen Bildrate von 128 Hz haben.

Edit2: Und die 500Hz sind ja vermutlich auch so nicht ganz stimmig. Zwar kann man ein Display mit 500Hz ansteuern, aber ob es tatsächlich im Auge ankommt, hängt ja auch von der Pixel-Reaktionszeit ab, und Farbe zu Farbe mit 2ms klingt sehr unrealistisch. Selbst für G2G ist der Wert sehr gut.

Wenn Du auf Deiner Seite 500 Samples pro Sekunde darstellen könntest, bringt Dir das nichts! Lediglich Deine eigene Bewegung auf deinem eigenen Gerät wird evtl. minimal flüssiger dargestellt, aber das bringt keinen kompetitiven Vorteil über 128 Hz, weil es sowieso nicht an den Server geschickt wird.
Es geht um die Latenz von deinem Monitor und deine Reaktionszeit. Egal, was die Tickrate ist, deine Reaktionszeit verbessert sich und das hat Wert.

Das mit dem "wird nur in 128 Hz an den Server geschickt" stimmt auch nicht mehr, CS2 benutzt jetzt auch Interpolation bei der Hit Detection. Also zählt jede Millisekunde zwischen den Ticks.

Deine Bildwiederholrate auf 128 fps zu limitieren bringt übrigens auch nichts. Die Tickrate und die Framerate laufen komplett unabhängig voneinander und die Frametimes sind halt auch nicht immer gleich. Das bekommst du nicht synchronisiert. Wegen der Tickrate brauchst du dir bei der Framerate also keine Gedanken zu machen.
 
Zuletzt bearbeitet:
Die Tickrate und die Framerate laufen komplett unabhängig voneinander
Das bezweifle ich sehr stark. Wenn ein Tick keinen Redraw auslöst - insbesondere wenn die Frames permanent über 128 sind, dann hätte ich die Programmierer bei Valve wirklich extrem unterschätzt. Denn das ist die absolut einfachste Methode, um überall die gleichen (absolut optimalen) Bedingungen zu schaffen.

Sofern Valve das (entgegen meiner Einschätzung) nicht synchronisiert hat, kann man tatsächlich im Bereich von 6ms etwas hinzugewinnen. Das gleiche kann man allerdings hinzugewinnen, bei jeder beliebigen Rate, die nicht 128 Hz ist. Je mehr Hz man hat, umso öfter tritt dann der Fall auf, dass man ein paar ms dazugewinnt. "Im Bereich" heißt real, dass es komplett schwankt, je nachdem, wie die unsynchronisierte Framerate auf die jeweiligen Ticks trifft.

Aber wenn es, auch wenn nicht absichtlich, zufällig die Ticks kurz vor dem Bild-Redraw macht, dann hat man mit 128 Hz auch immer die geringste Latenz und mit jeder anderen Rate eine höhere.
Edit: Also wenn das Spiel ideal programmiert ist, kann man mit keiner Bildrate neben 64/128 Hz eine bessere Latenz bekommen.

Das mit dem "wird nur in 128 Hz an den Server geschickt" stimmt auch nicht mehr, CS2 benutzt jetzt auch Interpolation bei der Hit Detection. Also zählt jede Millisekunde zwischen den Ticks.
Ne. Das heißt nur, dass der Spieleclient jetzt, wenn Du z.B. schießt, die Informationen über den Schuss zwischenspeichert zu dem Zeitpunkt, an dem Du ihn abgegeben hast, und dann im Zeitpunkt des Ticks sendet. Vorher wurde erst zum Zeitpunkt des Ticks so getan, als hättest Du in dem Moment des Ticks geschossen.

Der Subtick findet nur auf Deinem eigenen Rechner statt. Gesendet an den Server wird weiterhin in 128 Hz (oder gar nur 64). Das heißt, dass der Gegner auch erst dann sieht, was Du gemacht hast, wenn der Tick stattgefunden hat. Er bekommt auch jetzt nicht zwischen den Ticks irgendetwas zugeschickt.

Edit: BTW, wenn ich mich nicht täusche, zockte man auch in der Vergangenheit in der Regel ohne Gegnerinterpolation, weil es sonst passieren konnte, dass ein Gegner, der schon umgedreht ist, im Zeitraum von bis zu einem Tick auf dem eigenen Bildschirm noch in die gleiche Richtung rennt. Also Interpolation ist in der Regel ungenau. Genaue Daten hat man nur mit jedem Tick. Aber ohne Interpolation sehen die Bewegungen natürlich weniger flüssig aus, wenn man mehr als 64/128 FPS hat.

Edit2: Achja nur zur Ergänzung falls jetzt das Argument kommt: Deine Maus hat 250-1000 Hz und somit weiß das Spiel, wo Du hinschaust, deutlich feiner als Du es auf dem Bildschirm selbst siehst - brauchst dafür also kein Bild malen um das zu updaten (jedenfalls mit Subticks nicht).
 
Zuletzt bearbeitet:
Hatte gestern bei einem Test mit Bots in den Standardvoreinstellungen des Spieles so um die 100 FPS (schwankend) mit einer RX 6600 XT unter Linux. Meine alte GTX 970 lieferte in CSGO um die 200 FPS, ebenfalls unter Linux. Und CS2 ruckelt auf meinem System, besonders bei Abschüssen. Lief so unruhig wie zuvor die Vulkan-Variante von CSGO. Am besten lief CS(GO) bei mir bisher in der OpenGL-Version auf besagter Nvidia. Ist aber auch schon über ein Jahr und länger her. Denke, dass Valve für CS2 da noch deutlich unter Linux nachbessern wird. OpenGL ist mit CS2 jedenfalls Geschichte. Getestet habe ich unter Xubuntu 22.04 mit Standardtreibern und Kernel (derzeit 6.2.0-33).

Na ja, momentan eh keine Zeit für CS. Mal schauen wie es Ende des Jahres unter Linux aussieht. Immerhin super, dass Valve direkt am Tag des Launches die Pinguin-Binaries bereitstellt. Bei so einem Spiel ein Novum. Apple-Symbol sehe ich bei dem Spiel bisher keines mehr. Wie sieht es da aus?

UPDATE:

Erstmal hab ich den Gamemode (CPU governor) aktiviert. Das bringt auf meinem System (i7 6700K) schon mal 10-20% mehr FPS, allerdings immer noch kein befriedigendes Ergebnis. Nach wie vor Microruckler ohne Ende. Dann habe ich einfach aus Spaß mal das in-game VSync aktiviert, was die FPS auf 60 begrenzte. Das Ergebnis war sehr beeindruckend. Das Spiel läuft damit auf meinem System so flüssig wie Doom. Und das in hohen Einstellungen. Unter CSGO hatte ich VSync immer aus, weil es nie funktionierte und das Bild damit noch unruhiger wurde. Aber CS2 macht da bei mir eine extrem gute Figur. So flüssig lief das Spiel auf meiner Linux-Büchse nach meiner Erinnerung noch nie. Ich erkenne da gar keine Ruckler mehr.

Ehrlich gesagt: Wenn das Spiel Frame-Perfekt läuft (und danach sieht es aus), dann entfällt für mich die ganze Sync-Diskussion mit 144Hz u.s.w.. Freilich, wenn man die Hardware hat, dann darf man sie auch nutzen. Aber ich spiele auf einem 60Hz Bürobildschirm von Eizo. Allerdings bin ich recht empfindlich für Ruckler und bei FPS-Games stören die mich durchaus. Einfach aus ästhetischen Gründen. In CS2 bemerke ich davon mit VSync jetzt allerdings gar nichts mehr. Kann das noch jemand bestätigen?
 
Das bezweifle ich sehr stark. Wenn ein Tick keinen Redraw auslöst - insbesondere wenn die Frames permanent über 128 sind, dann hätte ich die Programmierer bei Valve wirklich extrem unterschätzt. Denn das ist die absolut einfachste Methode, um überall die gleichen (absolut optimalen) Bedingungen zu schaffen.

Das brauchst du nicht zu bezweifeln, das ist so. Und zwar bei eigentlich jedem Mehrspieler-Spiel, welches x-beliebige Framerates unterstützt. Du kannst dir auch gerne die Source-Entwickler-Wiki dazu durchlesen. Die Tickrate auf dem Client und dem Server ist gleich und ist im Prinzip ein Timer, der ab Erstellen des Servers von 0 losläuft und bei jedem Tick wird die Spielwelt berechnet und was sich verändert hat.

Bei der Framerate wird jedes Einzelbild interpoliert. Das Spiel berechnet bei dir immer mindestens einen Tick im Voraus, damit das Zwischenbild der beiden Ticks erstellt werden kann. Wenn ein Spieler in einem Tick von 0,0 nach 100,100 läuft, dann würde ein Frame genau in der Mitte gerendert den Spieler in der Position 50,50 zeigen, obwohl das natürlich nie der Fall gewesen ist, der Server kennt nur die beiden genannten berechneten Positionen. So funktioniert Interpolation bei der Framerate.

Aber wenn es, auch wenn nicht absichtlich, zufällig die Ticks kurz vor dem Bild-Redraw macht, dann hat man mit 128 Hz auch immer die geringste Latenz und mit jeder anderen Rate eine höhere.
Edit: Also wenn das Spiel ideal programmiert ist, kann man mit keiner Bildrate neben 64/128 Hz eine bessere Latenz bekommen.
Nein, so funktioniert das nicht. Wie gesagt setzt die Engine, auch um Dinge wie Paketverlust ausgleichen zu können, voraus, dass immer mindestens ein Tick im Voraus berechnet wird.

Dir muss ja auch klar sein, dass der Server hauptsächlich die Ticks berechnet. Die Information, dass gleich ein Gegner um die Ecke kommt, wird vom Server zu deinem Client übers Netzwerk gesendet.

Zusammengefasst: Dein Client liegt immer mindestens einen Tick zurück und der Server sendet die Infos. Das bedeutet bei gleichbleibender Netzwerklatenz: je höher deine Framerate, desto eher siehst du den Gegner um die Ecke kommen. Punkt. Der Versuch einer Synchronisation ist dank immer eingeschalteter Interpolation kontraproduktiv.

Ne. Das heißt nur, dass der Spieleclient jetzt, wenn Du z.B. schießt, die Informationen über den Schuss zwischenspeichert zu dem Zeitpunkt, an dem Du ihn abgegeben hast, und dann im Zeitpunkt des Ticks sendet. Vorher wurde erst zum Zeitpunkt des Ticks so getan, als hättest Du in dem Moment des Ticks geschossen.
Was anderes habe ich auch nicht behauptet. Aber du sagtest, höhere Framerates bringen nichts, weil es nicht an den Server geschickt wird, und das stimmt daher so eben nicht. Wenn du mit 128 Bildern pro Sekunde spielst, dann feuerst du einen Schuss ab basierend auf einem der 128 Bilder, die du siehst. Aber der Server kann jetzt nicht nur eins von 128 Bildern berechnen, sondern unendlich. Also hast du mit 500 Bildern pro Sekunde einen "sichtbaren" Vorteil. (Get it?)

Edit: BTW, wenn ich mich nicht täusche, zockte man auch in der Vergangenheit in der Regel ohne Gegnerinterpolation, weil es sonst passieren konnte, dass ein Gegner, der schon umgedreht ist, im Zeitraum von bis zu einem Tick auf dem eigenen Bildschirm noch in die gleiche Richtung rennt. Also Interpolation ist in der Regel ungenau. Genaue Daten hat man nur mit jedem Tick. Aber ohne Interpolation sehen die Bewegungen natürlich weniger flüssig aus, wenn man mehr als 64/128 FPS hat.
Da täuschst du dich, aber deine Aussage beißt sich ja auch in der Logik. Alles, was zwischen zwei Ticks interpoliert wird, ist ja nie passiert. Wie soll ein Gegner denn mitten in einem Tick die Richtung ändern?

Na gut, in CS2 kann man jetzt natürlich auch zwischen Ticks die Richtung ändern. Aber auch da wird ja ein volles Datenpaket vom Server zu deinem Client gesendet und dann zwischen den Eingabebefehlen interpoliert. Dein Client berechnet, wie ich mehrfach erwähnte, einen Tick im Voraus. Das gehört zur Interpolation dazu. Von daher ist alles, was du siehst, auch so auf dem Server passiert. So etwas wie verpasste Richtungswechsel des Gegners kann nur bei starkem Paketverlust oder bei Prediction Errors vorkommen.

Edit2: Achja nur zur Ergänzung falls jetzt das Argument kommt: Deine Maus hat 250-1000 Hz und somit weiß das Spiel, wo Du hinschaust, deutlich feiner als Du es auf dem Bildschirm selbst siehst - brauchst dafür also kein Bild malen um das zu updaten (jedenfalls mit Subticks nicht).
Schön und gut, aber eine höhere Framerate hilft nun mal trotzdem deiner Reaktionszeit und du siehst Gegner früher. Die Maus hat jetzt nix mit dem Thema zu tun.
 
Aber wie sinkt denn die Latenz??? Der Server hat eine feste Tickrate von 128 Hz. Das heißt, Du bekommst alle ca. 8ms ein Update vom Gegner. Also 8 Samples pro Sekunde. Mit irgendwelchen Konfigurationen Pakete in 1000Hz zu spammen, geht mittlerweile nicht mehr. Folglich ist die Sample-Rate vom Server her fix. Edit: Somit müsste man das beste Spielerlebnis mit einer fixen Bildrate von 128 Hz haben.

Edit2: Und die 500Hz sind ja vermutlich auch so nicht ganz stimmig. Zwar kann man ein Display mit 500Hz ansteuern, aber ob es tatsächlich im Auge ankommt, hängt ja auch von der Pixel-Reaktionszeit ab, und Farbe zu Farbe mit 2ms klingt sehr unrealistisch. Selbst für G2G ist der Wert sehr gut.

Wenn Du auf Deiner Seite 500 Samples pro Sekunde darstellen könntest, bringt Dir das nichts! Lediglich Deine eigene Bewegung auf deinem eigenen Gerät wird evtl. minimal flüssiger dargestellt, aber das bringt keinen kompetitiven Vorteil über 128 Hz, weil es sowieso nicht an den Server geschickt wird.
Hast nicht ganz Unrecht, denke aber mal, dass man nicht nur AVG betrachten sollte, die Min sind hier wohl wichtiger. Aber ja, alles über 100Fps ist für Normalos sicher nicht notwendig
 
Beschwert euch nicht, die PR-Abteilungen von E-Sport und Monitorabteilungen brauchen auch was zu tun.

Aber ich bin mir sicher in VGA 320 x 200 sind problemlos 50.000 FPS möglich :-D

VG,

P.S. spielt das CS1 eigentlich noch jemand? :-D
 
Das brauchst du nicht zu bezweifeln, das ist so. Und zwar bei eigentlich jedem Mehrspieler-Spiel, welches x-beliebige Framerates unterstützt.
Du hast mich mit Deiner Argumentation überzeugt. Vermutlich läuft das mittlerweile so wie Du beschrieben hast. Aber ich bin auch kein echter Freund mehr von Counterstrike - fühlt sich seit Source stärker nach Battlefield oder einem X-beliebigen anderen Shooter an, und hat nicht mehr diese Reaktionspräzision meiner Meinung nach.
 
weil bei mir ja auch 5ms oder 15ms nen unterschied machen... bei den wnigsten wohl, da musst ja schon auch den perfekten monitor haben usw.... für die die damit geld verdienen richtig und wichtig für den rest halt wie son bugatti veron, schöne technik aber brignt uns nix
 
Schafft er, der ist einfach mal unter 1 ms. Bei Farbwechseln in dunklere Bereiche eher 0.3-0.5ms. Der Zowie 360 ist auch unter 2ms. Aber ich schiele trotzdem mehr auf OLED.
Gibts schon nen Test dazu?
Wo sind das bitte unter 2ms beim Zowie?
https://www.rtings.com/assets/pages/M5bkTM18/tables-max-premium-large.jpg
Schnitt ja, aber mit Overshoot und selbst dann nicht in jedem Bereich.
 
@JoM79 Der Zowie liegt mit AMA Premium im durchschnitt unter 2ms. Was will man mehr? Was für Overshoot? Das 'nen e-sport TN Monitor. :D
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück