60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Sync muss man nie abstellen, da Freesync den Inputlag nicht erhöht (falls man eine AMD Karte besitzt). YouTube

Die Definition von Sync beschreibt ja schon die Erhöhung des Inputlag. Spätestens wenn man mehr fps als Refreshrate hat.
Entweder greift dann VSync oder man limitiert auf 144hz. Dann hat man weniger fps als möglich und, auch wenn es sehr gering ist, eine Verzögerung.
Abhilfe schaffen Monitore mit einer noch höheren Bildwiederholrate.
In Singleplayer games ist das alles zu vernachlässigen. Im Shooter ist jede ms wichtig.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

In Singleplayer games ist das alles zu vernachlässigen. Im Shooter ist jede ms wichtig.
Wenn ich überlege wie gut ich eigentlich früher im MP gespielt habe.
Mit 60 Hz und einer billigen Maus.
Es wäre noch mehr drinne gewesen aber habe trotzdem gut mitgemischt.
Ja das waren noch Zeiten.:devil:
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Da war highrefresh noch kein Thema.
Mittlerweile ist es Pay to win.
Klar wird ein schlechter Spieler kein Pro aber Spieler die wechseln werden besser.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Die Definition von Sync beschreibt ja schon die Erhöhung des Inputlag. Spätestens wenn man mehr fps als Refreshrate hat.
Entweder greift dann VSync oder man limitiert auf 144hz. Dann hat man weniger fps als möglich und, auch wenn es sehr gering ist, eine Verzögerung.
Abhilfe schaffen Monitore mit einer noch höheren Bildwiederholrate.
In Singleplayer games ist das alles zu vernachlässigen. Im Shooter ist jede ms wichtig.

Nicht spätestens sondern nur wenn. Soweit ich das verstanden habe, ging es in dem Post, den du zitiert hast, um 75 FPS bei 144 bis 240Hz. Davon abgesehen verringert es den Input Lag, wenn man einen Limiter benutzt, um nicht im GPU Limit (<95% Auslastung) zu sein.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Man braucht immer noch keine 240FPS, um daraus einen Vorteil aus 240Hz zu ziehen.

Ich empfehle hierfür die aktuelle Ausgabe der PCGH zu lesen.
https://www.pcgameshardware.de/PC-G...CGH-01-2020-Magazin-DVD-Download-PDF-1338108/
Das hat mir auch etwas mit dem Verständniss geholfen. Ich nutze einen FreeSync Monitor der mit bis zu 144Hz arbeitet. In den wenigsten Spielen habe ich mehr als 100 FPS aber ich habe eben diesen Spielraum. Bisher habe ich meine FPS zusätzlich immer über den Treiber auf 141 abgeriegelt. Auf die Idee zusätzlich VSync einzuschalten bin ich nie gekommen.

Lustig ist, dass ich meistens also mit 40 - 100Hz spiele (spiele kaum AAA-Titel welche meist gut optimiert sind) und die vollen 144Hz höchstens auf dem Desktop anliegen. Ich bin damit aber voll zufrieden. Ich spiele auch keine Multiplayer shooter weshalb mir der Inputlag relativ egal sein kann. Zu den Zeiten als ich noch Esport gespielt habe gab es höchstens 75Hz und gerade so die ersten -bezahlbaren- Flachbildschirme ^^

Heute ist der Kauf des "richtigen" Monitors eine Wissenschaft für sich.
 
Zuletzt bearbeitet:
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Gekapselt betrachtet hat eine höhere Frequenz IMMER Vorteile. Die muss man nicht "nutzen", die nutzt man automatisch.
Wenn f = 60Hz, dann ist gemäß T = 1 /f = 1/60Hz = 16,67ms. Das ist die Zeit, die ein 60Hz Monitor braucht, um ein neues Bild darzustellen bzw. das Bild zu aktualisieren. Mit steigender Frequenz verringt sich die Periodendauer und somit verkürzt sich die Zeitspanne, bis ein neues Bild dargestellt werden kann.

Bei einem "stehenden" Bild wird man natürlich keinen Unterschied sehen.
Um bei bewegten Bildern stuttering zu vermeiden, muss entweder die Bildwiederholfrequenz ein ganzzahliges vielfaches der erzeugten Bilder (fps) betragen oder der Zeitpunkt der Erzeugung mit dem Zeitpunkt der Ausgabe synchronisiert werden.

Ein Spiel, das exakt mit 60Fps auf einem 120Hz Bildschirm läuft, wirkt somit flüssiger als unsychronisierte 60Fps über 60Hz. Es muss aber kein Spiel sein, denn auch im Desktopbetrieb sieht man sofort einen Unterschied, wenn man die Maus bewegt, Fenster verschiebt oder Textseiten scrollt.

Eine wichtige Rolle spielt aber auch die Schaltzeit, die maßgeblich für tearing ist.

Wer Fehler findet, darf sie gerne korrigieren
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Davon abgesehen verringert es den Input Lag, wenn man einen Limiter benutzt, um nicht im GPU Limit (<95% Auslastung) zu sein.
Warum soll ich im MP aber freiwillig auf die FPS verzichten?
Wenn die Graka nicht alles gibt verschenke ich fps und somit fehlt mir, sagen wir mal, jedes 10. Bild. Ist doch auch blöd.
Das ist dann das 10. Bild welches den Gegner 1mm weiter rechts gezeigt hätte. Dazu muss der Monitor allerdings dementsprechend oft refreshen.

Deswegen 240hz und alles ist egal. Sync aus und fertig.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Ich bin mir sicher, der Industrie fallen schon noch genug Gründe ein, warum man in Zukunft mit 480Hz oder 960Hz zocken soll... Schließlich wird die Zeit kommen in der einem auch Monitore mit 240Hz hinterhergeworfen werden.

Zu dem Zeitpunkt, werde ich vermutlich schön gemütlich mit meinem 30"-4K-240-Hz-OLED-Monitor für 150€ zocken. Sollen sie doch wen anderes finden, der ihnen dann ihre 42"-16K-1200-Hz-Monitore für 2.500€ abkauft.

Ich nutze seit fast zehn Jahren schon Monitore mit mehr als 60 Hz. Letztere sehen einfach unglaublich verwaschen, fad und ruckelig aus. Meist reichen auch weniger Fps aus, die Vorteile durch mehr Hz hat man trotzdem.

Beim Arbeiten, wo ich 60-Hz-Monitore habe, merke ich eigentlich kaum einen Unterschied. Vielleicht waren die 60-Hz-Monitore allgemein Schrott? ;)

Lieber mehr Pixel auf dem Schirm, der Effekt ist viel stärker.

Warum nicht beides? ;)

Die Bildwiederholfrequenz braucht genau 0 Rechenleistung.

Bringt mit Adaptive Sync aber auch nichts, oder? Ohne will ich irgendwie nicht mehr so gerne.

Ich will mal wissen wie du Battlefield spielst.

Mit Controller vermutlich.

Warum soll ich im MP aber freiwillig auf die FPS verzichten?

Ich weiß nicht, ob das mit Adaptive Sync besser ist, aber ohne finde ich auch mit 144 Hz starke Schwankungen in der Framerate unangenehm. Und die Information auf dem Screen ist ja nur eine Komponente. Was bringen dir alle Informationen der Welt, wenn du nach einer Stunde platt bist? Aber vielleicht geht dir das ja einfach nicht so.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Ging mir mehr darum, dass er meint Battlefield sein ein langsamer shooter. Oder gibts bei der Konsole keine Alternative für die Shifttaste?

Naja, ich meinte eher bezogen auf schnelle Rotationen und beim Zielen. Da ist es doch am extremsten. Aber tatsächlich halte ich BF auch nicht für einen wirklich schnellen Shooter. Eher so Mittelfeld. Hat sich aber vielleicht auch seit BF3 geändert. Vielleicht sogar schon während BF3 mit gefühlt fünften Add-On.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Für mich ist BF schnell. Bzw. kann schnell sein. Da spielt aber der Spielstil auch eine große Rolle. Der schnellste Shooter ist es sicherlich nicht aber langsam möchte ihn definitiv nicht nennen.
Auf jedenfall ist man schnell tot :lol:
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Warum soll ich im MP aber freiwillig auf die FPS verzichten?
Wenn die Graka nicht alles gibt verschenke ich fps und somit fehlt mir, sagen wir mal, jedes 10. Bild. Ist doch auch blöd.
Das ist dann das 10. Bild welches den Gegner 1mm weiter rechts gezeigt hätte. Dazu muss der Monitor allerdings dementsprechend oft refreshen.

Deswegen 240hz und alles ist egal. Sync aus und fertig.

Nein, so läuft das nicht. Bei 60 FPS braucht ein Frame ca. 17 ms. Plus 5 Prozent Leistung ergibt ca. 16 ms. 10 bis 30 ms zusätzlicher Lag bei 100% Auslastung ergibt 9 bis 29 ms mehr Latenz. YouTube
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Warum nicht beides? ;)

Money ;)
Ich hab jetzt einen UHD 144Hz aber Acer (oder IPS generell) haben unglaublich Probleme mit Backlightbleeding.
Der Monitor hatte mal eine UVP von 1000€, und ich hab schon den 3. aufgrund mießerabler Ausleuchtung.

VA und 27/28" UHD gibt es Praktisch keine, >120 HZ machts nicht besser.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Zu dem Zeitpunkt, werde ich vermutlich schön gemütlich mit meinem 30"-4K-240-Hz-OLED-Monitor für 150€ zocken. Sollen sie doch wen anderes finden, der ihnen dann ihre 42"-16K-1200-Hz-Monitore für 2.500€ abkauft.
Das wäre ja ein Traum. Ich denke aber nicht, dass man jemals 16k auf 40 Zoll oder so bauen wird. Selbst bei den Handydisplays ist man ja von 4k auf WQHD zurückgegangen im Highend-Bereich.

Mit meinem 28" 4k Display habe ich ca. 150dpi bei knapp einem Meter Entfernung. Ich denke nicht, dass ich mir jemals in meinem Leben mehr wünschen werde dahingehend. Den Unterschied zu FullHD auf 27" (mein Zweitbildschirm) sieht man jedoch deutlich. Habe dazu testweise mal Spiele auf dem FullHD-Monitor mittels VSR in 4k gestartet. Sieht alles deutlich unschärfer aus, auch wenn man natürlich für FullHD-Verhältnisse eine wirklich tolle Darstellung ohne Kantenflimmern hat.
Dass man so einen Unterschied nochmal bei dem Sprung von 4k auf 8k bemerken würde, bezweifel ich stark. (Und ich habe noch nichtmal Downsampling auf meinem 4k-Bildschirm genutzt)
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Den Unterschied zu FullHD auf 27" (mein Zweitbildschirm) sieht man jedoch deutlich. Habe dazu testweise mal Spiele auf dem FullHD-Monitor mittels VSR in 4k gestartet. Sieht alles deutlich unschärfer aus, auch wenn man natürlich für FullHD-Verhältnisse eine wirklich tolle Darstellung ohne Kantenflimmern hat.

Ja, sicherlich. Ich sehe das quasi täglich, wobei das ein noch härterer Fall ist, weil mein TV FHD ist und ich ihn am Rechner betreibe. D.h. mein WQHD-27"-Monitor zeigt dann FHD an, weil die Displays geklont werden und der TV halt der kleinere gemeinsame Nenner ist. Ist aber wie gesagt, noch mal was anderes als natives FHD. Aber *brrr*. ;)

Und klar kann man mit Supersampling viel machen, aber wenn die Details zu filigran sind, flimmert es tatsächlich trotzdem etwas. Mit WQHD auf 27" statt früher FHD auf 24" ist es auch schon deutlich angenehmer geworden. Da reicht auch manchmal ein simples PostAA.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Dir ist hoffentlich klar, dass eine 10 bit Farbauflösung pro Farbkanal so gar nichts mit HDR bzw. der Beleuchtung zu tun hat.
10 bit Monitore gibt es seit Jahrzehnten.
Ich hab auch 2 davon Daheim stehen - und die sind inzwischen beinahe 10 Jahre alt.

Nein nein, hat sicher nichts mit dem Kontrast und dadurch direkt mit der Helligkeit zu tun - ganz klar. Und man sieht dann auch so einen großen unterschied bei 10bit wenn das Ding dann nicht den dynamischen Umfang hat um die Farbabstufungen überhaupt darzustellen -.-
Wenn man keine Ahnung hat - nachlesen oder Klappe halten.
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Jeder, der nur ein bisschen davon versteht, wie ein Video aufgebaut ist, dass es im Grundprinzip nur aus Fotos besteht, die rekursiv aufeinanderfolgen, derjenige weiß auch, dass die Anzahl, mit der die Bilder pro Sekunde (Signal pro Takt: Bildwiederholfrequenz) geschalten werden, einschließlich der Zwischenbilder (Predictive-coded Picture, P-Frame); Bidirectionally Predictive-coded Picture, B-Frame; Intra Picture, I-Frame), dass daraus der Motionflow des Videos generiert wird.

Natürlich resultieren aus 100 Bildern pro Sekunde zweimal so viele Bilder wie mit nur 50 Bildern pro Sekunde. Jedoch wird ein Video nicht automatisch flowiger, wenn die Bilder des Recordings in lediglich verdoppelt werden, praktisch ein jedes Bild in seiner Zeitintervalle gekürzt wird, schon gar nicht wenn der Kompression wegen (MPEG) Bilder entfallen und ihre Informationen in lediglich der Abschätzung später hinzugefügt werden, praktisch dem Verfahren, doppeltes Bild - weg - wird später aus einer Vorhersage der dazwischen liegenden Bilder hinzugerechnet. Das reduziert nur das, was man unter Flickern/Flimmern versteht. Die Zeit, mit der die eine und die selbe Bewegung aus den beiden Bildern erfolgt, vormals ein einziges Frame gewesen, denn es ist additiv das gleiche Bild, bleibt gleich. Der Kameraschwenk in einer Fußballübertragung wird dadurch nicht automatisch frei vom Ruckeln, es verdoppelt sich einzig die Vertikalfrequenz, das Flimmern durch die Sichtbarkeit der Schaltfrequenz reduziert sich, die Bewegung bleibt gleich - stotternd.

Ein Video, ein Game ist im Grundkonzept nichts anderes, nur dass es in Echtzeit generiert wird, muss mit echten 100 Bildern pro Sekunde daherkommen, wenn es flowiger wirken soll als es das mit 50 Hz tut. Ein jedes Picture/Frame muss ein eigenständiges Motion enthalten, eine fortlaufende Bewegung, von der keine aus einer Verdopplung entstanden ist. Zwei Bilder des gleichen Inhalts pro Sekunde zeigen auch nicht mehr Flow wie ein einziges Bild desselben Inhalts. Der ach so teure 200-Hz-Fernseher entfernt aus der Sportübertragung nicht das Ruckeln bei Kameraschwenks. Die Aufnahmen erfolgen nur in 60 Hz, 60 Vollbilder mit Informationen, sie zu verdoppeln bringt nichts.
 
Zuletzt bearbeitet:
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten

Jeder, der nur ein bisschen davon versteht, wie ein Video aufgebaut ist, dass es im Grundprinzip nur aus Fotos besteht, die rekursiv aufeinanderfolgen, derjenige weiß auch, dass die Anzahl, mit der die Bilder pro Sekunde (Signal pro Takt: Bildwiederholfrequenz) geschalten werden, einschließlich der Zwischenbilder (Predictive-coded Picture, P-Frame); Bidirectionally Predictive-coded Picture, B-Frame; Intra Picture, I-Frame), dass daraus der Motionflow des Videos generiert wird.

Natürlich resultieren aus 100 Bildern pro Sekunde zweimal so viele Bilder wie mit nur 50 Bildern pro Sekunde. Jedoch wird ein Video nicht automatisch flowiger, wenn die Bilder des Recordings in lediglich verdoppelt werden, praktisch ein jedes Bild in seiner Zeitintervalle gekürzt wird, schon gar nicht wenn der Kompression wegen (MPEG) Bilder entfallen und ihre Informationen in lediglich der Abschätzung später hinzugefügt werden, praktisch dem Verfahren, doppeltes Bild - weg - wird später aus einer Vorhersage der dazwischen liegenden Bilder hinzugerechnet. Das reduziert nur das, was man unter Flickern/Flimmern versteht. Die Zeit, mit der die eine und die selbe Bewegung aus den beiden Bildern erfolgt, vormals ein einziges Frame gewesen, denn es ist additiv das gleiche Bild, bleibt gleich. Der Kameraschwenk in einer Fußballübertragung wird dadurch nicht automatisch frei vom Ruckeln, es verdoppelt sich einzig die Vertikalfrequenz, das Flimmern durch die Sichtbarkeit der Schaltfrequenz reduziert sich, die Bewegung bleibt gleich - stotternd.

Ein Video, ein Game ist im Grundkonzept nichts anderes, nur dass es in Echtzeit generiert wird, muss mit echten 100 Bildern pro Sekunde daherkommen, wenn es flowiger wirken soll als es das mit 50 Hz tut. Ein jedes Picture/Frame muss ein eigenständiges Motion enthalten, eine fortlaufende Bewegung, von der keine aus einer Verdopplung entstanden ist. Zwei Bilder des gleichen Inhalts pro Sekunde zeigen auch nicht mehr Flow wie ein einziges Bild desselben Inhalts. Der ach so teure 200-Hz-Fernseher entfernt aus der Sportübertragung nicht das Ruckeln bei Kameraschwenks. Die Aufnahmen erfolgen nur in 60 Hz, 60 Vollbilder mit Informationen, sie zu verdoppeln bringt nichts.

Schmarrn... Hab jetzt aber kein Bock dir das zu erklären, vllt. kommst du ja selber drauf, warum...
 
AW: 60 vs. 144 vs. 240 Hz-Gaming: Nvidia erklärt die Vorteile hoher Bildraten



Ähm, ne.
Du vermischst 2 völlig verschiedene Welten.
Ein Film im 24p/50p/60p erzeugt in erster Linie einen gewissen Look. Ein Film in 24p ist ein Film und wirkt auch so. Da Ruckeln liegt nunmal an der LCD Technik.
Das was beim TV 1000hz sind, sind zwischenberechnete Bilder und sehen Schei.e aus.
Das hat aber rein gar nichts mit hohen hz an einem Monitor zu tun. Das ist wie Schuhe mit nem Pullover zu vergleichen.

Beim Gaming ist eine hohe Refreshrate nicht da um Zwischenbilder zu berechnen.
Beim TV versucht man die 24/50 Bilder pro Sekunde nicht 16,7ms lang anzuzeigen. Zum Beispiel durch besagte Zwischenbilder oder schwarze eingefügte Bilder. Bissl Motion Blur dazu und hoffentlich ruckelts nicht.

Beim Zocken gibt es erstmal ne ganz andere Grundlage. Oder zockst du mit 24p? Na viel Erfolg.

Es geht um die Anzeige Vieler verschiedener Bilder und Verringerung von Tearing. Auch wenn 2 Refeshs das, selbe bild darstellen, bedeutet es, dass der Monitor das Bild nicht nochmal 16,7ms anzeigt. Sondern, dass er nach 16,7ms/4 wieder refresht und wenn ein neues Bild da ist, wird es gezeigt. Nei 60hz dauerts dann zu lange bis zum nächsten Refesh.

Bilder von Games in fps kann man mit fps in Filmen überhaupt nicht vergleichen. Deswegen macht dein vieler Text null Sinn.
 
Zurück