360 Hz Monitore: Erkennen PCGH-Redakteure den Unterschied?

Die angaben des Bildes Stimmen sagt aber nicht aus das die Ausgabe ohne tearing wird wenn nur bsp 45fps gerendert werden und nativ dann 144hz laufen das wird definitiv tearing geben
Klar könnte der monitor dann Zusatzbilder dazwischen schieben aber woher bitte.
Wenn ich den angaben trauen kann müsste die gpu Zwischenbilder zu den fps addieren damit es auf 144fps Ausgabe kommt.
Das bedingt eine latenz und wird als Vorgerenderte Bilder angegeben
Da per se immer 2 frames vorliegen müssen wegen der Berechnung wären dann 45fps min 7 frames nötig
Ein frame hat dann 6,9ms =49ms
Das merkt man deutlich da darauf nochmal Reaktionszeit und Mauslatenz addiert wird..
Ergebnis wenn nur 45fps erreicht werden und das modul die fehlenden interpoliert wird daraus im besten fall 49ms und im schlechtesten fall 60-100ms
Plus eigene reaktionzeit wo ich aber die maus rausnehmen muss üblich sind 20ms
also 80+250ms=330ms das kann schon zwischen tod und leben entscheiden im Spiel

Das wird man nicht sehen aber merken tut man es deutlich
Einzige Lösung ist dann mehr fps als durchschnitt. min bei 240hz also 160hz/fps
Und da wird es schwer passsende GPu zu finden.
Den ein frame zusätzlich merkt man nicht.
Anbei sind das OC ips panels ich schwöre auf va das neigt sich zwar eher zu schmieren aber das leicht beschleunigte also amva ahva ist ein guter Kompromiss den schwarz ist hier wirklich schwarz.
Und nicht grau
Von dynamischen Kontrast halte ich nix
mal zum reaktionzeit testen
 
Die angaben des Bildes Stimmen sagt aber nicht aus das die Ausgabe ohne tearing wird wenn nur bsp 45fps gerendert werden und nativ dann 144hz laufen das wird definitiv tearing geben
Nochmal:
FPS sind nicht gleich Hz, dies musst du lernen zu unterscheiden, das wird sonst hier nichts.
Die Bildaktualisierung eines fetigen Bildes erfolgt innerhalb der Range mit maxHz, also bei einem 240Hz Monitor IMMER mit 1000/240ms, egal welche FPS. Der SCANOUT ist IMMER bei maxHZ, das hat mit den FPS 0,nix zu tun.
Beim Scanout ist es auch egal ob Sync oder nicht, der inhalt des Bildes ist dem "Scanout" total egal. Daher ist es auch egal ob Sync (egal welches) oder nicht.
Lies dir das auf blurbusters mal komplett durch, ich kann es dir auch nicht besser erklären, ich verstehe nicht warum du das nicht nachvollziehen kannst.

Ich habe für einige der ersten FreeSync Monitore die Firmware mit entwickelt und glaube mir, im/der Monitor taktet NICHTs runter. Kommt ein Bild innerhab der Range, dann gibt es ein Scanout mit maxHz. Glaube es oder lass es.
 
Wird er eh nicht glauben.
Dachte eigentlich auch, dass das mit dem scanout mittlerweile allgemein bekannt ist.
Auch sollte bekannt, dass halt ein Bild dann einfach öfter angezeigt wird.
Aber wer amva und ahva als Beispiele für VA anbringt, naja...
Und nein, schwarz ist auch bei VA nicht schwarz, sonst wäre es ein OLED.
 
Wäre wirklich mal interessant was die Redakteure bevorzugen und auch kaufen würden. Bei mir wird es als nächstes ein Dell 27" IPS mit 165Hz in 1440p mit LG Nano IPS Panel um die 330€. Sollte zu meinem ehemaligen AOC G25PX mit 144Hz TN eine Steigerung sein. VA kommt nicht in Frage, dann sehe ich in Tarkov abends einfach nichts mehr.
Ich habe zwei 144-Hz-WQHD-Displays daheim. Beide mit Gsync bzw. einer original Gsync mit Modul und einer Freesync/Gsync Compatible. Hab ich schon geraume Zeit und unterhalb diese Frequenz will ich nicht mehr.

Irgendwann wäre als nächstes der Schritt auf 4K/144 Hz angebracht. Gerade jetzt, wo Upsampling immer populärer wird. Von 144 Hz auf 240 Hz habe ich im Video noch erstaunlich deutlich gemerkt (am deutlichsten am Input-Lag, weniger am Bild selbst, das fällt eher zwischen 60 und 144 Hz mit Ruckeln auf), also würd ich auch 240 Hz und 4K nehmen, wenn's das denn gäbe und nicht gleich einen Arm und ein Bein, eine Milz und eine Leber kosten würde...

Bei gleichzeitig hohe Frame- und hohe Bildraten hat man auch wenig temporale Nebeneffekte (bzw. die sind viel kürzer und neigen daher weniger zum Verwischen). Wenn man das dann noch mit einem Upsampling auf eine hohe Auflösung kombiniert, bekommt man ein viel saubereres Bild. DAFÜR (hohe Auflösungen UND hohe Bildraten) braucht man dann aber natürlich auch fett Leistung. Das klappt dann eigentlich nur bei anspruchsloseren Titel - oder aber eben älteren Spielen. Davon zock ich privat allerdings eine ganze Menge, teilweise mit Downsampling von WQHD auf 4K oder sogar 5.120 × 2.880 (also 2×2 Downsampling). Das würde für mich also durchaus schon heute Sinn ergeben.

Bis man einige der heutigen harten Nüsse (z.B. Cyberpunk) mit vollen Details und Raytracing selbst mit Upsampling (in guter Qualität) mit hohen Bildraten spielen kann, wird's allerdings noch ein bisschen dauern, würde ich vermuten - selbst, wenn der Performance-Faktor der kommenden Grafikkarten wirklich x2 oder sogar x2,5 sein sollte. Aber das wäre zumindest schon mal ziemlich nice - immerhin hätte man dann eine ordentliche Leistung, ein sauberes Bild und den Vorteil der niedrigen Latenz des Displays...

Gruß,
Phil
 
Ich spiele weiterhin mit 60 fps, auch FPS ... muss aber zugeben das ich was höheres noch nie gesehen habe, in meinem Freundeskreis nutzt nur einer so was und der wohnt etwas weg ... werde ich mir aber mal anschauen demnächst ...

es ist halt auch immer eine Preisfrage, der PC meiner Signatur schafft auf Full HD mit 60 Hz alle Spiele für mich absolut Ruckelfrei, einzige Ausnahme bisher war New World in Städten, aber da ist die CPU auf allen 8 Threads bei 90-99% ;)

Wenn ich mal aufrüste, dann auch nen größeren Monitor mit 144 Hz oder so und dann muss es zwingend auch ein neuer PC sein ... die Kosten schrecken mich da weniger, aber ich warte noch bis Ende des Jahres wegen Ryzen 7000 (oder das Intel Equivalent) und denn neuen Grafikkarten. Und sobald der dann hier ist einen neuen Monitor. OLED wäre zwar spannend, aber da ich mich viel auf dem Desktop bewege und meine Icons/Taskleiste muss da sein, kommt ein OLED nicht in Frage wegen Burn In.
Verstehe nicht warum sich bei so vielen Leuten das so eingebrannt hat, das man einen entsprechenden Hz Monitor auch immer mit entsprechender FPS befeuern muss, um daraus einen Vorteil/ nutzen zu ziehen.
Nimm mir die Frage nicht über erklähr mir das bitte mal:

1) 60 Hz Monitor, Spiel läuft mit 60 Hz
2) 144 Hz Monitor, Spiel läuft mit 60 Hz (weil Graka am Limit etc.)

Wo ist da nun der Vorteil bei dem 144Hz Setup? Klar, wenn die Grafikkarte Luft hat, könntes hoch gehen, aber imho sollte es da doch keinen Unterschied geben, oder irre ich mich?
 
Zuletzt bearbeitet:
Man spart einfach "jede menge" Latenz.

Hz_vs_FPS_VS_.png

PCGH hat da etwas:
 
@openSUSE Interessantes Bild, muss mir morgen mal den Artikel durchlesen, ich hatte aber tatsächlich gedacht das FPS = Hz wären ...

Wobei Input Lag ja nur die Eingabeverzögerung ist, hat mich bisher nicht gestört, kenne es allerdings auch nicht anders ;)
Du meinst 144Hz Monitor und Spiel läuft mit 60fps?
Mit oder ohne Vsync/adaptive sync?
Das meinte ich ja, egal ob Vsync/Adaptive Sync ... aber siehe das Bild von openSUSE, da lag ich wohl falsch ;)
 
Man merkt den unterschied nicht 60fps bleiben 60fps und somit 33,3ms
Der inputlag kommt vom vsync hat man das aus hat man tearing.
Und genau dafür hat man adaptiv sync als Standard und nvidia zuvor per Modul gsync erfunden.
ich kann mich genau daran erinnern das man gesagt hatte mit gsync wird die monitor Frequenz an die fps gekoppelt.
Daher ist die aussage das 240 360hz Bildschirme nativ ausgeben und auf Wundersame weise kein tearing bekommen.
Da frage ich mich wie das modul bzw der Displayport standard dann tearing vermeiden will.
ich bin lernfähig, aber das geht mir nicht in den Kopf.
allerdings bin ich gesegnet tearing nicht Wahrzunehmen.

Bzw ich kenne dies nur in UE spielen wo es vorkommen kann das das Bild in der Mitte Zerrreist
Dies dürfte aber eher ein problem beim Renderer sein.
Also da wo das design des Spiels anfängt zu clippen was dann zu Effekten führt die gerne für cheats Missbraucht werden.
Seitdem ich weiß wie die UE konfiguriert wird ist klar wieso diese engine nicht für MP shooter genutzt wird.
Sämtliche Bewegung und Geschwindigkeit hängt von der sys ini ab. Und die ist offen manipulierbar.
hat aber den Nachteil das wenn diese willkürlich angepasst wird das spiel anfängt instabil zu werden.
ich musste mal bei ein gefloppten spiel das anpassen damit ein bug (fall durch die map) verhindern konnte.
War so schade das spiel hatte potenzial und scheitert an fähigen personal, die die UE engine Beherrschten. Man beschäftigte lediglich designer. Ein spiel das an der UE fertig engine nicht richtig konfiguriert wurde.
Davon ab ich will dazu hin das spiele auf eine Idee hin designet werden. Und da ist auch ein fps ziel mit drin.
Nix in spielen ist zufällig, die Kunst ist es, eine engine zu haben die nicht abhängig ist von der Latenz und die physik nicht von den fps. Besteht da irgendein Zusammenhang bricht das Konzept
teilweise wird das für cheats genutzt.

Zurück zu monitor HZ, die Idee hinter gsync ist fps = hz damit tearing weg ist.
Wie? Nun das weiß ich auch nicht kann ja sein das man im Modul die fps an die monitor Frequenz anpasst sprich interpoliert diese Technik kenne ich von den TV Geräten
Das aber addiert inputlag.
Man sehe sich tv mit 500hz an und versuche mal da mit Aktivierten interpolierten hz zu spielen und stelle es dann auf 60hz nativ um meist PC mode genannt
Der inputlag ist geringer als mit 500hz interpoliert.
Dafür wirkt dann das Bild bei TV Wiedergabe schärfer.

Ich merke das schon zwischen 60 vs 75hz meines monitors, die schärfe ist deutlicher
Das wird bei 144hz nochmal schärfer und hat weniger blur das hat aber recht wenig mit Latenz zutun. ja ja effektiv schon ich meinte inputlag.

Sondern ist das Ergebnis aus weniger Überstrahlen von vorherigen Bild.
Den Prinzipiell ist lcd der Nachteil des glowing vorhanden durch die Trägheit der pixel.
Und genau das macht das Bild schärfer weil die pixel schneller schalten. Sprich weniger Schaltzeit statt 33,3ms dann 2,7ms.
Den Effekt hat man immer je höher die Frequenz ist, tearing wird es aber geben das ist technisch bedingt also muss gsync das anpassen nur frage ich mich woher die gpu dann die fehlenden hz/fps herholt.
Bilder einfach zu Versiebenfachten würde zu slowmo Effekten führen und Zwischenbilder berechnen zu mehr inputlag.

Tearing ist
Wenn zwei Bilder zeitgleich angezeigt werden und durch die Trägheit der pixel oder eingang des bildes anfängt zu zerreißen
Dabei gilt je höher die fps sind als der monitor ausgeben kann zerreißt das Bild je weniger fps man eingibt passiert das gleiche
Das liegt an der syncronität den die 60 oder andere Ausgabe ist fix.
Nun hat man zwei Lösungen entweder man setzt auf mehr fps
Und die gpu berechnet am displayport mehr frames durch verdoppelung bis verdreifachung der Bilde um die hz Ausgabe anzugleichen Ohne zu berechnen
Oder man passt die monitor Ausgabe an die fps an.
Erste Methode würde zu slowmo Effekten führen insbesondere dann 30hz quasi wirken wie 10fps bei nen 240hz Bildschirm.
quasi schaltet das Bild deutlich besser aber der inhalt kommt ruckelig rüber.
letztere wäre genau die idee hinter gsync.

achja amva
bei ahva hab ich mich vertan das ist ips.
Und der text bestätig mich schwarz ist definitiv richtiges schwarz, da die Technik quasi kein licht durchlässt folglich strahlt da nix.
Somit ist klar wieso bei mein iiyama das schwarz so deutlich ist. Als wäre das panel aus
das ist gegen dem tn panel und dem ips das ich noch habe klar. ich sollte das eher als Kontrast bezeichnen.
Darum wäre mir am liebsten
amva+/spva mit 144hz gsync. 27 zoll 1440p und gerade.
Wer sich die idee hinter curved ausgedacht hat .......
Wieder eine TV Technik die am PC nix zu suchen hat. (Ursprung war 3d TV)
dabei war schon 16-9 ein fetter Kloß für mich.
So nebenbei der golden schnitt ist 16-10 achtet mal drauf sämtliche 24 und 27 Bildschirme haben ein 16-10 rahmen.
Und das aus guten Grund.
 
@Mydgard
Vsync 60fps auf nem 144Hz Monitor würden in 36fps münden.
Bei adaptive sync wären es weiterhin 60fps.

@Prozessorarchitektur
Natürlich lässt VA Licht durch und das nicht zu knapp.
Was meinst du wohl, warum der Kontrast da meist um die 3000:1 liegt.
Du hast anscheinend noch nie das schwarz eines OLED gesehen oder einen VA in einem komplett dunklen Raum.
Zu deinem 16:10 Rahmen Quatsch sag ich jetzt mal nix.

Genauso vergleichst du die Interpolierung eines TV mit adaptives sync.
Die Interpolierung macht aber etwas völlig anderes, nämlich versucht sie aus einem 50/60/100Hz Panel ein 500Hz etc Eindruck zu zaubern.

Bisschen was zum Lesen wie Gsync funktioniert.
Oder in Kurzform, wie es dir schon geschrieben wurde, der scanout läuft immer mit der maximalen Bildwiederholrate.
Und ja, die Bilder werden bei niedrigen fps im Prinzip mehrfach angezeigt.
 
Zuletzt bearbeitet:
Jedes Spiel läuft mit nen 165 Hz (ja ist meine Hz) mit 60 FPS, ja sogar unter diese deutlich ruhiger als mit mein zweiten der nur 60 Hz kann.

Seitdem dient der 60 Hz nur noch für Streams und Monitoring ala HWInfo.

Zum Spielen nicht geeignet.
 
Ich bin immer noch mit 60Hz unterwegs und zur Zeit recht es mir!
Zocke sehr selten FPS Spiele und deswegen ist mir die Hz egal.
Du hast die Vorteile in jedem Spiel, jeder Software, sogar auf dem Desktop jedes Betriebssyszems, also eigentlich überall.
Zieh mal Winodws-Fenster oder wirbel mit der Maus herum.
Sogar Filme werden dadurch richtig smooth, wenn diese mit mehr hz gefahren werden, oder halt durch Bildverdoppler etc. wie am TV.
Daher lasse ich keine Gründe gelten wie von wegen "die Erde ist eine Scheibe" und "man sieht nur 24 Bilder".
Ich gebe Recht, dass die Einschätzung ab 120hz immer schwerer wird, vor allem wenn man keinen direkten Vergleich hat und schnell raten muss, aber selbst die kleinsten Vorteile sollte man nach Möglichkeit mitnehmen, wenn man schon die Qual der Wahl hat und die Preisunterschiede nicht mehr so bedeutend sind und unbezahlbar erscheinen.
Der Lag wird geringer, das Bild wird schärfer, der Bildfluss wird gleichmäßiger, weil Bilder vorhanden sind, die bei niedrigen Bildraten halt fehlen udn dann weggeleassen werden müssen, oder halt durch die Anzeige des vorherigen Bildes an falscher Position gezeigt werden müssen.
Selbst 60hz auf einem 240hz Bildschirm sind etwas besser als auf einem nativen 60hz Bildschirm, eben aus den genannten Gründen.
Ich werd ejedenfalsl nie wieder auf 60hz zurückgehen.
Bei der Firma bekomme ich täglich die Krise, wenn ich mit angeblicher "Top-Hardware" leben muss wie eine arme Socke vor gefühlt 20 Jahren.
Die Unterschiede sind eklatant, aber der Herr IT ist ja der Meinung, die billigste 5-Euro-Hardware ist genauso gut wie teure Gamerhardware, die seiner Meinung nach keinerlei Vorteile bietet.
Er trägt allerdings auch 5 Euro Kleidung, daher dürfte er in jeder Lebenslage keinerlei Vorteile durch Qualität kennen und schätzen dürfen.
Selbstverständlich ist ein Porsche überteuert, aber ihm sämtliche Vorteile gegenüber einem Fiat Panda absprechen zu wollen, das ist so wie Corona zu leugnen.
 
Du hast die Vorteile in jedem Spiel, jeder Software, sogar auf dem Desktop jedes Betriebssyszems, also eigentlich überall.
Zieh mal Winodws-Fenster oder wirbel mit der Maus herum.
Sogar Filme werden dadurch richtig smooth, wenn diese mit mehr hz gefahren werden, oder halt durch Bildverdoppler etc. wie am TV.
Daher lasse ich keine Gründe gelten wie von wegen "die Erde ist eine Scheibe" und "man sieht nur 24 Bilder".
Ich gebe Recht, dass die Einschätzung ab 120hz immer schwerer wird, vor allem wenn man keinen direkten Vergleich hat und schnell raten muss, aber selbst die kleinsten Vorteile sollte man nach Möglichkeit mitnehmen, wenn man schon die Qual der Wahl hat und die Preisunterschiede nicht mehr so bedeutend sind und unbezahlbar erscheinen.
Der Lag wird geringer, das Bild wird schärfer, der Bildfluss wird gleichmäßiger, weil Bilder vorhanden sind, die bei niedrigen Bildraten halt fehlen udn dann weggeleassen werden müssen, oder halt durch die Anzeige des vorherigen Bildes an falscher Position gezeigt werden müssen.
Selbst 60hz auf einem 240hz Bildschirm sind etwas besser als auf einem nativen 60hz Bildschirm, eben aus den genannten Gründen.
Ich werd ejedenfalsl nie wieder auf 60hz zurückgehen.
Bei der Firma bekomme ich täglich die Krise, wenn ich mit angeblicher "Top-Hardware" leben muss wie eine arme Socke vor gefühlt 20 Jahren.
Die Unterschiede sind eklatant, aber der Herr IT ist ja der Meinung, die billigste 5-Euro-Hardware ist genauso gut wie teure Gamerhardware, die seiner Meinung nach keinerlei Vorteile bietet.
Er trägt allerdings auch 5 Euro Kleidung, daher dürfte er in jeder Lebenslage keinerlei Vorteile durch Qualität kennen und schätzen dürfen.
Selbstverständlich ist ein Porsche überteuert, aber ihm sämtliche Vorteile gegenüber einem Fiat Panda absprechen zu wollen, das ist so wie Corona zu leugnen.
Schon klar, dass 120Hz besser sind als 60Hz. Doch ich werfe jetzt keinen Monitor weg, um mir einen besseren zu kaufen, weil dieser 120Hz hat. Ich komme zur Zeit mit 60Hz ganz gut klar und werde wechseln, wenn die Grafikkarten über 144fps auf Sehr Hohen bis Ultra Einstellungen schaffen!
 
Zusammenfassung des Videos: 60 -> 144 hz lohnt sich immer! Ob man dann auch noch 240hz oder gar 360hz braucht ist eine persönliche Geschichte.

60hz = 17ms
144hz = 7ms
240hz = 4,2ms
360hz = 2,8ms

Darum merkt man auch den Unterschied zwischen 60 und 144hz so stark. Das sind einfach mal 10ms weniger! Zwischen 144hz und 240hz sind es dann gerade mal noch 2,8ms weniger und beim letzten Vergleich nur noch winzige 1,4ms weniger.

Diese Werte stimmen allerdings nur, wenn man davon ausgeht, dass bei den jeweiligen Hz-Werten eine Bildsynchronisation angewendet wird.

60Hz mit 300FPS ohne V-Sync, Freesync oder GSync ist vom input Lag her garnicht mal so viel schlechter als 360Hz mit 300FPS ohne Bildsynchronisation.
 
Zurück