• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Samsung Odyssey G7 im Test: Überragend schnelles VA-Panel

ssj3rd

Komplett-PC-Aufrüster(in)
2016 hatte der Vorgänger HDR600 und satte 4 Jahre! später hat der Nachfolger auch HDR600? Irgendwie tut sich da nichts in diesem Bereich, warum?
Dabei gibt es doch bereits HDR1000 Monitore und auch erst dann kann man eigentlich von HDR sprechen meiner Meinung nach...
 

Scorpionx01

Software-Overclocker(in)
Schaut man sich aktuelle TVs mit HDMI2.1 an, wirken die Daten des Monitors einfach lachhaft. Lasst euch nicht von den Monitorherstellern verarschen.
 

JoM79

Trockeneisprofi (m/w)
Dabei gibt es doch bereits HDR1000 Monitore und auch erst dann kann man eigentlich von HDR sprechen meiner Meinung nach...
Nicht wirklich.
HDR 1000 gibts genauso mit Edge LED und wenig Zonen, die Spitzenhelligkeit wäre einfach nur höher.
Dann lieber HDR 600 mit nem ordentlichen FALD, was der Samsung leider nicht hat.
 

Atma

PCGH-Community-Veteran(in)
Schaut man sich aktuelle TVs mit HDMI2.1 an, wirken die Daten des Monitors einfach lachhaft. Lasst euch nicht von den Monitorherstellern verarschen.
Und wer will sich 48"+ Monster mit 16:9 auf den Tisch stellen? Durch die schiere Größe sind TVs als Monitor für 99 von 100 Man völlig unpraktikabel. Abgesehen davon gibt es bisher ganze 2 Grafikkarten mit HDMI 2.1 am Markt und die sind nicht lieferbar ...
 

Mitchpuken

Software-Overclocker(in)
Habe mich auf den Test sehr gefreut, aber wenn ich mir die Kommentare durchlese...

Kann man die beiden Zusatzteile in den Ecken abmontieren?

Was sagt ihr zu QLED bzw. warum wird es nicht im Artikel erwähnt?

Werdet ihr eurem Ergebnis zum hohen Inputlag nochmals nachgehen?
 

Scorpionx01

Software-Overclocker(in)
Und wer will sich 48"+ Monster mit 16:9 auf den Tisch stellen? Durch die schiere Größe sind TVs als Monitor für 99 von 100 Man völlig unpraktikabel. Abgesehen davon gibt es bisher ganze 2 Grafikkarten mit HDMI 2.1 am Markt und die sind nicht lieferbar ...

Größeren Tisch kaufen?;-)
 

BxBender

BIOS-Overclocker(in)
Toller Test, tolles Gerät.

Aber dann kommt's im Abspann: curved? Hatte ich in der ganzen Euphorie ganz überlesen.
Zum Glück hatte ich den Bestellbutton für 513 Euro noch nicht gedrückt....^^
Neee, also das gibt es doch nicht?! Da haut man so ein geiles, zudem einigermaßen bezahlbares Gerät raus, und dann ist das Teil gebogen? Warum nur?! (ungebogen und dafür sogar 20-30 Euro billiger wäre doch besser gewesen?)
Das wäre für Weihnachten wirklich ein gefundenes Fressen gewesen.
So wurde die Messlatte wortwörtlich ein ganzes Stück weit höher gelegt, an dem sich alle Konkurrenten messen lassen müssen.
Mein Monitor wird aber wohl noch wieder ein weiteres Jahr durchhalten müssen, denn so schnell wird sich ja bestimmt nichts am Markt tun. (der schafft sicher die 10 jahre, damals hat man alle 3 einen neuen besorgt)
Wirklich schade. Ab da ich ja eh keine 3080 kaufen werde, ändert das ja auch nichts an den Anforderungen bei meinen Spielen.
Zack, wieder weit über 1000 Euro gespart.
Geiz ist geil. ^^
 

firejohn

Komplett-PC-Aufrüster(in)
Pseudo G-Sync! 80-240Hz, die 32" Version. Nein Danke.

Ich bleib bei meinen echten G-Sync VA Monitor. :)

Lasst euch nicht veräppeln, Leute.
Ich finde das auch nicht in Ordnung dass auf dem Monitor ein G-Sync Aufkleber draufklebt. Ist Irreführung oder einfach Falschaussage.
Hab grad geguckt wie die Range bei meinem G-Sync Monitor ist: 1-144 Hz.
Ist dass mit der Hauptunterschied zwischen normal und compatible? Dass die Range bei normal bis zu 1 Hz runtergeht?
Wird ja immer behauptet es gäbe kein Unterschied.

Aber nichtsdestotrotz find ich den Monitor echt interessant und habs mir als Lesezeichen gesetzt. Ich hab zwar TN Monitor, der erste in Deutschland käuflich erwerbbare G-Sync Monitor (denk ich), aber trotzdem seh ich Ghosting oder wie man das nennt, dass ich seh. Bei schnellen Bewegungen ein Objekt noch leicht an der vorigen Stelle.
 

Hauersumpfler

Komplett-PC-Aufrüster(in)
Und wer will sich 48"+ Monster mit 16:9 auf den Tisch stellen? Durch die schiere Größe sind TVs als Monitor für 99 von 100 Man völlig unpraktikabel. Abgesehen davon gibt es bisher ganze 2 Grafikkarten mit HDMI 2.1 am Markt und die sind nicht lieferbar ...
Ich! Bin dann 1 von 100 <3.
Ich warte nur noch darauf, dass der LG CX 48 auch kommt, ist auch bei RTings aktuell der beste Monitor.
Ob ich jetzt vier Monitore hinstelle oder bei einem Ultrawide den Kopf drehen muss, ist auch völlig egal.

Ich wollte ja den Acer X32, aber da der sich nicht blicken lässt und das kleine Modell davon, das im August erscheinen sollte auch nicht, hab ich nun eben den OLED genommen, nachdem der immer häufiger als Monitor genutzt wird und die Erfahrungsberichte überwältigend gut sind. Leider weiß Amazon noch nicht, wann sie wieder was reinbekommen, aber ich vermute wenn ich die passende Grafikkarte dafür habe ist der auch da. Günstiger ist der OLED auch noch und kann dann gleich noch als Fernseher im Wohnzimmer dienen. Und wenn es doch mal einbrennt, kauft man sich nochmal einen - und hat immer noch weniger bezahlt als für einen Acer X32. (Wobei Amazon die in den zwei Jahren auch bei Burn in zurücknimmt, weswegen ich ihn dort kaufen möchte)

Der Monitormarkt ist lachhaft zurückgeblieben.
 
Zuletzt bearbeitet:

JoM79

Trockeneisprofi (m/w)
Hab grad geguckt wie die Range bei meinem G-Sync Monitor ist: 1-144 Hz.
Ist dass mit der Hauptunterschied zwischen normal und compatible? Dass die Range bei normal bis zu 1 Hz runtergeht?
Wird ja immer behauptet es gäbe kein Unterschied.
Die Range von deinem wird eher 30-144Hz sein, darunter werden die frames vervielfacht.
Da aber dabei Gsync weiter aktiv ist, schreibt Nvidia 1-144Hz hin.
Dass das aber bei allen 144Hz Monitoren, bis auf 2 Ausnahmen, so funktioniert, das wird verschwiegen.
Noch ein Vorteil ist der adaptive overdrive der dafür sorgt, dass bei niedrigen Frequenzen kein Overshoot entsteht.
 

PCGH_Manu

Redakteur
Teammitglied
Ich finde das auch nicht in Ordnung dass auf dem Monitor ein G-Sync Aufkleber draufklebt. Ist Irreführung oder einfach Falschaussage.
Hab grad geguckt wie die Range bei meinem G-Sync Monitor ist: 1-144 Hz.
Ist dass mit der Hauptunterschied zwischen normal und compatible? Dass die Range bei normal bis zu 1 Hz runtergeht?
Wird ja immer behauptet es gäbe kein Unterschied.
Es gibt hier ja auch keinen Unterschied, da es ja von 1 bis 144 Hz funktioniert und Ghosting gibt es trotz Overdrive auf der vollen Spanne auch nicht. Also was soll daran falsch oder irreführend sein?

Der Unterschied ist nur noch, dass bei "normal" der Scaler von Nvidia stammt. Aber ist doch egal, ob nur der Aufkleber von Nvidia ist, ob das OD adaptiv ist oder nicht, ob er Frames per LFC verdoppelt oder nicht, solange das Resultat doch das gleiche ist?
 

firejohn

Komplett-PC-Aufrüster(in)
Mal schaun. Wollte schon lange von TN weg, weil oben wars immer a weng dunkel. Auch wegen ghosting oder was das ist was ich da seh.

Naja, ich fänds besser wenn da ein compatible beim Aufkleber dabei steht, um das klar zu differenzieren.

Ist irgendwie ein schwammiges Thema für mich, auch nach den ganzen Kommentaren hier, denke auch Nvidia und Monitorhersteller sind schuld dran. Oder einiges wird einfach aus Marketinggründen verschwiegen, auch wenn vllt. das Ergebniss gleich ist.
Aber zum Beispiel dieses schwarze Bilder dazwischen schalten, das bei einigen Kopfschmerzen bereitete.

Ich weiß net, früher war alles übersichtlicher oder einfach ehrlicher.
Wie z.B. Nvidia einfach die Standardeinstellung (V-Sync) im Treiber änderte und sich manche wunderten wieso es trotz G-Sync Risse im Bild gibt bzw. nicht so flüssig aussieht.
Oder die Bezeichnung Max prerendered frames zu Low latency mode geändert hat, nur um zu zeigen, dass sie sowas wie AMD auch haben.
 
Zuletzt bearbeitet:

Pyrodactil

PC-Selbstbauer(in)
"Auf dem Monitor prangt ein G-Sync-Aufkleber. Im Odyssey arbeitet aber kein Hardware-Modul von Nvidia, er ist "nur" kompatibel zu G-Sync. Der Unterschied zwischen kompatiblem und "echtem" hardwareseitigen G-Sync ist das adaptive Overdrive. "

Ich fühle mich gerade mit meinem frisch erworbenen Odyssey G7 C32G74TQSU von Samsung veräppelt, ohne ihn angespielt zu haben.

Mit meinem vorigen DELL S2716DG WQHD gabs echtes G-SYNC, Moni sofort erkannt & Co.

Mit diesem Samsung nicht nur der G-SYNC Blender, sondern er wird nur im NV Treiber aber nicht im Gerätemanager erkannt, Treiber gibts nicht, & übern USB-Anschluss kein Update möglich. Dementsprechend gibts Mauszeiger Zinies.

Bin am überlegen den umzutauschen & mir die 710€ wiederzuholen.
 

Kratos333

Komplett-PC-Käufer(in)
"Auf dem Monitor prangt ein G-Sync-Aufkleber. Im Odyssey arbeitet aber kein Hardware-Modul von Nvidia, er ist "nur" kompatibel zu G-Sync. Der Unterschied zwischen kompatiblem und "echtem" hardwareseitigen G-Sync ist das adaptive Overdrive. "

Ich fühle mich gerade mit meinem frisch erworbenen Odyssey G7 C32G74TQSU von Samsung veräppelt, ohne ihn angespielt zu haben.

Mit meinem vorigen DELL S2716DG WQHD gabs echtes G-SYNC, Moni sofort erkannt & Co.

Mit diesem Samsung nicht nur der G-SYNC Blender, sondern er wird nur im NV Treiber aber nicht im Gerätemanager erkannt, Treiber gibts nicht, & übern USB-Anschluss kein Update möglich. Dementsprechend gibts Mauszeiger Zinies.

Bin am überlegen den umzutauschen & mir die 710€ wiederzuholen.
Also bei mir wurde er sofort erkannt. Firmware 7.0
 

B1gD4ddy

PC-Selbstbauer(in)
"Auf dem Monitor prangt ein G-Sync-Aufkleber. Im Odyssey arbeitet aber kein Hardware-Modul von Nvidia, er ist "nur" kompatibel zu G-Sync. Der Unterschied zwischen kompatiblem und "echtem" hardwareseitigen G-Sync ist das adaptive Overdrive. "

Ich fühle mich gerade mit meinem frisch erworbenen Odyssey G7 C32G74TQSU von Samsung veräppelt, ohne ihn angespielt zu haben.

Mit meinem vorigen DELL S2716DG WQHD gabs echtes G-SYNC, Moni sofort erkannt & Co.

Mit diesem Samsung nicht nur der G-SYNC Blender, sondern er wird nur im NV Treiber aber nicht im Gerätemanager erkannt, Treiber gibts nicht, & übern USB-Anschluss kein Update möglich. Dementsprechend gibts Mauszeiger Zinies.

Bin am überlegen den umzutauschen & mir die 710€ wiederzuholen.
ehm natürlich gibt es monitor treiber für die odysseys und natürlich kannst du firmware updates über usb machen.

und klar gibt es lfc noch und irgendwie stimmt auch die range beschreibung überhaupt nicht.

1. angeblich sei die gsync range bei displayport beim 27er 60-240hz.
das stimmt aber nicht, der monitor verdoppelt bis 89fps, man sieht im monitor menü dann ~178hz, was bedeutet dass kein gsync läuft, sondern per lfc verdoppelt wird. und das obwohl die range angeblich bis 60 runter gehen soll. erst ab 90fps laufen fps und hz synchron.

2. mir ist aufgefallen, dass die odysseys nicht nur verdoppeln sondern auch vervierfachen.
habe mal bei cyberpunk alles aufgedreht und wenn ich dort mit 30fps stehe, sehe ich im monitor menü, dass das panel mit ~120hz läuft. verdreifachen habe ich auch gesehen, 50fps ingame, ~150hz im monitor menü.

@PCGH_Manu , ne idee zu den 2 punkten?
 
Zuletzt bearbeitet:

PCGH_Manu

Redakteur
Teammitglied
ehm natürlich gibt es monitor treiber für die odysseys und natürlich kannst du firmware updates über usb machen.

und klar gibt es lfc noch und irgendwie stimmt auch die range beschreibung überhaupt nicht.

1. angeblich sei die gsync range bei displayport beim 27er 60-240hz.
das stimmt aber nicht, der monitor verdoppelt bis 89fps, man sieht im monitor menü dann ~178hz, was bedeutet dass kein gsync läuft, sondern per lfc verdoppelt wird. und das obwohl die range angeblich bis 60 runter gehen soll. erst ab 90fps laufen fps und hz synchron.

2. mir ist aufgefallen, dass die odysseys nicht nur verdoppeln sondern auch vervierfachen.
habe mal bei cyberpunk alles aufgedreht und wenn ich dort mit 30fps stehe, sehe ich im monitor menü, dass das panel mit ~120hz läuft. verdreifachen habe ich auch gesehen, 50fps ingame, ~150hz im monitor menü.

@PCGH_Manu , ne idee zu den 2 punkten?
Ja. Zum einen sind die Anzeigen bei variablen Hz ziemlich ungenau, zum anderen wird schon immer vervielfacht, sofern möglich -auch bei G-Sync. Nur gab es bei Nvidia keinen Namen dafür, weil es eben schon immer ging. Das ist nun auch bei Freesync der Fall. Und obacht: synchron laufen sie immer, egal ob vervielfacht oder nicht.

Ich behaupte halt, dass es LFC allein deswegen nicht mehr gibt, weil heutzutage nahezu jeder Monitor quasi bis 1 runter geht -ganz egal wieviel verfacht - es funktioniert einfach. Daher erübrigt sich immer die Frage, ob dieser oder jener Monitor "LFC-fähig" sei, als wäre es ein hardwareseitiges Feature.
 

JoM79

Trockeneisprofi (m/w)
Nur hast du bei der Vervielfachung oft das Problem, dass der Monitor anfängt zu flimmern oder es beim Übergang zu Problemen kommt.
 

klexi

Kabelverknoter(in)
Hi.
Frage an jemanden der auch den Samsung odyssey g7 hat, wie sieht es bei euch mit backlight bleeding und so aus? Meiner hat unten links (von mir aus gesehen) beim Rahmen eine helle Stelle, als wäre der Rahmen einen Spalt offen. Merkt man ein wenig bei dunkleren Scenen oder bei Schatten und das auch nur bei komplett dunklem Raum. Ohne local dimming wird es aber schlimmer. Bei einem 200 Monitor wärs mir egal, aber bei einem 580Euro teuren, naja, kopfsache. Wärs intensiver ausgeprägt wärs ne klare Sache, aber so is wahrscheinlich besser ich behalte den da mir sonst keine Fehler (Pixel usw. Suche aber auch nicht verzweifelt danach) aufgefallen sind.
 

Anhänge

  • IMG_20201221_234704.jpg
    IMG_20201221_234704.jpg
    918,8 KB · Aufrufe: 42

Mitchpuken

Software-Overclocker(in)
Ich bin ja schon seit einiger Zeit an dem Bildschirm interessiert. In diversen Tests wird der Bildschirm für sein schnelles VA-Panel ohne typisches Ghosting gelobt. Jedoch habe ich noch Fragen.

Was sind scan lines? Es gibt zwar Bilder und Videos, aber da kann ich nichts erkennen. Auch findet man die Aussage, dass man scan lines nicht auf Bildern und Videos festhalten kann.
Welche Unterschiede zum G5 gibt es noch, außer 240/144hz, fehldendes gysnc compatibility und "nur 8bit" Farbtiefe?


@PCGH_Manu
PCGH scheint als einziger Tester einen relativ hohen Inputlag fest zu stellen. Konntest du den Bildschirm mit neuer Firmware nochmals testen?
 

PCGH_Manu

Redakteur
Teammitglied
PCGH scheint als einziger Tester einen relativ hohen Inputlag fest zu stellen. Konntest du den Bildschirm mit neuer Firmware nochmals testen?
Nein, konnte ich nicht. Wer denn noch, außer die beiden im Test erwähnten? Ich habe halt als einziger mit dem Nvidia LDAT gemessen. Im Zweifel finde ich den auch aussagekräftiger, weil praxisnäher als Leo-Bodnar-Tool und CRT-Vergleich.
 

Mitchpuken

Software-Overclocker(in)
Nein, konnte ich nicht. Wer denn noch, außer die beiden im Test erwähnten? Ich habe halt als einziger mit dem Nvidia LDAT gemessen. Im Zweifel finde ich den auch aussagekräftiger, weil praxisnäher als Leo-Bodnar-Tool und CRT-Vergleich.

Bei Techspot landet der Inputlag auf Platz 1. Soweit mein Englisch es zulässt sind sie vom Rest nicht so begeistert. So zu sagen eine verkehrte Welt. Bei HardwareUnboxed ebenfalls, aber die gehören wohl irgendwie zusammen(?)

Der Inputlag soll im Gegensatz zu anderen Monitoren nur mit deaktivierten Sync höher bzw. so hoch ausfallen. Also auch andersrum wie sonst üblich. Hier aus den Kommentaren
I've seen some tests that, if you disable sync, a huge input delay appears, the fix is to reinstall the driver with ddu, reset the monitor and update the monitor firmware.

Oder auch hier:

When it comes to input lag, you HAVE to turn adaptive sync on. The input lag if you have it off becomes unplayable for high level play(unless you are accustomed to have muscle memory). MBR mode should NOT be used because it adds too much input lag.

Aus dem PCGH Artikel:
Wir messen mit dem LDAT stets mit Overwatch, fester Bildrate auf 300 Fps und maximaler Bildfrequenz. V-Sync, G-Sync oder andere Optionen sind natürlich deaktiviert, um softwareseitige Verzögerungen auszuschließen.
Also falls du den Monitor nochmals in die Hände bekommst wäre echt interessant.


Der Vergleich mit dem G5 ist aber nicht so einfach, zu dem findet man nicht so viel.
 
Zuletzt bearbeitet:

PCGH_Manu

Redakteur
Teammitglied
Wäre interessant zu wissen, wie HUB/Techspot den Input Lag messen. Ich gehe stark davon aus, dass sie den CRT-Vergleich hernehmen, da sie bislang auch alle anderen Monitor-Tests von TFTCentral geklaut haben :D Wie dort auch halte ich die Reaktionszeitenmessungen für etwas zu breitgetreten und das Overshoot-Verhalten für überinterpretiert, aber gut, das ist ein anderes Thema.

Was den Input Lag angeht, habe ich den G7 auch rein zufällig fürs LDAT-Review verwendet: https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/LDAT-Input-Lag-1357708/

Interessanterweise ist dort der Lag mit G-Sync deutlich niedriger als der Lag ohne, was an sich unlogisch ist, aber wohl doch auf den Monitor zurückzuführen. Das entspricht dem, was oben auf Reddit beschrieben wird. Ich halte die Differenz von 10 ms zwar noch nicht für "unplayable", aber auch nicht ganz irrelevant.
 

Mitchpuken

Software-Overclocker(in)
Wie die anderen messen weißt du sicher besser, dazu will ich gar keine Vermutung äußern. Jeder testet etwas anders und das führt nun mal zu unterschiedlichen Ergebnissen. Die Ausgangsbasis muss stimmen, damit man vergleichen kann. Ist imo wie bei cpu und gpu Tests mit den unterschiedlichen Einstellungen und Testszenen.

Vielleicht ist der G7 ein Sonderfall mit seinen vielen Firmwareupdates. Zum Thema Flickering und Scanlines konnte ich jedoch in keinem Test etwas lesen. Soll aber mit jedem Updates besser geworden sein, aber immer noch nicht komplett fehlerfrei. Da du den G7 so lange vor dir hattest kannst du vielleicht kurz sagen, was den eigentlich gegen diesen Bildschirm spricht? VA-Panel (ohne typische VA Nachteile) so schnell wie TN und schöner als IPS? Eigentlich "take my money".

Der G5 ist dem G7 wohl in allen Punkten teils deutlich unterlegen. Könnte erklären warum man über den G5 deutlich weniger finden kann. Konntest du den eigentlich auch testen?

Aber genug vom G7. Muss ja Alternativen dazu geben :D

Edit: @PCGH_Manu
Sehr interessante Videos. besonders die letzten zwei (sehr technischen) von a5hun.
Erstmal ein wenig Text :D https://www.tftcentral.co.uk/articles/response_time_testing.htm



Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.



Edit: Auch interessant wäre, wenn ein einzelner Tester die gängigen Testmethoden bei einem Monitor anwendet.


Fazit:
- Irgendwas mit Gammawert anpassen, verstehe ich leider gar nicht was damit gemacht wird
- RGB 0-255
- RGB 100-200
- Gemessen werden/wurden meistens 10% - 90%
- Aktueller/Umdenken ist 3% - 97% = Mehr höhere Werte zb anstelle von 5ms 10-90% können es jetzt 7ms bei 3-97% sein
- Bei schwarz ist der sichtbare Unterschied zu grau (zb RGB Werte von 0 - 5 -10 - usw) sehr viel deutlicher als bei weiß (zb RGB 245 - 250 - 255)
https://www.tftcentral.co.uk/articles/response_time_testing.htm The old measurement method and the 10 - 90% threshold used there has been around since the first LCD panels were produced in the mid 1990's and has been the standard for panel manufacturers, display manufacturers and all independent third parties like display reviewers since. Pretty much all measurements have been taken in the same standard way and so when you compare measurements between different screens you can make a direct comparison. Switching to gamma corrected response times can provide a more accurate measurement that is more reflective of real-word thresholds in RGB. But we don't feel there is any real cause to make the thresholds more strict than we have defined earlier when it has a significant knock on impact to the figures captured.

The old method and its associated 10 - 90% tolerance has been the standard for so long that the whole market is used to understanding what any measured response time figure should approximately represent in practice and in user experience. For example you can see a 5ms G2G average response time and understand where it would sit relative to a 12ms G2G figure.

If you change the threshold now to something more strict like 3 - 97%, or instead go even more extreme like 0 - 100% and start trying to measure the total response time, you undo more than 25 years' worth of understanding and comparative data. All future response time figures will now be higher (i.e. slower) than everything that came before it because you are increasing the strictness of the thresholds. Suddenly a screen that would previously have been rated at 5ms might now be 8ms. You can no longer compare all the results and displays unless you go back and re-measure every single display to move them in to the new format. We've measured more than 140 displays with the same method over the last 8 years, it isn't possible to re-measure those to move them in to a new format with different thresholds.

And even if you do, part of the beauty of the old reasonable tolerance levels from the 10 - 90% standard being in place for so long is that pretty much everyone has used it, and so you can also generally compare results between different reviewers quite nicely. To make a change useful to the market, everyone really needs to do the same thing.

Da stellt sich mir die Frage, warum man bei bei schwarz nicht bei RGB 0 startet. Bei Spielen hat man so oft sehr dunkle oder schwarze Bildinhalte. Weltraum? Weiß hingegen ist ziemlich selten.
 
Zuletzt bearbeitet:

JoM79

Trockeneisprofi (m/w)
Schwarz startet bei RGB 0,0,0.
Nur wird für die Messung und die Vergleichbarkeit nur die Zeit zwischen 10-90% genommen.
Machen eigentlich alles Redaktionen und die Reaktionszeiten ähneln sich meist stark (Ausnahme PCGH).
Bei rtings kannst du dir zusätzlich noch die komplette Reaktionszeit angucken.
Der schlechteste Wert ist da VA typisch 0-20% mit 17,7ms (29,8ms komplett) für den 32" OD Standard.
Bei tftcentral von 0-20% 17,8ms (16,4ms 27") OD Standard.
PCGH 0-25% komischerweise 2,7ms OD Standard.
RGB wäre 0-50 etwa 0-20%, RGB 100-200 ~40-80%.

Wie du siehst, selbst wenn Redaktionen eigentlich das gleiche messen, kommt es zu teils starken Unterschieden.
Das gilt im gewissen Maße auch für Inputlagmessungen.
 

Mitchpuken

Software-Overclocker(in)
Wie bereits geschrieben verstehe ich nur nicht ganz wieso nicht bei RGB 000 gestartet wird. Gerade Schwarz ist sehr wichtig und besonders bei VA-Panelen von Bedeutung. Nachteil ist natürlich, dass extrem lange Reaktionszeiten gemessen werden, welche sich nicht gut verkaufen lassen. Siehe übertriebene Herstellerangaben.

Des weiteren vermisse ich Grenzwerte oder Aussagen, ab denen "alles ok" ist. Wie zb wenn die Reaktionszeit der Pxiel eines 144Hz Monitors langsamer ist als die Bildaufbauzeit, was ja grundsätzlich nicht gut wäre. Wird vermutlich nicht möglich sein, weil sehr subjektiv welche Werte wem ausreichen oder zu langsam sind. In etwa wie fps.
 

PCGH_Torsten

Redaktion
Teammitglied
Der Vergleich mit Fps ist angemessen: Wenn das Auge einzelne Bilder zeitlich nicht mehr auflösen kann, dann wird es auch fehlerhafte Farbdarstellungen durch langsam reagierende Pixel darin nicht registrieren. Allerdings ist es wirklich schwierig zu sagen, wie groß die Abweichung sein darf, damit "man" sie übersieht. Das hängt nicht nur von der Person, sondern auch vom Inhalt ab. Bei scrollendem, schwarzen Text auf weißem Grund fallen Nachzieheffekte zum Beispiel viel eher auf, als wenn sich die Spielfigur in einer matschigen Sumpflandschaft im Kreis dreht. Oben genannte 29,8 ms für einen kompletten Farbwechsel wären also in der Regel ein Problem, denn das enstpricht kaum mehr als 30 sauber dargestellte Bilder pro Sekunde. Aber wenn schon 10 ms nach Beginn der Änderung 90 Prozent des Zielwertes erreicht sind, reichen die verbleibenden 20 ms dann überhaupt, um den 10-Prozent-Fehler bewusst wahrzunehmen? Das muss jeder für sich entscheiden.
 

JoM79

Trockeneisprofi (m/w)
Wie bereits geschrieben verstehe ich nur nicht ganz wieso nicht bei RGB 000 gestartet wird. Gerade Schwarz ist sehr wichtig und besonders bei VA-Panelen von Bedeutung. Nachteil ist natürlich, dass extrem lange Reaktionszeiten gemessen werden, welche sich nicht gut verkaufen lassen. Siehe übertriebene Herstellerangaben.

Des weiteren vermisse ich Grenzwerte oder Aussagen, ab denen "alles ok" ist. Wie zb wenn die Reaktionszeit der Pxiel eines 144Hz Monitors langsamer ist als die Bildaufbauzeit, was ja grundsätzlich nicht gut wäre. Wird vermutlich nicht möglich sein, weil sehr subjektiv welche Werte wem ausreichen oder zu langsam sind. In etwa wie fps.
Ist halt ein Standard der irgendwann gesetzt wurde und daher verwendet wird.
Die lahmen Reaktionszeiten von VA in dem Bereich sind ja immer noch erkennbar.

Idealfall für 144Hz wären ja knapp 7ms und schneller.
Je langsamer, desto mehr Schlieren entstehen dann bei Bewegungen.
Grenzwerte sind halt schwierig, da nicht jeder die gleichen Farbverläufe hat oder empfindlich darauf reagiert.
Wenn du wirklich auf Nummer sicher gehen willst, wähle einen Monitor dessen Reaktionszeit möglichst nicht die Bildwiederholrate übersteigt.
 

PCGH_Manu

Redakteur
Teammitglied
Nur wird für die Messung und die Vergleichbarkeit nur die Zeit zwischen 10-90% genommen.
Machen eigentlich alles Redaktionen und die Reaktionszeiten ähneln sich meist stark (Ausnahme PCGH).
Quark. Auch wir messen zwischen 10-90 %. Das ganze hat nen messtechnischen Hintergrund, weil man bei einer S-Kurve nicht zwischen 0-100 % messen kann - und dementsprechend es das Oszilloskop auch automatisch so misst. Grade deswegen sind die "ganzen" Reaktionszeiten mit 0-100-Werten bei Rtings auch für die Tonne. Sind per Hand ermittelt und daher einfach nur ungenauer.

Bei tftcentral von 0-20% 17,8ms (16,4ms 27") OD Standard.
PCGH 0-25% komischerweise 2,7ms OD Standard.
Die Einzelwerte zwischen unseren und deren Messungen sind einfach nicht vergleichbar, weil wir 25%iges Grau nehmen und Tftcentral 20%ige Pixelhelligkeit. Der Unterschied ist da die Gamma-Kurve, bei 25% Grau liegt keine 25%ige Helligkeit an, sondern in etwa 50% bei einem 2.2-Gamma. Daher ist das nicht genauer oder besser, sondern einfach nur anders. Ich hatte mich damals bewusst für die sichtbaren Farben entschieden, weil die Abstufung Pixelhelligkeit gerade in hellen Bereichen große Bereiche überspringt und damit mehr dunklere, kontrastarme Unterschiede misst als die hohen, die für die Praxis wichtiger sind weil sichtbarer. Das erklärt auch, warum Tftcentral mehr die Ausreißer findet, die ja bei VA eher in den dunklen Farben liegen. Die 6x6-Matrix ist daher nicht unbedingt viel genauer als meine mit nur 5x5, da unsere beide Methoden nur wenige Stichproben der 256x256-Abstufungen sind. (bzw. 1024x1024 bei 10 Bit :P )

Für die Gesamtbewertung macht das aber kein Unterschied und letztlich zählt das Ufo-Foto.

Da stellt sich mir die Frage, warum man bei bei schwarz nicht bei RGB 0 startet. Bei Spielen hat man so oft sehr dunkle oder schwarze Bildinhalte. Weltraum? Weiß hingegen ist ziemlich selten.
Das hast du falsch verstanden. Nur weil zwischen 10-90% an der Flanke gemessen wird, wird ja trotzdem zwischen der Wert für bspw. ganz Schwarz und ganz Weiß gemessen. Es geht hier um eine bestmögliche Annäherung an vergleichbare Messwerte und nicht unbedingt um die absolute Genauigkeit.
Des weiteren vermisse ich Grenzwerte oder Aussagen, ab denen "alles ok" ist. Wie zb wenn die Reaktionszeit der Pxiel eines 144Hz Monitors langsamer ist als die Bildaufbauzeit, was ja grundsätzlich nicht gut wäre. Wird vermutlich nicht möglich sein, weil sehr subjektiv welche Werte wem ausreichen oder zu langsam sind. In etwa wie fps.
Nicht umsonst widme ich im Test immer einen großen Absatz den Reaktionszeiten. Es gibt da keine einfachen und eindeutigen Grenzen für "alles ok" - auch die Milchmädchenrechnung Reaktionszeiten < Bildaufbauzeit geht nicht immer auf und erst recht nicht, wenn man die Reaktionszeiten wieder in die Frequenz umrechnet - technisch absoluter Quark, weil jeder Bildaufbau aus vielen unterschiedlichen Farbwechseln besteht und hohe Reaktionszeiten in kontrastarmen Farbwechseln nicht so sichtbar sind wie in kontraststarken. Die Zahlen sind hier daher nur die halbe Wahrheit, das Ufo-Bild ist da schon aussagekräftiger und praxisnäher.
 

JoM79

Trockeneisprofi (m/w)
Quark. Auch wir messen zwischen 10-90 %. Das ganze hat nen messtechnischen Hintergrund, weil man bei einer S-Kurve nicht zwischen 0-100 % messen kann - und dementsprechend es das Oszilloskop auch automatisch so misst. Grade deswegen sind die "ganzen" Reaktionszeiten mit 0-100-Werten bei Rtings auch für die Tonne. Sind per Hand ermittelt und daher einfach nur ungenauer.
Ich habe nicht geschrieben, dass du nicht bei 10-90% misst, sondern das deine Messergebnisse teils deutlich von zB rtings oder tftcentral abweichen.
Das Problem sieht man zB in der aktuellen PCGH.
Da ist im Monitorvergleich ein VA der mit den besten Reaktionszeiten, schneller als ein IPS.
Bei den Bildern sieht man aber deutlich die VA typischen schwarzen Schlieren.
 

PCGH_Manu

Redakteur
Teammitglied
Die Einzelwerte weichen teils deutlich ab, nicht unbedingt die Mittelwerte aller Einzelmessungen, die noch immer am aussagekräftigsten sind. Ebenso wenig die anschließende Bewertung.

Davon abgesehen, dass der neue M34, den du ansprichst, der erste Monitor ist, bei dem ich die VA-Schlieren nicht in den Messausreißern feststellen konnte, spricht "das Problem"(tm) ja umso mehr für meine Predigt, sich nicht in der Kaffeesatzleserei der Zahlen zu verlieren. Was zählt ist, was man sieht.
 

JoM79

Trockeneisprofi (m/w)
Ich hatte jetzt schon einige Monitore hier und der Bildeindruck beim spielt hat sich immer mit den Zahlenwerten von tftcentral oder rtings gedeckt.
Hatte auch noch nie Probleme anhand dieser Zahlenwerte einen Monitor auszusuchen, der das dann nicht geliefert hat.
Der LC hat so ziemlich das gleiche Verhalten wie der Asus XG43Q bei 120Hz und OD 5.
Reaktionszeiten im Rahmen, aber ein grausames Bewegtbild durch schwarzen Overshoot.

Ein einzelner Wert kann halt das ganze Bild verhageln.
Es kommt halt immer auf die Situation bzw die Spiele an.
Zum Beispiel Fifa zeigt teils sehr deutlich die Schwächen von VA auf, rotes Dreieck auf grünem Rasen mit schwarzem Schweif hinter dem Dreieck.
So ein Problem habe ich noch nicht bei IPS oder TN gesehen, auch nicht beim lahmen AAS Panel.
Bezogen natürlich immer auf 120Hz+.
 

PCGH_Manu

Redakteur
Teammitglied
Beste Gegenbeispiel für deine These ist da der Odyssey G7: Tftcentral und Rtings messen Ausreißer und Overshoot - aufm Bild siehste nix.

Quasi das Gegenteil zu meiner M34-Messung. Darfst dir halt nicht nur das Beispiel raussuchen, das dir passt.
 

Mitchpuken

Software-Overclocker(in)
Das hast du falsch verstanden. Nur weil zwischen 10-90% an der Flanke gemessen wird, wird ja trotzdem zwischen der Wert für bspw. ganz Schwarz und ganz Weiß gemessen. Es geht hier um eine bestmögliche Annäherung an vergleichbare Messwerte und nicht unbedingt um die absolute Genauigkeit.

Nicht umsonst widme ich im Test immer einen großen Absatz den Reaktionszeiten. Es gibt da keine einfachen und eindeutigen Grenzen für "alles ok" - auch die Milchmädchenrechnung Reaktionszeiten < Bildaufbauzeit geht nicht immer auf und erst recht nicht, wenn man die Reaktionszeiten wieder in die Frequenz umrechnet - technisch absoluter Quark, weil jeder Bildaufbau aus vielen unterschiedlichen Farbwechseln besteht und hohe Reaktionszeiten in kontrastarmen Farbwechseln nicht so sichtbar sind wie in kontraststarken. Die Zahlen sind hier daher nur die halbe Wahrheit, das Ufo-Bild ist da schon aussagekräftiger und praxisnäher.
Danke für die Aufklärung.

Kann ich verstehen, dass man generell kein "alles ok" raushauen will. Es braucht ja nur einen für den es nicht so ist, dann geht es wieder los. Ich habe mir nochmals das Thema zu Messungen bezüglich RGB, Gamma usw. durchgelesen, super interessant, aber zu 100% verstehen tue ich es nicht :P Aber viel mehr als noch vor ein paar Tagen. Ich denke viel Verständnis kommt vom selber testen. Ein Gefühl/Gespür dafür bekommt man vom reinen Lesen aber nicht. Schade, dass es dazu keine Streams gibt :schief:

Würde den G7 echt gerne live sehen, bin aber absolut kein Fan von online bestellen und zurück schicken. Blöde Moral.
 
Oben Unten