Die Monitore der PCGH-Leser: 1080p, 144 Hertz und Freesync beliebt

Also mir reicht WQHD völlig, FullHD nutze ich nur noch als zweiten Monitor.

Gesendet von meinem SM-G930F mit Tapatalk
 
Das GSync Modul ist nicht zur Zierde da, es berechnet einiges und braucht dafür auch ordentlich Strom. Besonders die 4K 144Hz Modelle gönnen sich einiges an Strom, die 180W Verbrauch kommen nicht nur von den 1000cd/m².
Ahja.
Test Monitor Asus MG279Q (Seite 2) - Prad.de
Test Monitor Asus PG279Q (Seite 2) - Prad.de
Sehr ähnlicher Monitor, dabei verbraucht der Gsyncmonitor weniger.
Also, wie kommt man auf 30-40W mehr Verbrauch.
Zun den UHD Teilen gibt es noch keine vergleichbaren Monitore.
 
ich mein halt mit direktem bildstream zum monitor. ähnlich wie BD, nur mitm pc und monitor.

Ein Video wird im letzten Schritt immer an die Auflösung des jeweiligen Monitors angepasst, d.h. selbst bei 1080p Video auf einem 1080p Monitor hat man diesen Berechnungschritt mit drin. Von daher gibt es, zumindest bei Videos, in dieser Hinsicht keinen Vor- oder Nachteile, ob man ein 1080p Video auf einem WQHD, 4k, 5K oder 8K Monitor ausgibt. Natürlich sind mehr Pixel immer besser, da das Ergebnis genauer wird.

Also, wie kommt man auf 30-40W mehr Verbrauch.
Zun den UHD Teilen gibt es noch keine vergleichbaren Monitore.

Man kann aber den Verbrauch des GSync Moduls in den 144Hz 4K Monitoren betrachten, es wird nicht umsonst aktiv gekühlt. Freesync ist technisch gesehen nunmal der langweiligere Ansatz, das drückt sich nicht nur im besseren Ergebnis von GSync aus, sondern eben auch in den Kosten und dem Verbrauch und da ist Freesync leider besser (auch wenn man durchaus sagen kann, dass GSync die Sache wert ist).
 
Zuletzt bearbeitet:
...
Man kann aber den Verbrauch des GSync Moduls in den 144Hz Monitoren betrachten, es wird nicht umsonst aktiv gekühlt. Freesync ist technisch gesehen nunmal der langweiligere Ansatz, das drückt sich nicht nur im besseren Ergebnis von GSync aus, sondern eben auch in den Kosten und dem Verbrauch und da ist Freesync leider besser (auch wenn man durchaus sagen kann, dass GSync die Sache wert ist).

Hm, Prad sagt irgendwie nein zu deiner These. Mutmaßt du nur oder hat das mal ne Fachzeitschrift/Redaktion als Thema gehabt? Btw, auch Freesync braucht zur Umsetzung des Adaptive Sync Standards nen anderen Scaler zur Bildsynchronisation, sonst könnte das per se jeder neue Monitor - dem ist wie wir wissen allerdings nicht so.
 
Einmal in 4k spielen und du wirst nie wieder zur Augenkrebs Auflösung Full HD zurück wollen
Wohl wahr! Nur reichen heutige Grafikkarten nicht für stabile 60 FPS mit sehr hohen Details.

Besonders nicht die, wo man mit Freesync einen echten Vorteil hat. Deswegen bin ich auch bei der Erklärung, dass Freesync ein von den Käufern bewusst beachtetes Feature sei, eher skeptisch. Angesichts eines krassen NVIDIA Marktanteils wird diese Skepsis sogar untermauert.
 
Man kann aber den Verbrauch des GSync Moduls in den 144Hz Monitoren betrachten, es wird nicht umsonst aktiv gekühlt. Freesync ist technisch gesehen nunmal der langweiligere Ansatz, das drückt sich nicht nur im besseren Ergebnis von GSync aus, sondern eben auch in den Kosten und dem Verbrauch und da ist Freesync leider besser (auch wenn man durchaus sagen kann, dass GSync die Sache wert ist).
Einfach weiter Unwahrheiten verbreiten, macht deine Aussagen nicht korrekter.
Ich hab dir sogar Tests verlinkt, die dich widerlegen.
Dann sprichst du wieder pauschal von 144Hz Gsync Monitoren, aber meinst die beiden neuen UHD Monitore.
Also entweder willst du hier trollen oder du kannst nicht richtig lesen.
 
Hm, Prad sagt irgendwie nein zu deiner These. Mutmaßt du nur oder hat das mal ne Fachzeitschrift/Redaktion als Thema gehabt? Btw, auch Freesync braucht zur Umsetzung des Adaptive Sync Standards nen anderen Scaler zur Bildsynchronisation, sonst könnte das per se jeder neue Monitor - dem ist wie wir wissen allerdings nicht so.

Im Moment lese ich mich gerade wieder ein.

Die von Neotax in den Raum geworfenen 30-40W könnten tatsächlich etwas zu hoch sein, jedenfalls für das GSync HDR Modul alleine. Die Frage ist wie hoch der Arria-10-GX-Chip von Altera dort taktet und wieviel er, mit seinen 3GB RAM dort verbraucht. Im bis jetzt habe ich da nicht soviel genaueres gefunden, abseits des üblichen Marketing. Tatsache ist, dass Nvidia den Arria 10 so hoch getaktet hat, dass er sich nichtmehr passiv kühlen läßt, was das für den Stromverbrauch bedeutet kann ich dann momentan nur schätzen. AMDs Ansatz ist da halt eben wesentlich spartanischer.

Ich kann mich erinnern, dass irgendwo auch die Rede von über 30W Mehrverbrauch war, die Seite habe ich jedoch nicht wiedergefunden.
 
@Pu244

Das bezieht sich aber höchstens auf das neue G-Sync HDR, welches aktiv gekühlt werden muss. In meinem ASUS ROG mit 165hz ist meines Wissens kein aktiver Lüfter verbaut, also das bisherige G-Sync Modul.

Dem Grunde nach war meine Argumentation eher darauf aus, inwieweit sich ein Kunde je nach Unternehmen zukünftig über neue Grafikkarten freuen kann unter der Prämisse, jeder Hersteller bleibt bei seiner Exklusivität (egal ob nun proprietär oder offen). Die Chancen für dedizierte Gamer-Grafikkarten sind meines Erachtens bei Nvidia höher und im Erscheinen auch konsistenter einzuschätzen (mal unabhängig des Verkaufspreises), wenn schon Vega ein Kombi-Compute Chip ist und dies Navi ebenfalls vom Design her wird. Man hatte schlicht das Geld nicht dafür, beide Märkte mit einem separatem Chip zu bedienen.

Die jüngsten Gerüchte, dass AMD sich auf die PS5 konzentriert, untermauert eigentlich nur die Empfehlung (und es ist auch nur eine Empfehlung meinerseits), eben nicht auf gute, leistungsstarke und verbrauchsarme Grafikkarten von AMD zu setzen in nächster Zeit. Die bisherigen Infos lassen wenn überhaupt nur auf HPC und auf Sidegrades schließen; nicht gerade das Beruhigende bei einer Investition von 6 Jahren. Dieser Umstand wird sich mit Turing noch verschärfen, jede Wette, denn Nvidia stellt halt nur GPUs her und hat nicht Intel auf dem zweiten Standbein als Konkurrenten.

Ich kann durchaus nachvollziehen, dass man als aktueller Besitzer einer Midrange AMD Karte bei einem Neukauf mit Freesync liebäugelt, weil man es unmittelbar einsetzen kann (und bei guter Recherche bei der Monitorwahl gibt es auch nicht wirklich Unterschiede zwischen beiden Techniken!). Doch was dann, wenn der UHD Monitor auf dem Tisch steht und eine neue Karte eigentlich die nötigen fps liefern soll. Vega ist im Vergleich zur Konkurrenz eigentlich noch zu teuer noch erreicht sie überhaupt die derzeitige 1080Ti. Perspektive fraglich, weshalb ich eher G-Sync empfehlen würde. Kaufen und abwägen muss es eh jeder selbst und Nvidia Aktien besitze ich nicht ;)
 
Wohl wahr! Nur reichen heutige Grafikkarten nicht für stabile 60 FPS mit sehr hohen Details.

Das Wunderbare am PC ist die Flexibilität. Wenn es nicht für nativ 2160p reicht stelle ich halt auf 3840x1800p, 3840x1600(wie einige Ultrawide Monitore) oder 3200x1800p. Ganze dann natürlich 1:1 dargestellt ohne Schärfeverlust. Dadurch werden die Reserven frei für oft stabile 60fps.

Natürlich setze ich dazu auch einen 32 Zoll Monitor oder gar 55 OLED ein und habe damit immer noch ein recht großes Bild bis hin zum 21:9 Format mit mehr Übersicht je nach Genre. Einen UHD Bildschirm kann man mit GPU Skalierung recht unterschiedlich ansteuern und hat immer noch mehr Details als WQHD wenn man möchte.
 
Ein Video wird im letzten Schritt immer an die Auflösung des jeweiligen Monitors angepasst, d.h. selbst bei 1080p Video auf einem 1080p Monitor hat man diesen Berechnungschritt mit drin. Von daher gibt es, zumindest bei Videos, in dieser Hinsicht keinen Vor- oder Nachteile, ob man ein 1080p Video auf einem WQHD, 4k, 5K oder 8K Monitor ausgibt. Natürlich sind mehr Pixel immer besser, da das Ergebnis genauer wird.

Bei 1080p und 2160p ists dann gleich in etwa. aber auf WQHD skaliert das wie gesagt anders. da wird z.b. aus einem pixel in 1080p, 2,5 (zum Beispiel) Pixel in Wqhd. Dabei müssen die Pixel ja auch genau ineinanderpassen was z.b. nur bei 4k ->Full HD und umgekehrt der Fall ist. Bei WQHD wird das dann unscharf da die Pixel verzerrt und teilweise mischt.
 
Na dann stellt man halt bei einem wqhd die desktop auslösung auf full hd. Dann werden aus den 2,5 pixel wieder gerade pixel. Wird zwar dann halt 2× hochskaliert aber sieht immer noch besser aus als matsch.
 
Komischerweise lief gestern ein WQHD Benchmark auf meinem 4k Monitor, und ich bin mir nicht sicher, ob das überhaupt noch wie FullHD aussah wegen der Skalierung. Das ist alles andere als Nahezu kein Unterschied.

Cool, hat nur nichts mit dem von dir genanntem zu tun:

[..] und wqhd skaliert bei full hd und 4k videos nicht sonderlich gut.



Bei 1080p und 2160p ists dann gleich in etwa. aber auf WQHD skaliert das wie gesagt anders.

Nein, Pu244 hat, zur Abwechslung mal, recht.
Du bekommst am PC kein exaktes 1:1 Video her, wenn du im Vollbild was anschaust. Es wird IMMER skaliert. Das müssen VLC, MPC-HC usw. einfach, sonst könntest du die Darstellung des Videos auch nicht einfach so anpassen.
 
Cool, hat nur nichts mit dem von dir genanntem zu tun:


Nein, Pu244 hat, zur Abwechslung mal, recht.
Du bekommst am PC kein exaktes 1:1 Video her, wenn du im Vollbild was anschaust. Es wird IMMER skaliert. Das müssen VLC, MPC-HC usw. einfach, sonst könntest du die Darstellung des Videos auch nicht einfach so anpassen.

ja, aus nem Benchmark kommt auch ein Videosignal.
und man kann auch 1:1 Skalieren. Das wird direkt an den Monitor weitergeleitet. Hab ich gestern mit MPC-HC und ein paar Plugins/Codecs etc auch mal getestet. Und warum sollten 2000 Pixel nicht auf 2000 Pixel skaliert werden?

Wie gesagt, beim Benchmark sah ich es am deutlichsten. War glaube ich 3dMark TimeSpy
 
Wohl wahr! Nur reichen heutige Grafikkarten nicht für stabile 60 FPS mit sehr hohen Details.

So wie Du das aufziehst, sitzt Du hoffentlich vor einem 17" mit 1024er Auflösung. Denn heutige Grafikkarten reichen nicht mal für FHD mit sehr hohen Details.


gta5_2017_06_22_17_54p2up5.jpg

Oder ist es eventuell doch PICNIC

gta5_2017_06_22_17_46tguz5.jpg
 
Zurück