Die Monitore der PCGH-Leser: 1080p, 144 Hertz und Freesync beliebt

Es gibt laut Geizhals 96 Monitore mit 144Hz+ und Freesync.
6 davon schaffen 30-max Hz.
Gsyncmonitore gibt es in dem Bereich 39 Stück und alle können ab 30Hz.
Dh im Endeffekt habe ich bei Freesync sogar weniger Auswahl und mehr Aufwand.
 
Bei 30Hz ist es eh egal da bringt dir auch kein Freesync/G-sync nichts mehr das spiel wird ruckeln und das bild wird sich dramatisch verschlechtern. Immer negativ sachen listen ich find das PCGH forum lustig. Bei CB sind die Leute noch konstruktiv.

*Preis günstiger
* Konsolen unterstützen Freesync
* Fernseher unterstützen Freesync
* OpenSource also offen für Mods ect
* Zudem hat Intel angekündigt das die GPU´s Freesync unterstützen werden

Würde Nvidia Innovation verteilen würden sie diese Features für jeden zugänglich machen so ist aber nicht, siehe auch PysikX, Gameworks geschlossene Systeme wo niemand was weiß und nur Unfug mit betrieben wird.
Wenn du Nvidia mit was vergleich solltest man es mit Apple machen, Melken bis der Arzt kommt. Bei Autos in Deutschland ja auch nicht anders oh ja die Spaltmaße sind 3 mm besser dafür zahle ich 10.000 Euro drauf ist ja Deutsche Qualität(von 1000 ausländischen Zulieferer sage es aber niemanden psst).

Wär Nvidia mal Innovativ würden sie Freesync auch unterstützen


PS: Meine Fury hab ich auch nur weil ich die für 220 Euro geschossen habe, nur weil ich ein Produkt habe bin ich nachlang kein wie sagt man Fanboy?! XD
 
Wenn Nvidia den VESA Adaptive Sync unterstützen sollte, dann kann sich AMD ja noch mehr begraben gehen.
 
Wenn Nvidia den VESA Adaptive Sync unterstützen sollte, dann kann sich AMD ja noch mehr begraben gehen.

Äh..... wenn ich jetzt bloß wüsste, was du damit aussagen willst? Also wenn auch nVidia FreeSync macht, oder wie? Weil FreeSync is ja nix anderes als eine Implementierung von VESA Adaptive Sync...

FreeSync is a hardware–software solution that uses DisplayPort Adaptive-Sync protocols to enable smooth, tearing-free and low-latency gameplay.

Wobei AMD ja noch einiges an Verbesserungen gegenüber dem VESA-Standard vorgenommen hat.
 
Wenn du es doch verstanden hast, warum fragst du dann?
AMD nutzt nur den offen Standard und nennt seine Lösung Freesync.
Wenn Nvidia den offen Standard nutzen würde, würde es weiterhin Gsync heissen.
Nur welche Argumente gäbe es dann noch, eine AMD Karte zu kaufen?
 
Es gibt laut Geizhals 96 Monitore mit 144Hz+ und Freesync.
6 davon schaffen 30-max Hz.
Gsyncmonitore gibt es in dem Bereich 39 Stück und alle können ab 30Hz.
Dh im Endeffekt habe ich bei Freesync sogar weniger Auswahl und mehr Aufwand.

Und wieviele von den 144Hz haben LFC?(wenn GH nicht lügt 38Stk..)
Das darfste nicht vergessen wird LFC unterstützt ist es fast schnuppe wo die Range anfängt wenn se bei 70liegt ist dank LFC auf 30HZ/FPS auch Freesync gegeben generell ist Freesync dann in jeder Range aktiv.


Und es lasssen sich auch ausnahmslos alle Freesyncer auf 35Hz runteregln ohne Prob. zumindest die,die nur bis 75Hz gehen bei den anderen ist es egal wie gesagt.

Das Range Argument finde ich eh daneben wer spielt dann schon auf 30FPS/Hz wohl niemand.

Und für ein paar handgriffe die man machen muss um aufs +- gleiche ergebniss zu kommen wie bei G-Sync zahlt man natürlich gerne doch 150-500€ extra^^

Pu schrieb:
Ich hoffe mal, dass das 21:9 Format sich nicht durchsetzen wird, .

Und ich hoffe doch das 21:9 weiter Fortschritte macht das ist für mich das neue 16:9.
Da fleißig 21:9 Monitore in allen möglichen größen kommen kann das Geschäfft ja nicht schlecht laufen zumal man ggü. 16:9 kein nachteil hat.
 
Zuletzt bearbeitet von einem Moderator:
Überrascht mich kein bisschen. Hier bekommt man manchmal das Gefühl das alle mit 1440p oder gar 4K Monitoren rumrennen,
aber die Wirklichkeit scheint doch so auszusehen wie ich es mir auch vorstelle, gute, bezahlbare Full HD Monitore.
Einmal high refreshrate, und man möchte nicht mehr zurück.
Da bietet die 1080ti in AAA games gerade eben so genug Leistung für. Aber eine 1080ti für Full HD ist ja sooo schwachsinnig :ugly:
 
Überrascht mich kein bisschen. Hier bekommt man manchmal das Gefühl das alle mit 1440p oder gar 4K Monitoren rumrennen,
aber die Wirklichkeit scheint doch so auszusehen wie ich es mir auch vorstelle, gute, bezahlbare Full HD Monitore.
Einmal high refreshrate, und man möchte nicht mehr zurück.
Da bietet die 1080ti in AAA games gerade eben so genug Leistung für. Aber eine 1080ti für Full HD ist ja sooo schwachsinnig :ugly:

Naja die Leistung die ich ins AA buttere kann ich auch für ne höhere Auflösung nutzen und habe mehr davon.(Fläche,schärfer,detailreicher).


Das viele noch auf FullHD krebsen liegt wohl auch daran das es den meisten schlicht egal ist und FullHD ihnen reicht hauptsache ein Bild.
Oder es halt nicht anders kennen.
Und dann gibts noch die,die im Leistungsbereich einer 1050 rumeumeln.


Eine 1080TI ist wieso verschenkt auf nem FullHD Monitor.
 
Der Satz war auch wirklich so gemeint, bevor ich 800€ gegen den Monitor werfe, kaufe ich lieber einen neuen Monitor :D
Hier hoffe ich das das Thema 4K 120 Hz ordentlich vorangetrieben wird und dabei ein paar gute Mittelklassekarten für Full HD 144 Hz abfallen.
Das Thema 240 Hz Monitore finde ich auch recht interessant, das muss ja richtiges CRT Feeling sein.
 
Also der artikel stimmt nur teiweise. Es kommen die brauchbaren bildschirme nicht unter 27 " wo bleiben die richtig guten unter 27. Die firmen haben sich auf 27" spezialisiert. Somit komme ich quf meinen wunsch monitor auch in naher zufunft nicht so schnell. Wenm der defekttr ist dann mache ich von 3840x2160 auf 2560x1440. Daa macht zwar eigentlich keinen sinn aber ich werde das so in zukunft dennoch machen.
 
@Pu244

Ich kann deine Argumentation nur als abenteuerlich bezeichnen, doch ist deine Meinung dir unbenommen. Hast Du irgendeinen Beleg dafür, dass G-Sync nicht sonderlich im Markt angekommen sind? Dass man sie "suchen" muss? Nur weil jeder Monitorhersteller nahezu lizenzfrei Freesync draufpappen kann und knapp 300 Monitore dieses Feature "unterstützen", muss das erstens kein Garant für eine sinnvolle Implementierung sein (wie zahlreiche Iterationen beweisen mit lustigen Spannen von 48-60hz; die wenigen mit knapp 30-

Es ging mir hauptsächlich um die Marktdurchdringung und die ist bei Freesync erheblich besser. Zu den Unzulänglichkeiten der Implementierung habe ich ja bereits etwas geschrieben, der Punkt ist, dass ein Großteil davon nichts oder nur wenig weiß, von daher schadet das AMD nicht so sehr.

Wie kommst du auf 30-40W mehr Verbrauch?

Das GSync Modul ist nicht zur Zierde da, es berechnet einiges und braucht dafür auch ordentlich Strom. Besonders die 4K 144Hz Modelle gönnen sich einiges an Strom, die 180W Verbrauch kommen nicht nur von den 1000cd/m².

Es gibt laut Geizhals 96 Monitore mit 144Hz+ und Freesync.
6 davon schaffen 30-max Hz.
Gsyncmonitore gibt es in dem Bereich 39 Stück und alle können ab 30Hz.
Dh im Endeffekt habe ich bei Freesync sogar weniger Auswahl und mehr Aufwand.

Dank Bildverdoppelung müssen die guten Monitore nur eine Spanne von der halben Frequenz des Monitors aufweisen, um gut zu sein. Bei 60Hz Modellen sind es in der Tat 30Hz, bei den 144Hz Modellen reichen allerdings auch 72Hz, dann sieht es schon besser aus.

Da fleißig 21:9 Monitore in allen möglichen größen kommen kann das Geschäfft ja nicht schlecht laufen zumal man ggü. 16:9 kein nachteil hat.

Es fehlt vorallem an Höhe, da sind die Dinger absolut untauglich. Ich habe das Problem schon bei meinem 16:9 Monitor, da mußten 32" in 4K her, damit eine vernünftige Höhe gegeben war. Die 21:9 Monitore sind ganz gut um darauf Filme anzuschauen und Egoshooter, die es sinnvoll unterstützen, zu zocken. Für den Rest sind sie allerdings mMn nicht wirklich zu gebrauchen, es hat eben nachteile, wenn ein Format vorallem darauf ausgelegt ist, den Überblick zu verlieren.

Ja, weil du bei hohen fps und FHD meist im CPU Limit hängst.

Aber eben nicht immer, wenn man keine Probleme damit hat konsequent in niedrigen bis mittleren Details zu zocken, bis die Bildwiederholrate akzeptabel ist, dann kommt man um eine gute Graka rum, wenn man hingegen auch die neuesten Graphikbomben in voller Pracht zocken will, dann ist eben eigentlich das Beste vom Besten angesagt.
 
Natürlich tut "es" das.

Nein. bei 4k video auf 1080p monitor werden 4 pixel zu einem zusammengefasst
bei 1080p Video auf 4k Monitor wird 1 pixel auf 4 verteilt.
bei 1080p Video auf 2K Monitor, muss 1 Pixel auf eine ungerade zahl von pixeln aufgeteilt werden was schlecht geht und dadurch die pixel verwischen.
 
Überrascht mich kein bisschen. Hier bekommt man manchmal das Gefühl das alle mit 1440p oder gar 4K Monitoren rumrennen,
aber die Wirklichkeit scheint doch so auszusehen wie ich es mir auch vorstelle, gute, bezahlbare Full HD Monitore.
Einmal high refreshrate, und man möchte nicht mehr zurück.
Da bietet die 1080ti in AAA games gerade eben so genug Leistung für. Aber eine 1080ti für Full HD ist ja sooo schwachsinnig :ugly:

Hatte bis gestern noch nen 100€ samsung FHD monitor. Nun hab ich nen LG 4k IPS Monitor (300€) und möchte nicht mehr zurück. ich finde, dass 4k 60hz besser ist als 1080p 144hz. Zumindest in RPGs wie The Witcher 3 o.Ä.
ich mein wenn ich jetzt noch 144hz mit gsync hätte, würde mir das das 8-fache von dem LG Monitor kosten!

Und das Lustige ist, Asus und Acer Monitore haben anscheinend keine Qualitätskontrolle, da schon recht oft backlight bleeding und pixelfehler vorhanden waren.
Und der 300€ LG hatte sogar nen Qualitätsbericht dabei :D
 
Mir persönlich reichen 60Hz bisher auch vollkommen, hab auch schon an 144Hz Monitoren gesessen und konnte kaum einen Unterschied feststellen. Liegt aber vielleicht auch nur an mir, andere Menschen sind da ja empfindlicher.
4K würde mich da schon eher reizen, aber generell mangelt es ja etwas an Inhalten in 4K. Abgesehen von Videospielen natürlich, aber das stemmt meine Grafikkarte sowieso nicht und was Besseres liegt nicht in meinem Budget :D
 

Doch.
Weil MPC-HC, VLC etc. skalieren IMMER minimal ungenau, egal ob 1080p auf 4K Monitor oder 1080p Video auf 1440p Monitor. Du hast nicht plötzlich eine schärfere Darstellung, nur weil die Auflösung des Videos genau 1:4 ist. So funktioniert das nicht.

Oder redest du vom direkten Anschluss per BR-Player? Dann bist du aber hier falsch, weil es um PC-Monitor im Betrieb am PC geht und nicht Fernseher geht.
 
Doch.
Weil MPC-HC, VLC etc. skalieren IMMER minimal ungenau, egal ob 1080p auf 4K Monitor oder 1080p Video auf 1440p Monitor. Du hast nicht plötzlich eine schärfere Darstellung, nur weil die Auflösung des Videos genau 1:4 ist. So funktioniert das nicht.

Oder redest du vom direkten Anschluss per BR-Player? Dann bist du aber hier falsch, weil es um PC-Monitor im Betrieb am PC geht und nicht Fernseher geht.
ich mein halt mit direktem bildstream zum monitor. ähnlich wie BD, nur mitm pc und monitor.
 
Das die meisten User noch FHD haben überrascht mich nicht. Insgesamt wird das wohl auch für die meisten Otto-Normal-Verbraucher zutreffen.
WQHD und UHD kaufen sich die richtigen Enthusiasten eher. Weil ja auch dafür stärkere Hardware vorraussgesetzt wird.
Ich hätte mir auch einen WQHD kaufen können, aber mit meiner Grafikkarte komme ich da nicht weit und eine GTx 1070 war mir zu dem Zeitpunkt zu teuer.
In 3-4 Jahren wird wohl WQHD Standard sein. Vielleicht noch eher. :)
 
Überrascht mich kein bisschen. Hier bekommt man manchmal das Gefühl das alle mit 1440p oder gar 4K Monitoren rumrennen,
aber die Wirklichkeit scheint doch so auszusehen wie ich es mir auch vorstelle, gute, bezahlbare Full HD Monitore.
Einmal high refreshrate, und man möchte nicht mehr zurück.
Da bietet die 1080ti in AAA games gerade eben so genug Leistung für. Aber eine 1080ti für Full HD ist ja sooo schwachsinnig :ugly:

Einmal in 4k spielen und du wirst nie wieder zur Augenkrebs Auflösung Full HD zurück wollen
 
Zurück