• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Asus ROG Swift PG3290Q: 32-Zoll IPS-Monitor mit 175 Hz, ELMB-Sync und DisplayHDR 600 vorgestellt

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Asus ROG Swift PG3290Q: 32-Zoll IPS-Monitor mit 175 Hz, ELMB-Sync und DisplayHDR 600 vorgestellt

Asus plant die Einführung eines neuen Monitors mit dem Asus ROG Swift PG329Q. Der bietet unter anderem ein 32-Zoll-IPS-Panel und 175 Hz. Darüber hinaus ist auch VRR inklusive "G-Sync compatible"-Zertifizierung sowie DisplayHDR 600 an Board.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Asus ROG Swift PG3290Q: 32-Zoll IPS-Monitor mit 175 Hz, ELMB-Sync und DisplayHDR 600 vorgestellt
 

takan

Software-Overclocker(in)
lol... entweder bringen sie 4k auf 27" Mäusekino Auflösung oder 2560x1440 auf 32" für nice Pixelbrei oder wie man früher sagte: Kack Lochmaske :D


verstehe wer will.....

was ist an 30-32" 4k, IPS, FALD, HDR1000 so unfucking fassbar schwer

die panelausbeute.:lol:wenn einer von 100 deine anforderung erfüllt dann haste aber immer noch 99 stück die an man gebracht werden müssen.
 

RtZk

Lötkolbengott/-göttin
lol... entweder bringen sie 4k auf 27" Mäusekino Auflösung oder 2560x1440 auf 32" für nice Pixelbrei oder wie man früher sagte: Kack Lochmaske :D


verstehe wer will.....

was ist an 30-32" 4k, IPS, FALD, HDR1000 so unfucking fassbar schwer

27 Zoll ist der Sweetspot, zeigen auch sehr eindeutig die Verkaufszahlen. Für mehrere Dinge gleichzeitig offen haben sind mehrere Bildschirme sowieso besser. Abgesehen davon um so größer Bildschirm um so niedriger die Pixeldichte, Auflösung ohne Betrachtung der Pixeldichte ist völlig irrelevant.
 

NuVirus

PCGH-Community-Veteran(in)
also mir ist mein 27" definitiv zu klein seit ich nen 4k 32" zum Arbeiten etc zusätzlich günstig gekauft habe...

Meinem Bruder gehts genauso.
 

Naennon

Freizeitschrauber(in)
27" mag Sweetspot sein, aber für 4k einfach ungeeignet

hatte den PG27UQ hier, den PG348Q, den PG35VQ, den LG 38GL950 und den 34GN850

abgesehen davon das ich UW biased bin, ist 27" einfach nix imho

ich sehe das eher so

24-27" = 1920x1080
27-30" = 2560x1440
30-32" = 3940x2160

alles drüber die Sonderauflösungen
 

BikeRider

Volt-Modder(in)
Bei 32°, 3940x2400 (IPS) und nem Preis von 500 €uro wäre ich wohl dabei.
 
Zuletzt bearbeitet:

Acgira

Freizeitschrauber(in)
Ich bin eigntlich nur noch neugierig darauf welcher Monitorhersteller den ersten Gamingmonitor mit HDMI 2.1 vorstellt. - Wenn es keiner tut - bedeutet das vermutlich die nächsten Grafikkarten haben diesen Anschluss auch noch nicht... (schon wieder nicht) Und wenn sie den Anschluss dann doch haben - dann frag ich mich warum sie jetzt bei den ganzen Monitorneuvorstellungen sowas verschlafen. Schlißlich müsste man wenn man eine Grafikkarte mit HDMI 2.1 kaufen kann - dann wenigstens ein Jahr warten bis man dann einen Monitor dazu bekommt - sowas müsste ja erst mal wieder vorgestellt werden.

Natürlich würde eine jetztige Vorstelleung eines HDMI 2.1 Anschlusses auf einen Gamingmonitor eindeutig vorweg nehmen, dass die nächsten Grafikkarten das bereits haben. Also wenn das an echt an schrägen NDA-Regeln liegen würde- wäre das sowas von einen bewiesenen Armutszeugnis für die ganze Hardware-Industrie. Aber irgendwie fühl ich mich vorgewarnt und habe echt bedenken mir ohne die Specs der neuen Grafikkarten zu kennen einen größeren und "schnelleren" Monitor zu kaufen. Weil das könnte dann gegen Ende des Jahres in einem puren Frusterlebnis enden.
 

NuVirus

PCGH-Community-Veteran(in)
1440p auf 32" ist nich perfekt aber auch nicht schlecht, gibt auch genug die mit FullHD und 27" zufrieden sind das ist ja grob vergleichbar.
 

takan

Software-Overclocker(in)
Ich bin eigntlich nur noch neugierig darauf welcher Monitorhersteller den ersten Gamingmonitor mit HDMI 2.1 vorstellt. - Wenn es keiner tut - bedeutet das vermutlich die nächsten Grafikkarten haben diesen Anschluss auch noch nicht... (schon wieder nicht) Und wenn sie den Anschluss dann doch haben - dann frag ich mich warum sie jetzt bei den ganzen Monitorneuvorstellungen sowas verschlafen. Schlißlich müsste man wenn man eine Grafikkarte mit HDMI 2.1 kaufen kann - dann wenigstens ein Jahr warten bis man dann einen Monitor dazu bekommt - sowas müsste ja erst mal wieder vorgestellt werden.

Natürlich würde eine jetztige Vorstelleung eines HDMI 2.1 Anschlusses auf einen Gamingmonitor eindeutig vorweg nehmen, dass die nächsten Grafikkarten das bereits haben. Also wenn das an echt an schrägen NDA-Regeln liegen würde- wäre das sowas von einen bewiesenen Armutszeugnis für die ganze Hardware-Industrie. Aber irgendwie fühl ich mich vorgewarnt und habe echt bedenken mir ohne die Specs der neuen Grafikkarten zu kennen einen größeren und "schnelleren" Monitor zu kaufen. Weil das könnte dann gegen Ende des Jahres in einem puren Frusterlebnis enden.

gibt doch display port. das ist doch auch die bessere schnittstelle. wenn man keinen wert auf hdcp legt ist es doch wumpe ob dp oder hdmi. meinen monitor hatte ich zeitweise zweimal, habs bild gecloned einmal mit hdmi/dp an der selben graka. dp sah besser aus im windows betrieb. hdmi wird so verwaschen.
 

JoM79

Trockeneisprofi (m/w)
Dann hast du aber was falsch gemacht.
Das Bild wird digital übertragen, da sollte nix verwaschen.
Klingt eher nach falschen Einstellungen.
 

massaker

PC-Selbstbauer(in)
lol... entweder bringen sie 4k auf 27" Mäusekino Auflösung oder 2560x1440 auf 32" für nice Pixelbrei.......... was ist an 30-32" 4k, IPS, FALD, HDR1000 so unfucking fassbar schwer

Sind doch schon für 2020 angekündigt! Und zwar Acer Predator X32 und der ROG Swift PG32UQX! Mit Mini-LED 1152 LDZs FALD und HDR1400... Viel Spaß mit dem erwarteten Preis im Bereich 3500-4000 €... :P:fresse:

P.S.: siehe DA
 
Zuletzt bearbeitet:

sethdiabolos

Volt-Modder(in)
27" mag Sweetspot sein, aber für 4k einfach ungeeignet

Ähm nein...:)
Aber lass mich raten UHD beim TV unterhalb von 65 Zoll oder FHD+ beim Handy unter 6 Zoll macht auch keinen Sinn? Es liegt immer beim Betrachter, 32 Zoll UHD würde zwar noch gehen, hätte aber in etwa die Darstellungsqualität eines 27 Zoll WQHD, das wäre mir persönlich schon wieder zu grobpixelig. Ich brauche nicht noch mehr Bildfläche, ich benötige Bildfläche und hohe Pixeldichte, deswegen nutze ich auch mehrere UHDs.
 

Blackvoodoo

Volt-Modder(in)
Sind doch schon für 2020 angekündigt! Und zwar Acer Predator X32 und der ROG Swift PG32UQX! Mit Mini-LED 1152 LDZs FALD und HDR1400... Viel Spaß mit dem erwarteten Preis im Bereich 3500-4000 €... :P:fresse:

P.S.: siehe DA
Das wäre meine Größe gewesen. Aber der Preis ist nicht mehr normal. Mein Ex PG27UQ kostete 2500 €, das war schon teuer genug. Jetzt werden sie größer, HDR 1400 statt 1000 und FALD mit Mini LED. Ja das wird kein billiger Spaß.

Da gab ich lieber 1750 € für 48“ OLED aus. Seit Samstag habe ich ihn und bin begeistert. :daumen:
 

Pu244

Lötkolbengott/-göttin
Mit einer guten Skalierung kann es garnicht genug Pixel geben. Nicht unbedingt zum zocken (zumindest für mich), sondern zum Arbeiten, Bildbetrachten, Internetsurfen usw.. Selbst 16K würde noch Sinn ergeben, da könnte man dann fast garkeine Pixel mehr erkennen, selbst bei genauem Hinsehen.
 

4thVariety

Software-Overclocker(in)
Ich behaupte mal, dass wenn das 4k Display "nur" 120Hz kann, dann wäre das auch voll in Ordnung. Allen voran Asus scheint bei der PR voll auf die Refresh-Rate zu setzen. Ich weiß nicht, ob es wirtschaftlich sinnvolle wäre lieber mehr Leute von 120Hz zu überzeugen, als in diesen Refresh-Krieg einzusteigen, der eine kleiner Zielgruppe betreffen dürfte.

Nach meiner Erfahrung mit einem 144Hz Panel, sind 60Hz absolut nice, bis 100Hz merkt man noch was, alles da drüber ist rein psychosomatisch würde ich behaupten. Daher sage ich 4k 120Hz die größere Zukunft voraus als all diesen Krummen Dingern, 144, 165, 175, 240, etc. Selbst 4k 120 ist ja bei heutigen Grafikkarten utopisch, außer man klebt auf eSport Titeln mit Anti-Grafik fest. Ist das wirklich der zahlungskräftige Massenmarkt für 1000€+ Monitore? Oder sind das eher die Teenager?
 

JoM79

Trockeneisprofi (m/w)
Das ist das Problem, für dich bringt alles ab 100Hz keinen Vorteil.
Andere Leute sehen das aber wieder vollkommen anders.
 

massaker

PC-Selbstbauer(in)
Nö. Ich hatte früher einen 4k mit 60Hz. Und die waren ganz bestimmt nicht "absolut nice", sondern je nach Spiel mehr oder weniger erträglich, nicht zuletzt dank G-sync. Habe Witcher3 mit 50-55fps durch und das war "recht nice", aber zB für CoD waren 60fps auf Anschlag trotzdem ungenügend bis mangelhaft. Was ich als "absolut nice" empfinde, sind ca 80-90fps (warum wohl VR-Brillenhersteller diesen Bereich anvisieren?). Darüber hinaus sieht man bei Schritten >100>110 noch klare Verbesserungen und bei >120 noch leichte Verbesserung. Danach muss man sich schon konzentrieren, aber bis 144 (141 wegen Limiter) gibt es noch ganz leichte Verbesserung und gefühlte Snappiness in schnellen Spielen. Danach gibt es nur Nuancen, auf die man sich sensibilisieren muss und meine Wahrnehmungsgrenze liegt bei 180fps. Zwischen 180 und 200 sehe ich bei meinem jetzigen Monitor beim besten Willen Null Unterschied. Der läuft jetzt standardmäßig auf 144Hz. Mit 120 Hz könnte ich aber auch noch Leben (Oh ja, mit OLED��), aber darunter würde ich nicht mehr zurück wollen.
 

DKK007

PCGH-Community-Veteran(in)
Man hätte die Auflösung bei der Größe auf 5K verdoppeln sollen. Dann wäre der Monitor super.
 

cl55amg

BIOS-Overclocker(in)
Ich bin eigntlich nur noch neugierig darauf welcher Monitorhersteller den ersten Gamingmonitor mit HDMI 2.1 vorstellt. - Wenn es keiner tut - bedeutet das vermutlich die nächsten Grafikkarten haben diesen Anschluss auch noch nicht... (schon wieder nicht) Und wenn sie den Anschluss dann doch haben - dann frag ich mich warum sie jetzt bei den ganzen Monitorneuvorstellungen sowas verschlafen. Schlißlich müsste man wenn man eine Grafikkarte mit HDMI 2.1 kaufen kann - dann wenigstens ein Jahr warten bis man dann einen Monitor dazu bekommt - sowas müsste ja erst mal wieder vorgestellt werden.

Natürlich würde eine jetztige Vorstelleung eines HDMI 2.1 Anschlusses auf einen Gamingmonitor eindeutig vorweg nehmen, dass die nächsten Grafikkarten das bereits haben. Also wenn das an echt an schrägen NDA-Regeln liegen würde- wäre das sowas von einen bewiesenen Armutszeugnis für die ganze Hardware-Industrie. Aber irgendwie fühl ich mich vorgewarnt und habe echt bedenken mir ohne die Specs der neuen Grafikkarten zu kennen einen größeren und "schnelleren" Monitor zu kaufen. Weil das könnte dann gegen Ende des Jahres in einem puren Frusterlebnis enden.

Ja ich habe auch die große Befürchtung, dass HDMI 2.1 doch nicht mit z.B. Ampeer kommt. Das wäre wirklich bitter. Konnte bis jetzt auch nichts dazu finden.
 

BxBender

BIOS-Overclocker(in)
Ich behaupte mal, dass wenn das 4k Display "nur" 120Hz kann, dann wäre das auch voll in Ordnung. Allen voran Asus scheint bei der PR voll auf die Refresh-Rate zu setzen. Ich weiß nicht, ob es wirtschaftlich sinnvolle wäre lieber mehr Leute von 120Hz zu überzeugen, als in diesen Refresh-Krieg einzusteigen, der eine kleiner Zielgruppe betreffen dürfte.

Nach meiner Erfahrung mit einem 144Hz Panel, sind 60Hz absolut nice, bis 100Hz merkt man noch was, alles da drüber ist rein psychosomatisch würde ich behaupten. Daher sage ich 4k 120Hz die größere Zukunft voraus als all diesen Krummen Dingern, 144, 165, 175, 240, etc. Selbst 4k 120 ist ja bei heutigen Grafikkarten utopisch, außer man klebt auf eSport Titeln mit Anti-Grafik fest. Ist das wirklich der zahlungskräftige Massenmarkt für 1000€+ Monitore? Oder sind das eher die Teenager?

Bei den hohen Hertzzahlen geht es nicht mehr nur alleine um die sofortige optische Wahrnehmung.
Das hat einen positiven Einfluss auf etliche Dinge, die man dann bei größeren Abständen zueinander dann natürlich wieder merkt.
Bei 144 zu 165 ist das natürlich Unsinn, da von einem Vorteil zu sprechen.
Es geht aber darum, den Abstand von 60hz so weit anzuheben, dass man den geringsten Inputlag, die geringsten Schlieren, am wenigsten Corona (? ^^) und die flüssigsten Bewegtbilddarstellungen erreicht.
Da spielt man mit 360hz ganz klar in einer anderen Liga, als nur mit 60 oder meinetwegen 100hz.
Ob man es benötigt, muss jeder für sich entscheiden, spielt auch eine Frage beim verbauten und angesteuerten Panel, wie gut das letzendlich funktioniert.
Ein schnelles 240hz Panel kann sicher (in einer oder allen Disziplinen) besser sein als ein lahmes 360hz Panel.
Für Otto-Normalverbraucher spielen solche hohen Regionen natürlich keine Rolle.
Aber jeder Computernutzer profitiert eindeutig von einen 120 oder 144hz Display, egal wie "blind" oder "grobmotorisch" man ist.
Bei einem geringen Aufpreis sollte man sich so etwas auf jeden Fall gönnen.
Beim Fernseher hat sich das ja auch durchgesetzt, viele wissen es nicht einmal, dass sie 100 oder 120hz Panels verbaut haben, und dass man in den optionen gewisse Einstellungen dafür vornehmen kann, um Videozuspielungen und TV-Sendungen auf eben jene Bildrate hochrechnen zu lassen.
Schon mal einen Filmabspann mitgelesen?
Solche Wow-Erlebnisse hat man am PC auch, wenn man im Internet surft oder Listen scrollt, oder nur mal die Maus bewegt.
Hier bei der Arbeit mit 60hz bekomme ich das kalte Kotzen, wie man so schön sagt.
Bewege ich die MAus, sieht man die ja kaum noch, und die schliert und... äh ... einfach ekelig.
Da ich den ganzen Tag kleine Knöpfe klicken muss, dauert das halt länger als mit meimem Bildschirm zu Hause.
 

4thVariety

Software-Overclocker(in)
8k TVs mit 60Hz existieren. Damit sind die Bandbreiten da für 4k mit 120Hz. Schon jetzt haben die 8k Fernseher entsprechende Modi. 4k@120Hz als kommender Mainstream hätte schon was nach gefühlt 1000 Jahren 60Hz als Standard. Lieber 60Hz ablösen für alle, als dieses komische Wettrüsten in einen Nischenmarkt.

32 Zoll mit 1440p sind jetzt nicht das Ende der Welt, aber 4k wäre da schon schöner im Hinblick auf Fliegengittereffekte.
 

Pleasedontkillme

Software-Overclocker(in)
Ich behaupte mal, dass wenn das 4k Display "nur" 120Hz kann, dann wäre das auch voll in Ordnung. Allen voran Asus scheint bei der PR voll auf die Refresh-Rate zu setzen. Ich weiß nicht, ob es wirtschaftlich sinnvolle wäre lieber mehr Leute von 120Hz zu überzeugen, als in diesen Refresh-Krieg einzusteigen, der eine kleiner Zielgruppe betreffen dürfte.
.... Daher sage ich 4k 120Hz die größere Zukunft voraus als all diesen Krummen Dingern, 144, 165, 175, 240, etc. Selbst 4k 120 ist ja bei heutigen Grafikkarten utopisch, außer man klebt auf eSport Titeln mit Anti-Grafik fest. Ist das wirklich der zahlungskräftige Massenmarkt für 1000€+ Monitore? Oder sind das eher die Teenager?

Kommt drauf an aus welchem Blickwinkel man "Krumme Dinger" sieht. Wenn man von den Film Refreshrate`s ausgeht die mit 24Bilder pro Secunde daher kommen, sind 60Hz totall krumm!
 

Pleasedontkillme

Software-Overclocker(in)
Ich sehe zwar noch kein Fliegengitter weil es doch noch eine anständige dpi ist (mehr ist immer besser) aber auch ich bin mit dem Verhältnis bei 32" nicht zufrieden.
Als wenn das nicht schon getoppt worden wäre. Ausserdem dann doch lieber im Ultra Breitbildformat, auch mit gesteigerter dpi auf 32".

Viel mehr ist tatsächlich das Bandbreitenproblem das man ENTLICH angehen sollte!
Jetzt kann ich immer nur das eine oder das andere und sonst keine 4K oder UHD fahren, ist doch zum Haare raufen?

Es geht offensichtlich darum, gleiche Technologie zu einem späteren Zeitpunkt brauchbar(er) wieder zu verkaufen.
 

PCGH_Torsten

Redaktion
Teammitglied
27" mag Sweetspot sein, aber für 4k einfach ungeeignet

hatte den PG27UQ hier, den PG348Q, den PG35VQ, den LG 38GL950 und den 34GN850

abgesehen davon das ich UW biased bin, ist 27" einfach nix imho

ich sehe das eher so

24-27" = 1920x1080
27-30" = 2560x1440
30-32" = 3940x2160

alles drüber die Sonderauflösungen

FHD 26 Zoll hätte eine Pixeldichte von 85 DPI und wird von dir als gut angesehen, aber auf 32 Zoll forderst du zwingend UHD, also 140 DPI statt QHD, was bereits 92 DPI wären?


8k TVs mit 60Hz existieren. Damit sind die Bandbreiten da für 4k mit 120Hz. Schon jetzt haben die 8k Fernseher entsprechende Modi. 4k@120Hz als kommender Mainstream hätte schon was nach gefühlt 1000 Jahren 60Hz als Standard. Lieber 60Hz ablösen für alle, als dieses komische Wettrüsten in einen Nischenmarkt.

32 Zoll mit 1440p sind jetzt nicht das Ende der Welt, aber 4k wäre da schon schöner im Hinblick auf Fliegengittereffekte.

Besagte 8K Fernseher haben meinem Wissen nach erst seit kurzem überhaupt passende Eingänge, aber immer noch keine passenden Zuspieler. 8K60 wird nur aus internen Quellen/Streams oder aber hochgerechnet ausgegeben, aber nicht über externe Eingänge angeliefert. Mit 10 Bit Farbtiefe reicht selbst HDMI 2.1 nicht aus, um diese Datenmenge verlustfrei zu übertragen.
 

hrIntelNvidia

Software-Overclocker(in)
Ich habe gerade das Gefühl, dass es sich aktuell eher lohnt einen LG TV zu kaufen, anstatt eines techn. veralteten aber dafür gerade total überteuerten Computermonitors. Ich bin aktuell wirklich am Überlegen ob ich mir nicht den 48“ LG TV holen soll. OLED, 120 Hz, UHD, HDR1000, G-Sync Compatible. Das bekomme ich bei Monitoren nicht für Geld und nicht für gute Worte.

Sehr bedauerlich, dass die Industrie seit 2015 stehen geblieben ist.
 

Blackvoodoo

Volt-Modder(in)
Ich habe gerade das Gefühl, dass es sich aktuell eher lohnt einen LG TV zu kaufen, anstatt eines techn. veralteten aber dafür gerade total überteuerten Computermonitors. Ich bin aktuell wirklich am Überlegen ob ich mir nicht den 48“ LG TV holen soll. OLED, 120 Hz, UHD, HDR1000, G-Sync Compatible. Das bekomme ich bei Monitoren nicht für Geld und nicht für gute Worte.

Sehr bedauerlich, dass die Industrie seit 2015 stehen geblieben ist.
Also mit dem LG 48" CX machst keinen Fehler. Man kann halt nur hoffen das nVidia bei der nächsten Karten Generation auch wirklich HDMI 2.1 verbaut. Sonst wars das mit 120 Hz, G-Sync, HDR.
 

Naennon

Freizeitschrauber(in)
FHD 26 Zoll hätte eine Pixeldichte von 85 DPI und wird von dir als gut angesehen, aber auf 32 Zoll forderst du zwingend UHD, also 140 DPI statt QHD, was bereits 92 DPI wären?

ne? hab ich nicht "gefordert" ;)

sondern eher für ne Zollgröße eine akzeptable Resolution

gegenteilig wäre 24" und 3840x2160 oder 34" 1920x1080

meine nur das Verhältnis Größe zu Resolution, unabhängig von DPI
 
Oben Unten