Asus ROG Swift PG32UQX: "Weltweit erster Mini-LED-Gaming-Monitor" kurzzeitig für 3.000 $ vorbestellbar

DragonX1979

Freizeitschrauber(in)
Dafür alleine sicherlich nicht. Aber für das Gesamtpaket aus uhd mit 144Hz, hdr1400, gsync ultimate usw auf 32 zoll (!!) und das bei unter 60W Verbrauch (=ohne Lüfter!) mit Sicherheit.
Und du glaubst dass mit ~60w der Maximalverbrauch gemeint ist? SICHER?

Der ASUS PA32UCX (1200 cd/m² Peak) verdödelt laut PRAD 221W im HDR betrieb und hat kein G-Sync Modul...
Da kannst du dir "Ohne lüfter" vermutlich eher abschminken.
 

Incredible Alk

Moderator
Teammitglied
Und du glaubst dass mit ~60w der Maximalverbrauch gemeint ist? SICHER?
Auch wenns tatsächlich so da steht glaube ich eher dass es der typical ist und sie sich da vertan haben. Dennoch ist das akzeptabel - manch andrer UHD-144Hz-TFT verbraucht auch typical das Dreifache.

Wenn das Ding hier dagegen wieder 200W hat (bzw. den "alten" G-Sync Ultimate-Chip) ists sofort durchgefallen. Nicht wegen des verbrauchs sondern weil ich einen Lüfter in meinem TFT nicht akzeptiere.
 
Zuletzt bearbeitet:

DragonX1979

Freizeitschrauber(in)
Auch wenns tatsächlich so da steht glaube ich eher dass es der typical ist und sie sich da vertan haben. Dennoch ist das akzeptabel - manch andrer UHD-144Hz-TFT verbraucht auch typical das Dreifache.
Eben... "Typical 60W" steht auch beim PA32UCX... Und der "dröhnt" permanent mit nem' Lüfter vor sich hin, egal ob HDR oder nicht.

Und da muss ich für meinen Teil sagen, Sorry ASUS 3000€ und dann soll ich trotz Silent PC mir jetzt von meinem Monitor das Dauergesäusel anhören? Sollen se' 3200€ nehmen und passiven n' Vaporchamber einbauen!
 

PCGH_Torsten

Redaktion
Teammitglied
Dafür alleine sicherlich nicht. Aber für das Gesamtpaket aus uhd mit 144Hz, hdr1400, gsync ultimate usw auf 32 zoll (!!) und das bei unter 60W Verbrauch (=ohne Lüfter!) mit Sicherheit.

Ist das "ohne Lüfter" bestätigt? Bislang hatten alle Monitore mit Nvidias aktuellem Scaler aktive Kühlung und das hat nie etwas damit zu tun, dass die Fläche nicht für einen Passivkühlkörper gereicht hätte.
 

Incredible Alk

Moderator
Teammitglied
Ist das "ohne Lüfter" bestätigt? Bislang hatten alle Monitore mit Nvidias aktuellem Scaler aktive Kühlung und das hat nie etwas damit zu tun, dass die Fläche nicht für einen Passivkühlkörper gereicht hätte.
Nein, dazu gibts keine Angaben. Es gibt nur die Angabe "Leistungsaufnahme <58.47W" (wie auch immer man auf so ne krumme Zahl bei ner Obergrenzenangabe kommt statt 60 zu schreiben).
Wenn das wirklich die Obergrenze sein sollte müsste eine neue Revision des GSync-Moduls eingesetzt worden sein die sehr viel sparsamer ist als die bekannte für UHD. Dann wäre es passiv sicher machbar.

Wenn die 60W dagegen nur typical sind und beim "aufdrehen" des TFTs wieder 200+ auf der Uhr stehen wird das mit passiv garantiert nix.
 

Olstyle

Moderator
Teammitglied
Es gibt wirklich tausende von Leuten, die seit Ewigkeiten auf eine Backlightauflösung von 128 × 72 Helligkeitsbereichen* warten[...]?
Mir fehlt da nach wie vor ein Faktor 10 pro Seite um beeindruckt zu sein. Aber ich glaube das Thema hatten wir schonmal.
"Mini" ist auch lustig in dem Zusammenhang 710mm/128 sind rund 5,5mm. Da reichen klassische bedrahtete LEDs für
 

PCGH_Torsten

Redaktion
Teammitglied
Nein, dazu gibts keine Angaben. Es gibt nur die Angabe "Leistungsaufnahme <58.47W" (wie auch immer man auf so ne krumme Zahl bei ner Obergrenzenangabe kommt statt 60 zu schreiben).
Wenn das wirklich die Obergrenze sein sollte müsste eine neue Revision des GSync-Moduls eingesetzt worden sein die sehr viel sparsamer ist als die bekannte für UHD. Dann wäre es passiv sicher machbar.

Wenn die 60W dagegen nur typical sind und beim "aufdrehen" des TFTs wieder 200+ auf der Uhr stehen wird das mit passiv garantiert nix.

Der Stromverbrauch des Gsync-Moduls liegt meinem Wissen nach deutlich niedriger. Zur berichteten 480K-Ausbaustufe des Arria 10 FPGAs sind die Spezifikationen in der Ark unvollständig, aber für eine Beschleunigerkarte mit dem 1150K Top-Ausbau nebst ebenfalls rund 2,5 mal mehr RAM als bei Gsync gibt Intel 66 W an . Ich würde also von maximal 30 W für den bisherigen Scaler ausgehen, eher weniger, auf alle Fälle problemlos passiv kühlerbar.

Der Großverbraucher in solchen Monitoren ist in jedem Fall das Backlight. Ich habe mal einen alten zerlegt und kann daher bestätigen, dass IPS sehr wenig Licht durchlässt; selbst im "weißen" Zustand war das Panel beinahe so dunkel wie getönte Autoscheiben. Wenn sich da nicht grundsätzlich etwas geändert hat (und deutlich verbesserte Schwarzwerte lassen eher das Gegenteil erwarten) muss die Beleichtung für 200-300 cd auf der Vorderseite bereits die Intensität einer Tageslichtlampe auf der Rückseite erreichen. Für HDR entsprechend mehr.


Mir fehlt da nach wie vor ein Faktor 10 pro Seite um beeindruckt zu sein. Aber ich glaube das Thema hatten wir schonmal.
"Mini" ist auch lustig in dem Zusammenhang 710mm/128 sind rund 5,5mm. Da reichen klassische bedrahtete LEDs für

Wenn es RGB-LEDs sind, wäre ich bereits positiv überrascht. Aber eigentlich bekommt man seit Mitte des letzten Jahrzehnts nur noch wLED mit entsprechenden Einschränkungen bei, Farbspektrum, den Kalibirierungsmöglichkeiten und einem ausgeprägten Blaulicht-Peak.
 

Olstyle

Moderator
Teammitglied
Wenn es RGB-LEDs sind, wäre ich bereits positiv überrascht. Aber eigentlich bekommt man seit Mitte des letzten Jahrzehnts nur noch wLED mit entsprechenden Einschränkungen bei, Farbspektrum, den Kalibirierungsmöglichkeiten und einem ausgeprägten Blaulicht-Peak.
Das ist nochmal ein ganz anderes Thema. Ich wollte in erster Linie darauf hinaus dass >5mm pro LED für eine solche definitiv nicht klein ist.
 

Incredible Alk

Moderator
Teammitglied
Der Stromverbrauch des Gsync-Moduls liegt meinem Wissen nach deutlich niedriger. Zur berichteten 480K-Ausbaustufe des Arria 10 FPGAs sind die Spezifikationen in der Ark unvollständig, aber für eine Beschleunigerkarte mit dem 1150K Top-Ausbau nebst ebenfalls rund 2,5 mal mehr RAM als bei Gsync gibt Intel 66 W an . Ich würde also von maximal 30 W für den bisherigen Scaler ausgehen, eher weniger, auf alle Fälle problemlos passiv kühlerbar.
Gab es da nicht mehrere Versionen? Ich hab da was im Hinterkopf von G-Sync Modul für "normale" TFTs und ein weitaus dickeres für UHD-Tfts was dann durch seine Leistungsaufnahme mitverantwortlich war für die nervigen Minilüfter.

Das da hab ich gefunden dazu:
NVIDIA has confirmed that their GPU drivers are responsible for a bug in which massive power consumption occurs when using gaming monitors that are equipped with its G-Sync technology and set a refresh rate over 120Hz. PC Perspective revealed in their research that there is a large jump in power consumption in the GPU when using a G-Sync monitor past 120Hz. Power consumption in the test initially hovered at 75 watts when operating at 120Hz and below. When pushed beyond 120Hz the wattage usage nearly doubled after hitting 144Hz and later reached upwards of 200 watts at 165Hz.
Die schreiben was von 75W für das Modul - selbst ohne den 200W-Bug.

Das Backlight als Wärmequelle würde ich nicht mal so problematisch sehen - auch wenn da recht viel Wärme entsteht wäre ja auch ne riesen Fläche da um die loszuwerden.

Insgesamt hätte ich ja auch nichtmal was dagegen, wenn man die natürliche Konvektion ein bicchen unterstützen würde und unten nen Lüfter einbaut. Aber dann bitte einen mit mehr als gefühlten 30mm Durchmesser, entsprechend leiser Drehzahl im dreistelligen Bereich, qualitatiuv so hochwertig dass er auch 10 Jahre mitmacht und temperaturgeregelt. Soweit der Wunschtraum wenn das kommt - die Realität ist wohl eher "klatsch nen 08/15 Industrieluffi rein an konstant 12V".
 

Incredible Alk

Moderator
Teammitglied
Ach verdammt du hast Recht... :ugly:

Wo hab ich das denn her... aus irgendwelchen Gründen hat mein Hirn bei "G-Sync-Modul" und "4K@120+Hz" sofort die Leistungsaufnahme/Lüfter-Warnlampe angemacht. :huh:

Wenn das Modul wirklich nicht das Problem ist und nahezu die ganze Abwärme vom Backlight kommt muss sich das doch technisch lösen lassen. Auf ner Fläche von nem viertel Quadratmeter oder sowas 100W passiv wegzuschaffen sollte eigentlich keine große Kunst sein.
 

PCGH_Torsten

Redaktion
Teammitglied
Deltatronic kühlt dir auf der Fläche einen kompletten All-in-One-PC passiv. Nebst dem Monitor selbst. :-)
Warum das bei Gsync Ultimate niemand hinbekommt, konnte mir aber noch niemand verraten.

Zu deiner Verwirrung: Das aktuelle G-Sync-Modul wurde meiner Erinnerung nach zusammen mit Gsync Ultimate für 4K@120 Hz eingeführt. Davor lief Gsync 1 mit einem passiven Modul, ich glaube das hatte zum Teil nicht einmal einen Kühlkörper. Der Gsync-2-Scaler wird aber in allen mir bekannten Fassungen aktiv gekühlt (vielleicht kennt @PCGH_Manu eine Ausnahme?), auch wo er für ein kleineres Panel ansteuert. Wir haben schon bis zu 0,3 Sone gemessen, was Manu zwar akzeptabel findet, für mich aber inakzeptabel wäre. Nicht nur die Lautheit, sondern auch die Frequenz des relativ schnell drehenden Radiallüfters erinnern an mittelmäßige Kompaktwasserkühlungspumpen. Nur dass man Monitore nicht in gedämmte Gehäuse stellen kann.
 

Olstyle

Moderator
Teammitglied
Alle Entwickler die wissen wie man passive Kühler im PC Bereich baut sind in Rente gegangen, das haben wir doch schon bei X570 gelernt ;) .
 

DragonX1979

Freizeitschrauber(in)
Also können wir davon ausgehen, das der Monitor im HDR-Betrieb 250-300W weglutscht und permanent
einem was vorsäuselt, für den Schapper-Preis von 3000€... Aber dafür gibt's ja das tolle Oled für
die Fans von "Blinke-Blinke-Schnickschnack".
Dazu noch "wundersame" 144hz über HDMI2.0... (also BS / nicht @UHD)

Ja sicher... :stupid:
 

Incredible Alk

Moderator
Teammitglied
UHD@144Hz 4:4:4 geht nur über DP1.4 mit DSC - nicht über HDMI2.0 (ohne ChromaSubsampling).

Ich glaube auch nicht dass das Ding jetzt auf einmal mehrere Hundert Watt frisst wenn der Hersteller schon <60W angibt, selbst wenn das nur typical ist. Zumindest bei mir ists so, dass ich kaum mal nen Bildschirm bei mehr als 50% Helligkeit betrieben habe weil man da bei manchen Modellen gefühlt braun wird im Gesicht. Mein TFT ist vom Hersteller mit "<105W" angegeben und verbraucht in meiner Einstellung gemessene 45W an der Dose. Die 100W hab ich selbst bei 100% Helligkeit nicht erreicht. Da zählen wohl noch die Boxen mit. :ugly:
 

DragonX1979

Freizeitschrauber(in)
UHD@144Hz 4:4:4 geht nur über DP1.4 mit DSC - nicht über HDMI2.0 (ohne ChromaSubsampling).

Ich glaube auch nicht dass das Ding jetzt auf einmal mehrere Hundert Watt frisst wenn der Hersteller schon <60W angibt, selbst wenn das nur typical ist. Zumindest bei mir ists so, dass ich kaum mal nen Bildschirm bei mehr als 50% Helligkeit betrieben habe weil man da bei manchen Modellen gefühlt braun wird im Gesicht. Mein TFT ist vom Hersteller mit "<105W" angegeben und verbraucht in meiner Einstellung gemessene 45W an der Dose. Die 100W hab ich selbst bei 100% Helligkeit nicht erreicht. Da zählen wohl noch die Boxen mit. :ugly:
Eben sehe ich auch so, also max UHD 120hz 4:2:0. oder 1440p @ 144hz

Unglücklicherweise schreibt ASUS das nicht explizit. Nichtmal in den Specs!
Überall "Bis zu" 144hz 10bit HDR la la la... über DP - klar...
Dann in den Specs: HDMI2.0 bis 144hz; DP bis 144hz (ohne Referenz der Auflösung)
Aber mal im ernst, wer der nicht ständig Specs bei Wiki oder anderswo nachliest soll sowas wissen?
Kein "Normalo" würde das merken...

Und was den Stromverbrauch angeht, was soll ich dir anderes sagen? Der PA32UCX ist quasi die Profi Vorgänger Version von der es nie ein Gaming Modell gab...
Anders beim PG32UQX, hier ist das Profi Modell der PA32UCG und der hat 1600cd/m² und hdmi2.1 mit VRR 120hz.

Stromverbrauch aller drei Modelle laut Angabe ASUS von 60W (+/-2W).

Und der PA32UCX hat folgende werte im Test: (1/2020)

Betrieb Typ. 58,67W (werksangabe)
Gemessen @ 140 cd/m²: 53,12W
Betrieb Max: @ 656 cd/m² 116,5W
Betrieb HDR-HLG: 221W

Und das ohne G-Sync Modul, ohne Bling-Bling Schnickschnack, und mit einer weniger hellen Hintergrundbeleuchtung, mit permanentem Lüfter UND größerem Gehäuse...

 

Incredible Alk

Moderator
Teammitglied
Betrieb Typ. 58,67W (werksangabe)
Gemessen @ 140 cd/m²: 53,12W
Betrieb Max: @ 656 cd/m² 116,5W
Betrieb HDR-HLG: 221W
Ok, anscheinend misst ASUS dann einfach bei 150 cm/m^2 und gibt den Wert an. Dass der HDR-Betrieb dann derart viel darüber liegt ist natürlich nicht grade geil. Ich meine mit 100 statt 50W könnte man ja leben aber das rund 4-fache ist schon hart (und das geht ohne Lüfter dann wiederum eher nicht).
 

DragonX1979

Freizeitschrauber(in)
Ok, anscheinend misst ASUS dann einfach bei 150 cm/m^2 und gibt den Wert an. Dass der HDR-Betrieb dann derart viel darüber liegt ist natürlich nicht grade geil. Ich meine mit 100 statt 50W könnte man ja leben aber das rund 4-fache ist schon hart (und das geht ohne Lüfter dann wiederum eher nicht).
Tja ist wie @PCGH_Torsten oben geschrieben bzw. angedeutet hat...

LCD Technik ist für HDR einfach nicht das Richtige... Oled auch nicht... (Alles Problemkinder) :what:
Und MicroLED steckt in den Kinderschuhen. Bis da die Miniaturisierung entsprechend vorangeschritten ist und die Technik bezahlbar und ausgereift ist, wird es noch ne ganze Weile dauern.
Und wer weiß was bis dahin nicht bei der Technik noch an Problemen auftaucht?

Vor 10 Jahren haben alle OLED noch als heilsbringer bezeichnet und ihre hübschen Ultra-Flat 30" Monitore Präsentiert. Und? Wie viele habens bisher auf den Markt geschafft?
EINER. In den USA, für n halbes Jahr oder so... :klatsch:
 
Zuletzt bearbeitet:

KuroSamurai117

BIOS-Overclocker(in)
Vor 10 Jahren haben alle OLED noch als heilsbringer bezeichnet und ihre hübschen Ultra-Flat 30" Monitore Präsentiert. Und? Wie viele habens bisher auf den Markt geschafft?
EINER. In den USA, für n halbes Jahr oder so... :klatsch:
Weißt aber schon dass JOLED jetzt ihre Produktion hochfährt wo sich auch LG die Panel für ihre kommenden OLED_Monitore holt:


Zumindest wird es in Zukunft kaufbare OLED-Monitore geben wie auch Laptops die damit ausgestattet sind.

Nicht dass es jetzt die Nachteile von OLED zu Nichte macht aber Mittlerweile sind sie auch nicht mehr so anfällig wie immer noch behauptet wird.

Natürlich wird es noch Jahre dauern bis man immer weniger Kompromisse bei jeder Technik eingehen muss.
 
Oben Unten