AMD: Aus Freesync 2 wird Freesync 2 HDR mit strafferen Spezifikationen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD: Aus Freesync 2 wird Freesync 2 HDR mit strafferen Spezifikationen

AMD möchte die öffentliche Wahrnehmung von Freesync 2 ändern, um den Fokus stärker auf die HDR-Komponente zu legen. Dementsprechend erfolgt eine Umbenennung in Freesync 2 HDR, wobei der Chiphersteller gleichzeitig die minimalen Anforderungen an die HDR-Eigenschaften von Freesync-2-Monitoren anhebt - sie sollen künftig jenen des VESA-Standards Display HDR 600 entsprechen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD: Aus Freesync 2 wird Freesync 2 HDR mit strafferen Spezifikationen
 
Alles wieder Marketing. So lange es keine bezahlbaren Monitore mit Local Dimming, Oled oder Micro Dimming gibt können Sie sich das alles sparen.
 
Ist denn schon bekannt, ob es Freesync-Alternativen zum Acer X27 oder Asus PG27UQ (bzw. den in Q4 erwarteten UWQHD-Monis) geben wird?
Es gibt zwar einen UWQHD-Monitor mit HDR und Freesync von BenQ, aber ich traue dem HDR-Braten nicht.
 
Alles wieder Marketing. So lange es keine bezahlbaren Monitore mit Local Dimming, Oled oder Micro Dimming gibt können Sie sich das alles sparen.

Diese Änderung ist doch aber echt sinnvoll. So weiß man, dass man zumindest mal HDR 600 bei einem solchen Monitor bekommt.

Ansonsten muss man eben noch länger warten, wenn man Oled und Co. unbedingt möchte.
 
Na ja, alles was man derzeit kriegt, ist eher "HDR Light", oder ums in TV-Sprache auszudrücken "HDR Ready". Richtiges "Full HDR" kriegt man erst, wenn man nen perfekten Schwarzwert hat (wie OLED) und ne ausreichend hohe Helligkeit (welche selbst die hellsten LED-TVs grad so, bzw kaum erreichen). Und natürlich nen entsprechenden Farbraum.

Diese Kombination ist mit heutiger Display-Technik zumindest im Massenmarkt noch nicht realisierbar. Wer sich heute nen Monitor oder TV ausschließlich wegen HDR kauft, wird sich in naher Zukunft schon darüber ärgern, dass es wieder nen neuen Standart gibt. Besonders bei Monitoren siehts hier richtig übel aus, da man bei LCDs ohne Local Dimming keinen guten Schwarzwert erreicht. Ironischerweise wird - trotz schlechterer HDR-Leistung - bei Monitoren auch nen Aufpreis für dieses Feature verlangt. Bei TVs kriegt man HDR schon ab dem Mittelpreissegment hinterhergeschmissen, drum isses hier weniger ärgerlich.

Als Monitor-Käufer sollte man sich davon jedenfalls nicht blenden lassen. Wenns nen gleichguten nicht-HDR Monitor zu nem geringeren Preis gibt, sollte man eher den nehmen. Das gesparte Geld kann man später dann in nen richtigen HDR-Monitor investieren.

Ist jedenfalls meine Meinung. Ich halte nichts von halbgaren Lösungen :-P
 
HDR gibts erst, wenn die OLED und die echten QLED Monitore rauskommen, da jeder Bildpunkt für sich selbst leuchten kann. Im Moment spielt es keine Rolle, ob 8 oder 384 usw. Zonen. Der Effekt kommt nicht richtig gut rüber.
 
HDR gibts erst, wenn die OLED und die echten QLED Monitore rauskommen, da jeder Bildpunkt für sich selbst leuchten kann. Im Moment spielt es keine Rolle, ob 8 oder 384 usw. Zonen. Der Effekt kommt nicht richtig gut rüber.

Es gibt doch schon QLED Monitore auf dem PC Markt.
 
Na ja, alles was man derzeit kriegt, ist eher "HDR Light", oder ums in TV-Sprache auszudrücken "HDR Ready". Richtiges "Full HDR" kriegt man erst, wenn man nen perfekten Schwarzwert hat (wie OLED) und ne ausreichend hohe Helligkeit (welche selbst die hellsten LED-TVs grad so, bzw kaum erreichen). Und natürlich nen entsprechenden Farbraum.

Diese Kombination ist mit heutiger Display-Technik zumindest im Massenmarkt noch nicht realisierbar. Wer sich heute nen Monitor oder TV ausschließlich wegen HDR kauft, wird sich in naher Zukunft schon darüber ärgern, dass es wieder nen neuen Standart gibt. Besonders bei Monitoren siehts hier richtig übel aus, da man bei LCDs ohne Local Dimming keinen guten Schwarzwert erreicht. Ironischerweise wird - trotz schlechterer HDR-Leistung - bei Monitoren auch nen Aufpreis für dieses Feature verlangt. Bei TVs kriegt man HDR schon ab dem Mittelpreissegment hinterhergeschmissen, drum isses hier weniger ärgerlich.

Als Monitor-Käufer sollte man sich davon jedenfalls nicht blenden lassen. Wenns nen gleichguten nicht-HDR Monitor zu nem geringeren Preis gibt, sollte man eher den nehmen. Das gesparte Geld kann man später dann in nen richtigen HDR-Monitor investieren.

Ist jedenfalls meine Meinung. Ich halte nichts von halbgaren Lösungen :-P

Sehe ich auch so. Bin seit kurzen Besitzer eines OLED TV´s inkl. HDR10. Tolles Bild und HDR macht auch einiges her. Bis OLED Panels aber die benötigte Helligkeit schaffen wird es noch einige Zeit dauern und bis dahin vielleicht schon durch mLED TV/Monitore ersetzt.
Die Branche sollte sich in Zukunft auch auf einen einheitlichen Standard festsetzen da selbst heute gute OLED/QLED/LCD Geräte je nach Bildmaterial kein optimales Bild anzeigen.

Ich bin vorerst zufrieden mit dem gebotenen und erhoffe mir ab 2022 eine deutlich bessere Qualität von HDR und mehr guten Content :daumen:
 
OLED ist doch schon bei ~750cd/m².
Im Zusammenspiel mit dem sehr guten Schwarzwert besser als jeder LCD.
 
OLED ist doch schon bei ~750cd/m².
Im Zusammenspiel mit dem sehr guten Schwarzwert besser als jeder LCD.

Allerdings nur kurzzeitig und auf begrenzte Fläche. OLED bricht im Vergleich zu guten LCD Lösungen viel stärker ein. Die Entwicklung von OLED ist aber durchaus positiv und für die Masse ausreichend.
In meinen Augen macht die Software (Filmmaterial) da eher ein Strich durch die Rechnung für die beste HDR Qualität, da hilft auch DV HDR10+ und co nicht.

Ich kann über die Helligkeit meines OLED Gerätes nicht Meckern, für die alltäglichen Aufgaben reicht mir das gebotene völlig.

Neben OLED von LG arbeitet ja auch Samsung an Quantum Dot OLED Geräte. Bin gespannt was für Fortschritte erzielt werden in den nächsten 3 Jahren :)
 
Endlich geht AMD mal das größte Problem an: die mangelnden Standards. Während man sich bei GSync absolut sicher sein konnte, einen Monitor in den Händen zu haben, die das auch voll und ganz unterstützt, gab es bei AMD sehr oft Scherze wie "zwischen 48 und 60 Hz", dann kann man es sich auch fast schon sparen. AMD wollte möglichst viele Monitore, mit einem Freesynclogo, die Rechnung ist aufgegangen.

Schön, dass man sich jetzt um die Qualität kümmert, dann wird es Nvidia mit GSync schwer haben, besonders bei den 144Hz 4K Monitoren sind 500$ Zusatzkosten eine echte Ansage (soviel kosten gut Monitore schon alleine), da hilft Nvidia auch die technische Überlegenheit nicht.
 
Apropos Überlegenheit, da G-Sync (der ersten Generation) laut CB-Test schon rund 5% Leistung gekostet hat, würde mich interessieren, ob die Schere zwischen Freesync und G-Sync HDR (also mit dem neuen aktiv gekühlten G-Sync Modul in UHD/144Hz-Monitoren) bezüglich Perfomance-Verlust noch weiter auseinandergeht.
 
Die Betonung liegt auf "echtes" QLED. Das was wir momentan auf dem Markt haben, ist ein spezieller Nanofilter vor normaler Hintergrundbeleuchtung, den Samsung aus Marketinggründen "QLED" nennt. Echte QLEDs sind selbstleuchtende LEDs, also sowas wie OLED.

Ich kenne nur das QLED von Samsung, und da ist QLED ein LED Backlight mit Quantom DOT Schicht was in Konkurrenz zu OLED steht.
Soweit ich weiß, möchte Samsung kein OLED produzieren. Man hat also entweder selbst leuchtende Pixel(OLED) oder QLED(Backlight mit Nanoschicht)
 
Jop, so ist es. Es ist eben nur ne Schicht, also kein richtiges QLED. LG nutzt übrigens die selbe Technologie in einigen ihrer LCDs, nennt diese aber richtigerweise "Nano Cell" Displays. Wenn später mal richtige selbstleuchtende QLEDs erscheinen, hat man dank Samsung wieder nen Namenssalat. Versuch mal Techniklaien zu erklären was "richtiges" QLED ist...
 
Es gibt kein richtiges und falsches QLED. QLED sind LCDs mit Quantum Dots, OLEDs eben nicht, weil selbstleuchtende Pixel.

Samsung nennt das nicht von ungefähr fast genau so wie die Konkurrenz ihre selbstleuchtenden Pixel. Ein geschickter Marketingschachzug, um das qualitativ in die Nähe zu rücken - mehr nicht.

LG macht übrigens das genaue Gegenteil. Dort heißt die Hintergrundbeschichtung nicht Quantum Dots, sondern eben Nano-IPS, um anzudeuten, dass es sich um was völlig anderes handelt.
 
Es gibt kein richtiges und falsches QLED. QLED sind LCDs mit Quantum Dots, OLEDs eben nicht, weil selbstleuchtende Pixel.

Samsung nennt das nicht von ungefähr fast genau so wie die Konkurrenz ihre selbstleuchtenden Pixel. Ein geschickter Marketingschachzug, um das qualitativ in die Nähe zu rücken - mehr nicht.

LG macht übrigens das genaue Gegenteil. Dort heißt die Hintergrundbeschichtung nicht Quantum Dots, sondern eben Nano-IPS, um anzudeuten, dass es sich um was völlig anderes handelt.

Ist bekannt wie das LFC bei Freesync2 arbeitet? Also ab wann es greift und wie es konkret arbeitet?
 
Zurück