News Für Gamer: Samsung mit neuen OLED-Monitoren

Naja wenn ich beim Golf Kombi/variant das Kombi/Variant weglasse fehlen plötzlich auch einige Centimeter auto.
 
Und wieder matter Mist anstatt Glossy. Matt nach matt nach matt nach matt. Die haben einfach den Schuss nicht mehr gehört! Lasst die Käufer entscheiden! Gamer wollen Glossy haben.
 
Genau wie die Leute nach nem Golf suchen und die Händler sie so verkaufen.
Der Rest ist informieren und den richtigen aussuchen.
Du kaufst doch auch nicht blind nen Golf, nur weil es drauf steht.
Da guckst du auch vorher welcher das ist.
Aber darum gehts ja gar nicht, sondern um die gleiche Modell-Bezeichnung "G8" bei mehreren Modellen. Beim Golf muss ich nicht genauer hinschauen, entweder es ist ein 7er oder 8er.
 
Und wieder matter Mist anstatt Glossy. Matt nach matt nach matt nach matt.
Ömm habe ich was verpasst...

Alle bisheringen QD-OLED 4K Monitore sind doch glossy...

Der Samsung ist jetzt der einzige und erste matte QD OLED 4K Monitor.


Die haben einfach den Schuss nicht mehr gehört! Lasst die Käufer entscheiden!
Genau, und jetzt können die Käufer auch entscheiden (dank dem Samsung Monitor). Wer Matt will kauft Samsung, wer glossy will, nimmt ein Partnerprodukt mit dem selben Panel (Asus, Gigabyte, Dell und MSI haben alle glossy Monitore mit genau dem Samsung Panel im Angebot).
 
Also mein PG32UCDM ist definitiv "glossy"... er ist zwar "entspiegelt", aber deutlich spiegelnder als alle meine anderen Monitore, und definitiv nicht matt.
 
Prozessor mit KI der das Bild skaliert?
Ersetzt das den herkömmlichen Scaler?
Kann man das per direct mode umgehen, um die extra Latenz und Qualitätsveränderungen zu verhindern?
Die meisten Gamer wollen sicher nicht solchen extra Schnickschnack zu DLSS oder FSR.
 
So langsam, aber sicher, wird es. Jetzt nur noch DP 2.1 80GBit und eine etwas höhere normale Helligkeit (mein jetziger hat auch 250cd/m², da sollte eine Steigerung drin sein) und dann gibt es endlich den fast perfekten Monitor. 8K wäre auch nicht schlecht, aber bei 240Hz dauert das noch ein paar Jahre.

Warum nennt man sie wieder Odyssey G8 und G6...
Die gibt es ja eigentlich schon.

Will man damit irgendwie Kunden in die Irre führen und erhofft sich die alten Ladenhütter so noch besser los zu werden? Oder wieso tut man sowas?

Weil es der Name der Serie ist. Intel und AMD verkaufen auch immer die selben CPU Serien, Intel schon seit knapp 15 Jahren. Es ist halt eben ein gigantischer Unterschied, ob man einen i7 2600K bzw. R7 1800X oder einen i7 14700K bzw. R7 5800X3D hat. Wer sich nicht auskennt, der hat eben einen "ihh sieben" und wer sich auskennt, der fragt nach dem genaueren Modell. Andere Hersteller nummerieren ihre Produkte nach Jahren. So kann es ein gigantischer Unterschied sein, ob man das gleiche TV Modell 2020er Jahrgang oder 2024er Jahrgang hat, besonders da die alten Kisten weiter verkauft werden.

Das positive ist, dass man auch in 10 Jahren einordnen kann, wie gut das Zeug ist/war.

Die meisten Gamer wollen sicher nicht solchen extra Schnickschnack zu DLSS oder FSR.

Dann nimm die native Auflösung, Problem gelöst. Außerdem ist es komisch, darüber zu meckern, bevor man überhaupt den Inputlag kennt. Ich finde es positiv, dass sich Samsung des Problems annimmt. Besonders Auflösungen, wie WQHD, waren bei 4K eher problematisch, wobei sich auch viel gebessert hat. Ich bin allerdings mit der bisherigen Lösung auch einigermaßen zufrieden und in Full HD abwärts funktioniert es echt gut. Meine X-Box 360, PS3 und die Switch werden durch das Upscaling massiv aufgewertet.
 
Dann nimm die native Auflösung, Problem gelöst. Außerdem ist es komisch, darüber zu meckern, bevor man überhaupt den Inputlag kennt. Ich finde es positiv, dass sich Samsung des Problems annimmt. Besonders Auflösungen, wie WQHD, waren bei 4K eher problematisch, wobei sich auch viel gebessert hat. Ich bin allerdings mit der bisherigen Lösung auch einigermaßen zufrieden und in Full HD abwärts funktioniert es echt gut. Meine X-Box 360, PS3 und die Switch werden durch das Upscaling massiv aufgewertet.
So einfach ist es nicht. Von der nativen Auflösung wird eh ausgegangen (Panel mit 2.560 x 1.440 Pixeln).
Es ist die Frage, ob man das Signal ohne Umwege und Processing durchschleifen kann.
Jede halbe Millisekunde zählt.
KI ist halt eine Würfelkiste.
Receiver haben auch so einen direkten Modus ohne Verzerrungen.
 
So einfach ist es nicht. Von der nativen Auflösung wird eh ausgegangen (Panel mit 2.560 x 1.440 Pixeln).
Es ist die Frage, ob man das Signal ohne Umwege und Processing durchschleifen kann.
Jede halbe Millisekunde zählt.
KI ist halt eine Würfelkiste.
Receiver haben auch so einen direkten Modus ohne Verzerrungen.
Du wirst das KI upscaling bei dem Monitor einstellen können.. wird wahrscheinlich eh nur bei Auflösung kleiner als Nativ funktionieren (Nintendo Switch)
Ansonsten stell im GPU Control Panel die Scalierung von Display auf GPU und dann "Vollbild"
Sowohl Nvidia als auch AMD haben diese Option (Intel weiß ich nicht)
Dann wird immer die Native Auflösung an den Monitor ausgegeben und die GPU kümmert sich drum.

Und als ob du "jede halbe Millisekunde" inputlag spüren würdest..
die Oleds haben schon den geringsten Inputlag aller Displays..
Selbst hochprofessionelle 1080P TN 500+Hz Displays sind n scheiß dagegen...
Jetzt nur noch DP 2.1 80GBit

Wobei im Moment noch keiner weis welche Anschlüsse auf den zukünftigen RX8000er und RTX5000er GPUs verbaut sein werden.

Aktuell gibt es keine Consumer GPU die DP2.1 80Gbit (UHBR20) unterstützt..
Nur die professionellen WX7000 Karten von AMD können das..
Aber keine Normale GeForce oder Radeon
 
Zuletzt bearbeitet:
Aber darum gehts ja gar nicht, sondern um die gleiche Modell-Bezeichnung "G8" bei mehreren Modellen. Beim Golf muss ich nicht genauer hinschauen, entweder es ist ein 7er oder 8er.
Du erkennst also von außen, was drin steckt?
Oder anders, wenn jemand im Internet schreibt, dass er nen Golf 7 hat, weisst du instant welcher es ist?
Schade immer noch kein 32 Zoll 4k in Hochglanz und ein gerades Panel .
Gibt's schon ne ganze Weile.
Das Thema hatten wir ja auch schon mal und deine Aussage war letztes mal schon falsch.
 
KI ist halt eine Würfelkiste.

Am Ende entscheidet der Inputlag und der ist auch bei normalen Monitoren teils sehr hoch. Ein Problem, das man seit Ende der Röhrenmonitore hat. Von daher macht es auch überhaupt keinen Sinn da irgendwas zu sagen, das müssen Tests klären. Kann sein, dass das ganze schlechetr abschneidet, kann sein, dass das ganze besser abschneidet, kann sein, dass auch auch nichts ändert.

Wobei im Moment noch keiner weis welche Anschlüsse auf den zukünftigen RX8000er und RTX5000er GPUs verbaut sein werden.

Ich vermute mal, dass VGA und DVI kein Comeback feiern werden. Ich persönlich kaufe mir Bildschirme auch für etwas längere Zeiträume. Mein jetziger war zwar nur als Übergangsmonitor gedacht, ist aber seit knapp 6 Jahren im Einsatz. Da bin ich froh, dass ich zu einem guten VA Monitor gegriffen habe. Von daher wäre es wünschenswert, dass das Ding auch mit einer RTX 7000 optimal zusammenarbeitet. Wenn an dem Monitor sonst alles stimmt, dann könnte es auch sein, dass das Teil möglichst garnicht ersetzt wird, bis 8K bzw. 16K Monitore dann 240Hz und mehr unterstützen oder der OLED Monitor durch einbrennen irgendwann unbenutzbar wird.

Aktuell gibt es keine Consumer GPU die DP2.1 80Gbit (UHBR20) unterstützt..

Soweit ich weiß sollen die IGPs der Ryzen 9000er zur 80GBit DP 2.1 fähig sein, wofür man aber wohl ein neues Board braucht. Damit kann man vermuten, dass zumindest AMD nicht mit weniger aufschlagen wird. Aber ich habe sowieso eher meine Nachfolgekarte im Blick und es ist unwahrscheinlich, dass die RTX 6000 bzw. RX 9000 aufwärts keinen DP 2.1 mit 80GBit haben werden.

Du erkennst also von außen, was drin steckt?
Oder anders, wenn jemand im Internet schreibt, dass er nen Golf 7 hat, weisst du instant welcher es ist?

Bei Samsung und einigen anderen muß man sich seit langer Zeit damit vertraut machen, was man da bekommt. Bei meinem Monitor ist U32H850 die Serie und UMU das Modell.

Dein Vergleich hinkt, es ist so, als würde jemands sagen, er hätte einen Golf. Allerdings gibt es viele Versionen davon. Erst mit der Zahl wird klar, was für einer das ist.
 
Zuletzt bearbeitet:
Bei Samsung und einigen anderen muß man sich seit langer Zeit damit vertraut machen, was man da bekommt. Bei meinem Monitor ist U32H850 die Serie und UMU das Modell.

Dein Vergleich hinkt, es ist so, als würde jemands sagen, er hätte einen Golf. Allerdings gibt es viele Versionen davon. Erst mit der Zahl wird klar, was für einer das ist.
Die Zahl nützt dir auch nix.
Golf 7 wäre die Serie und GTI zB das Modell.
Jetzt kommt das aber, an nem gewöhnlichen Golf 7 kann auch einfach nur Golf dran stehen.
Da kann dann aber alleine vom Motor her schon was komplett anderes drin sein.
Da ist nen Monitor doch recht einfach zu identifizieren.
 
Und wieder matter Mist anstatt Glossy. Matt nach matt nach matt nach matt. Die haben einfach den Schuss nicht mehr gehört! Lasst die Käufer entscheiden! Gamer wollen Glossy haben.
Also alle bisher erschienenen QD OLEDs sind doch glossy. Du hast also ausreichend Auswahl.
Ich denke, ich favorisiere matte Displays, da ich nicht ausschließlich im Dunkeln sitze und mich das lila/schwarz bei Lichteinfall stört.
Aktuell gibt es keine Consumer GPU die DP2.1 80Gbit (UHBR20) unterstützt..
Nur die professionellen WX7000 Karten von AMD können das..
Aber keine Normale GeForce oder Radeon
Einen Monitor kauft man nicht für die nächsten 10 Monate sondern mindestens für die nächsten 5 Jahre.
 
Zuletzt bearbeitet:
Mein alter Monitor war der Samsung G8 34 Zoll :D . Nun nennen sie den 32 Zoll genauso :D .
Der G8 wurde bei mir nach paar Monaten entsorgt, absoluter Software/Firmware Müll was man da bekommt. Wie es bei dem neuen ist keine Ahnung. Ich kauf keinen mehr von Samsung

Das Gleiche ist auch mit unserem QLED TV, Samsung ist für mich mittlerweile auch gestorben, gibt zum Glück Alternativen...
 
Soweit ich weiß sollen die IGPs der Ryzen 9000er zur 80GBit DP 2.1 fähig sein, wofür man aber wohl ein neues Board braucht. Damit kann man vermuten, dass zumindest AMD nicht mit weniger aufschlagen wird
Theoretisch sind die RX7000 schon dazu fähig.. aber zwischen fähig und real verbauten Anschluss liegen Welten..
Wenn's aufm Board n DP2.1 80Gbit Anschluss gibt wird es eins von den 800+€ Boards sein..
Und selbst wenn kann eine Igpu das eh nicht ausfahren
Mein alter Monitor war der Samsung G8 34 Zoll :D . Nun nennen sie den 32 Zoll genauso :D .
Der G8 wurde bei mir nach paar Monaten entsorgt, absoluter Software/Firmware Müll was man da bekommt. Wie es bei dem neuen ist keine Ahnung. Ich kauf keinen mehr von Samsung
Es war einerseits die Software die mich davon abgehalten hat.. ich brauche kein Monitor mit eigenem Betriebssystem am PC..
Und andererseits das alle Anschlüsse nur als "Mini" Version vorhanden waren
 
Zurück