Samsung CF791 und CFG70: Drei Quantum-Dot-LCDs mit Freesync und schnellen VA-Panels

UVP wurde für den Samsung C34F791 auf 1200€ nach oben korrigiert und verfügbar ab Anfang Dezember.

uh... das ist ja ekelhaft. :daumen2:
Sag mir nicht auf die kleinen 16:9 bekommen nen 200 Euro UVP Aufschlag, dann ist mein Interesse an diesen NUR Full HD auflösenden, VESA Mount mangelnden Monitoren aber ganz schnell verschwunden.

rollen.gif
Typisches AMD besitzer geblubber. Man könnte ja auch einfach bei ausgewählten Monitoren beides anbieten.
zwinker4.gif

Und wie wir ja alle wissen ist G-Sync besser wie Freesync und es gibt halt mehr leute mit nVidia Grafikkarten.

rollen.gif
Typisches Nvidia besitzer geblubber.*

Ich empfinde es nicht wirklich als so ungewöhnlich, dass manche Monitorhersteller nicht unbedingt Nvidias versteckte Kosten auf ihren Schultern lasten haben wollen? Schließlich steht dann Samsungs und nicht Nvidias Name auf dem überteuerten Monitor, der so ziemlich das gleiche kann, wie die Freesync Variante. Nvidia könnte die Kosten ja schließlich auch über ihre GPUs quersubventionieren. Klar, ne 1060 würde dann schonmal 400 EUR kosten und die Preis/Leistung sehe dann nicht mehr so "rosig" aus - als ob sie es täte -, aber so wäre es dann halt.

* von nem GTX670 Besitzer
 
Zuletzt bearbeitet:
WTF?
Die Reaktionszeit in GtG beschreibt die Zeit, die die Pixel brauchen um zwischen bestimmten Grauwerten, meine war 80-20-80, komplett umzuschalten.
Die Hertz geben an, wie oft das Panel pro Sekunde ein neues Bild aufbaut.
 
Die Reaktionszeit in GtG beschreibt die Zeit, die die Pixel brauchen um zwischen bestimmten Grauwerten, meine war 80-20-80, komplett umzuschalten..
Die klassische Signaldefinition von Grau zu Grau heißt: Umschalten 50% Weißwert -100% Weißwert - 50% Weißwert.
Das berechnet aber jeder Hersteller heutzutage zu seinen Gunsten (80% -20%- 80% vom Weißwert).
LG gibt zum Beispiel 80% Maximalamplitude bei manchen Geräten an:
Test Monitor LG 27UD88-W Teil 5.

Real sind immer nur die Schwarz-weiß- schwarz Werte (10% -90% -10% Weißwert), da hier fast die volle Signalaufbauzeit wirkt und viele Bildpunkte von weiß nach schwarz geschaltet werden, nicht von grau zu grau.

Die Hertz geben an, wie oft das Panel pro Sekunde ein neues Bild aufbaut
Ganz so ist das Nicht.
Auch da schummeln die Hersteller.
Die "Hertz" ist im besonderen die Bildwiederholfrequenz.

Die wird aber manchmal durch Ein- / Ausschalen der Hintergrundbeleuchtung künstlich aufgepeppt, ohne das neue Zwischenbilder berechnet werden.
 
:schief: Typisches AMD besitzer geblubber. Man könnte ja auch einfach bei ausgewählten Monitoren beides anbieten. ;)
Und wie wir ja alle wissen ist G-Sync besser wie Freesync und es gibt halt mehr leute mit nVidia Grafikkarten.

G-Sync ist nicht per se besser.
Das Problem ist das bei Freesync meißt einfach günstige Skaler verbaut werden die nicht an die von NVIDIA verkauften G-Sync Module heran kommen.
Würde G-Sync aussterben müsste NVIDIA Adaptiv Sync endlich unterstützen.
Das wäre für uns Kunden besser egal ob NVIDIA oder AMD.
 
Und wie wir ja alle wissen ist G-Sync besser wie Freesync und es gibt halt mehr leute mit nVidia Grafikkarten.

Falsch und falsch.

:schief: Typisches AMD besitzer geblubber. Man koennte ja auch einfach bei ausgewaehlten Monitoren beides anbieten. ;)

Damit alle nicht-NVidia-Kunden die nur wegen einer Maxwell1-Schwaeche notwendigen proprietaeren FPGAs mitbezahlen muessen? Abgelehnt.

G-Sync ist nicht per se besser. Das Problem ist das bei Freesync meisst einfach guenstige Skaler verbaut werden die nicht an die von NVIDIA verkauften G-Sync Module heran kommen.

Wuerde ich so nicht unterschreiben:
Punkt 1 ist, dass ueber nVidia-FPGAs quasi gar nichts bekannt ist. Es gab vor inzwischen auch wieder ueber einem Jahr einen einzigen, imho schon voellig lueckenhaften und unzulaenglichen Kurztest (Dissecting G-Sync and FreeSync - How the Technologies Differ | PC Perspective) dazu und seitdem nichts. Null. Vor allem nichts Offizielles.

Punkt 2 ist, dass LowFramerateComp nicht (mehr) nVidia-exklusiv ist und es inzwischen doch relativ viele FreeSync-Angebote mit brauchbarer Range (+lfc) gibt. Die Panel und ihre Refreshgrenzen sind als technische Basis ohnehin immer gleich.

Den vermeintliche Vorsprung halte ich deshalb fuer einen klassischen urbanen Mythos.
 
Zuletzt bearbeitet:
77% Marktanteil bei Desktopgrafikkarten sagt da was anderes aus.
Genauso wie die bessere Range und das Funktionieren im Fenstermodus.

Informier Dich bitte erst einmal, was "Marktanteil" aussagt. Hier war die Rede von vorhandenen Karten, d.h. Hardwarebasis. :rolleyes: Und selbst für den Marktanteil stimmte Deine Zahl nie und ist inzwischen wieder völlig falsch- nVidias Marktanteil sinkt seit einiger Zeit wieder wahrnehmbar.

Eine bessere Range sehe ich nicht. Es gibt inzwischen ausreichend FreeSync-Angebote in Bereichen, die besser sind, als praktisch überhaupt sinnvoll gebraucht. Bei GSync dagegen sehe ich dagegen schon kaum belastbare Range-Angaben. Den Fenstermodus schenke ich Dir gerne als Keks zum behalten. Musst ihn aber zurückgeben, wenn AMD das per Treiberanpassungen nachschiebt. Also bitte nicht gleich aufessen...
 
Zuletzt bearbeitet:
Hey PCGH, ich habe gerade euer Update gelesen:

Samsungs C34F791 lässt sich inzwischen im PCGH-Preisvergleich finden. Die ersten Händler listen das neue Flaggschiff ab knapp 1.200 Euro und genehmigen sich damit offenbar noch einen Vorbesteller-Preisaufschlag. Die offizielle Preisempfehlung liegt bei 999 US-Dollar, was umgerechnet inklusive 19-prozentiger Mehrwertsteuer keine 1.060 Euro entspräche. Die Auslieferung wird noch einige Wochen auf sich warten lassen.

Ihr habt es offensichtlich nicht mitbekommen, aber Samsung hat die UVP nach der Gamescom nochmal nach oben korrigiert gehabt.

Siehe hier die Pressemitteilung von Samsung vom 01.09.2016. Farbenpracht im Panorama-Format | SAMSUNG Deutschland

Offensichtlich betrifft das nur den C34F791. Es gibt keine neuen/abweichenden Infos zu den UVPs der 16:9 Varianten.

Samsung scheint sich also selbst einen saftigen Aufschlag zu genehmigen. Die Händler werden weniger davon haben als die südkoreanische Regierung, fürchte ich.

Gern geschehen. ;)
 
Eine bessere Range sehe ich nicht. Es gibt inzwischen ausreichend FreeSync-Angebote in Bereichen, die besser sind, als praktisch überhaupt sinnvoll gebraucht. Bei GSync dagegen sehe ich dagegen schon kaum belastbare Range-Angaben. Den Fenstermodus schenke ich Dir gerne als Keks zum behalten. Musst ihn aber zurückgeben, wenn AMD das per Treiberanpassungen nachschiebt. Also bitte nicht gleich aufessen...
Warum sollte man bei Gsync die Range dazu schreiben?
Die liegt immer bei 30Hz-XXXHz, XXX ist dabei die maximale Bildwiederholfrequenz des Monitors.

Der nicht vorhandene Fenstermodus würde bei mir zB Freesync in Diablo 3 unbrauchbar machen.
Wenn sie es irgendwann nachpatchen ist doch gut, aber im Moment ist es einfach nicht vorhanden.

Zu den Marktanteilen und deiner Hardwarebasis:
Meine Aussage mit den 77% stimmt für das Q1/2016, aber stimmt, es sind mittlerweile nur noch 70%.
http://www.3dcenter.org/image/view/10421/_original
Aber hast du dir mal angeguckt, welche Grafikkarten jeweils G-bzw Freesync unterstützen?
Das sind bei Freesync nicht besonders viele:

  • AMD Radeon R9 300 Series


  • AMD Radeon R9 Fury X


  • AMD Radeon R9 360


  • AMD Radeon R7 360


  • AMD Radeon R9 295X2


  • AMD Radeon R9 290X


  • AMD Radeon R9 290


  • AMD Radeon R9 285


  • AMD Radeon R7 260X


  • AMD Radeon R7 260
    Dazu die neue RX 4XX Serie.
    Bei Nvidia hingegen:
    [FONT=&quot]Für die G-SYNC-Merkmale ist eine NVIDIA GeForce GTX 650 Ti BOOST oder höhere Grafikkarte erforderlich.[/FONT]

Das wären dann hier im Forum, Nvidia 939(58,68%) zu AMD 387(24,18%) Grafikkarten mit der jeweiligen Technologie.
Teilnehmer zu dem Zeitpunkt 1600.
Welche Grafikkarte nutzt du derzeit zum Spielen? (Sommer '16)
Aber gibt ja nicht mehr Leute mit Nvidia.
 
Bei geizhals steht etwas von 125% sRGB Abdeckung. Das hängt ja sicher mit den Quantenpunkten zusammen. Ist das dann auch von der Bildqualität und Farbwiedergabe besser als IPS, oder zumindest gleich gut?
Könnte ja dann noch - auch Aufgrund des besseren Kontrastes - ein Zwischenschritt zu OLED sein.

Beim Marktanteil für AdaptiveSync muss man aber auch bedenken, das Intel das mit den kommenden iGPUs unterstützen will. Und die haben mit AMDs APUs und GPUs dann 90%+
Und AdaptiveSync lohnt sich ja gerade dann, wenn man wie bei einer iGPU nicht immer 60 FPS hat. Zumal man den Monitor ja auch meistens recht lange behält.
 
Zuletzt bearbeitet:
G-Sync ist nicht per se besser.
Das Problem ist das bei Freesync meißt einfach günstige Skaler verbaut werden die nicht an die von NVIDIA verkauften G-Sync Module heran kommen.
Würde G-Sync aussterben müsste NVIDIA Adaptiv Sync endlich unterstützen.
Das wäre für uns Kunden besser egal ob NVIDIA oder AMD.

Was in absehbarer Zeit, wenn es so weiter läuft, auch passieren wird.
Von 4 (neuen) Monitoren die auf den Markt kommen sind 3 mit Free- und einer G-Sync...das sagt doch schon alles.
Monitorhersteller wollen Geräte verkaufen, an denen sie etwas verdienen...und nicht Nvidia reicher machen.

So long,...
 
Fängt Samsung jetzt auch wie AUO an?

Die ersten beschweren sich schon über Pixelfehler und Staub beim C34F791WQU.....


Ich hoffe mal das das eher die Ausnahme bei Samsung ist auf den C34 hatte ich nämlich auch nen Auge geworfen da er mit 100Hz und 21:9 mit Freesync der einzigste ist..

Ansonsten hat Computeruniverse welche auf Lage.

Samsung Curved Monitor C34F791 - Monitore - computeruniverse

Hab mir den jetzt mal bestellt, sollte morgen ankommen. Von Staub hab ich bisher noch nichts gelesen, gibt aber auch erst wenige Bewertungen.
Ich hoffe der Monitor entäuscht nicht, warte schon seitdem der Monitor vorgestellt wird auf die Lieferbarkeit mit einem vernünftigen Preis :D
 
Zurück