G-Sync HDR: Nvidias Freesync-2-Konkurrent ist theoretisch weniger flexibel

Das Problem ist aber, daß nicht jeder 144Hz Freesync Monitor das kann.
Im Gegensatz dazu kann das jeder Gsync Monitor.
Mal abgesehen davon, ich kauf mir doch keinen 144Hz Monitor, um dann mit 30fps zu zocken.
 
Das Problem ist aber, daß nicht jeder 144Hz Freesync Monitor das kann.
Im Gegensatz dazu kann das jeder Gsync Monitor.
Mal abgesehen davon, ich kauf mir doch keinen 144Hz Monitor, um dann mit 30fps zu zocken.

Stimmt, das Problem habe ich ja angesprochen. Aber nVidia könnte G-Sync ja in Zukunft auch auf Adaptive-Sync aufbauen, und dann eben die große Frequenzspanne für ein entsprechendes Label vorraussetzen. Dann weiß der uninformierte was er bei einem Monitorkauf bekommt und G-Sync würde billiger da kein extra Modul mehr benötigt.

Mal abgesehen davon, ich kauf mir doch keinen 144Hz Monitor, um dann mit 30fps zu zocken.
Ja da verstehe ich auch manche Leute nicht, aber jedem das seine.

Mal davon abgesehen reichen mittlerweile auch kürzere Spannen wie 48Hz - 144Hz, da AMD-Karten mittlerweile Frequenzverdopplung beherrschen. Fällt die Framrate also auf unter 48 Hz, sagen wir mal 28 Hz, macht der Treiber daraus einfach 56 Hz indem er jedes Bild zweimal an den Monitor schickt. So läuft man heutzutage auch mit Monitoren die nicht die tiefsten FreeSync Frequenzen beherrschen so gut wie nie aus der FreeSync Spanne raus.
 
Das Problem ist aber, daß nicht jeder 144Hz Freesync Monitor das kann.
Im Gegensatz dazu kann das jeder Gsync Monitor.
Ja, das GSync Modul kann Bilder @30 Hz _und darunter_ "annehmen" aber bist du dir wirklich sicher dass das Panel das auch kann? Oder bekommt das Panel in einem solchen Fall nicht doch 2 mal das selbe Bild?
Aber es ist schon lachhaft wie einige verbauten Panel in einem GSync Monitor bessere Schaltzeiten hinbekommen sollen, als sie es eigentlich können. ;) Entweder Nvidia Magie oder LFC in Hardware ;)
..Mal abgesehen davon, ich kauf mir doch keinen 144Hz Monitor, um dann mit 30fps zu zocken.
Sehe ich eigentlich genau so.
 
Das Problem ist aber, daß nicht jeder 144Hz Freesync Monitor das kann.
Im Gegensatz dazu kann das jeder Gsync Monitor.
Mal abgesehen davon, ich kauf mir doch keinen 144Hz Monitor, um dann mit 30fps zu zocken.
Aber jeder 144hz FreeSyncler beherrscht LFR.
Was die 30 FPS@144hzMon angeht: Wieso denn nicht? Kann doch sein, dass man sowohl LoL als auch StarCitizen (aus dem Bekanntenkreis gegriffenes Beispiel!) zocken will?
 
Ich kauf mir doch keinen 144Hz Monitor, um mit wenig fps zu zocken.
Ich dreh einfach die settings runter um auf ordentliche fps zu kommen.

Auch wenn sie LFR können, ändert das nichts an den unterschiedlichen minimalen Hertz der Freesync Monitore.
Wenn jemand sich nen Freesync Monitor kauft, kommt irgendwann unweigerlich die Frage nach der Freesyncrange.
Das ist bei Gsync wesentlich besser und bringt vor allem bei Monitoren mit 60Hz wesentlich Vorteile.
 
immer wieder faszinierend wie die theorie ohne praxistaugliche erfahrungen zu einem noch nicht mal erhältlichen produkt solche differenzen zwischen propellerjungs und denen die glauben es nicht zu sein aufwirft. was zählt steht aufm platz. mir gefällt die strategie seitens nvidia auch nicht, jedoch kaufe ich letztlich das was mich überzeugt da kann auch 3dfx drauf stehen. das gesamtpaket muss mich überzeugen, auf marketingsprech geb ich nur exkremente
 
4K 144Hz ist zum glück noch weit genug weg, son Screen brauch man erst wenn die Grafikkarten auch mitkommen, in der Zwischenzeit bin ich mit 144Hz 1080p und G-Sync "1" ganz gut bedient ;P

...dieser ganze HDR kram kommt mir eh vor wie diese ENB Mods ... "ui noch mehr übertrieben kontrastreiche Farben ... hurrah"... naja wers braucht :rollen:
 
Ja, das GSync Modul kann Bilder @30 Hz _und darunter_ "annehmen" aber bist du dir wirklich sicher dass das Panel das auch kann? Oder bekommt das Panel in einem solchen Fall nicht doch 2 mal das selbe Bild?
Erkläre doch bitte gerade mal den Unterschied zwischen Frameraten von 30Hz und weniger zu Frameraten von 30 Hz und weniger, die verdoppelt werden. Ich kann gerade keinen erkennen.
 
Entweder es wird so lange verdoppelt bis das neue Bild fertig ist, oder es wird das Bild einfach rausgeschickt wenn es gebraucht wird - und wenn es noch nicht fertig ist wirds drübergelegt (=die Kante ist dann die Ursache fürs Tearing).
Man entscheidet also zwischen Ruckelorgie und Ruckelorgie mit Tearing :D
 
Entweder es wird so lange verdoppelt bis das neue Bild fertig ist, oder es wird das Bild einfach rausgeschickt wenn es gebraucht wird - und wenn es noch nicht fertig ist wirds drübergelegt (=die Kante ist dann die Ursache fürs Tearing).
Man entscheidet also zwischen Ruckelorgie und Ruckelorgie mit Tearing :D
Aber Nvidia und Gsync!!!!!11elf
 
Entweder es wird so lange verdoppelt bis das neue Bild fertig ist, oder es wird das Bild einfach rausgeschickt wenn es gebraucht wird - und wenn es noch nicht fertig ist wirds drübergelegt (=die Kante ist dann die Ursache fürs Tearing).
Man entscheidet also zwischen Ruckelorgie und Ruckelorgie mit Tearing :D
Dissecting G-Sync and FreeSync - How the Technologies Differ | PC Perspective

Erkläre doch bitte gerade mal den Unterschied zwischen Frameraten von 30Hz und weniger zu Frameraten von 30 Hz und weniger, die verdoppelt werden. Ich kann gerade keinen erkennen.
Bei Gsync wird die Hertzzahl verdoppelt.
Heisst, bei 28fps hast du 56Hz.
 
Bei jedem Menschen werden Farbe, Kontrast und Helligkeit anders wahrgenommen. Sogar bei zwei Augen in einem Kopf. Frauen haben eine wesentlich bessere Farbnuancierung/Empfinden als Männer. Dazu kommen Faktoren wie, überwiegend unter künstlicher Beleuchtung arbeiten oder drausen, Hornhautkrümmungen und Sehschwächen. Ab 30 FPS beginnt unser Gehirn den Bildern das Laufen beizubringen. Wir sehen einen Film. Soll heißen: Es gibt tatsächlich Menschen, denen reichen 40-60FPS vollkommen aus, um eine absolut rundes Spielvergnügen zu haben. Was nicht bedeuten soll, das mehr FPS sich negativ auswirken oder unerwünscht wären. Für E-Sportler sind hohe FPS sehr wichtig. Ich weiß nicht, wieviele hier im Forum ihr Geld mit Daddeln verdienen:ka: Ich jedenfalls nicht, dafür bin ich schon zu alt( 51! :D). Mir z. B. sieht "schärfer als die Realität" zu künstlich aus, die Farben sind ZU gesättigt. Als ein neuer PC( 11.2015) anstand, habe ich lange geschaut und überlegt, welche Graka/Monitor-Kombi ich nehme. Bin Brillenträger und wie schon erwähnt etwas "reifer" und habe mich für das für mich beste P/L-Verhältnis entschieden. Eine Sapphire R9 390 Nitro+BP mit einem WQHD/Freesync- Monitor und bin bei meinem Sitzabstand wirklich mehr als zufrieden.
Dies soll KEINE Überzeugungsarbeit sein, sondern lediglich darstellen, das Überzeugungsarbeit, egal aus welchem "Fanboy-Lager" absolut unsinnig ist.
Auch wenn hier NV eine "eierlegende Wollmilchsau" erfunden hätte, never ever für €2000,-. SOOO gut kann kein Bild sein, welches lediglich für Freizeit/Hobby-Gaming, Office und Urlaubsbilder herhalten muß. In professioneller Anwendung mag das alles wieder ganz anders aussehen. Da kann ichs aber auch von der Steuer absetzen :D
Außerdem, ob die User es toll finden, wenn jetzt auch noch der Moni ständig und auch noch selbstständig sich Updates ziehen muß? Also ich bräuchte so was nicht, es reicht schon so.
Aber schauen wir mal, ob die Technik was taugt, sich durchsetzt und bezahlbar wird. Dann kann man(n) ja weitersehen.
In diesem Sinne
Gruß T.
 
Falls jemand ernsthaft glaubt das Panel eines G-Sync Monitors mit 144Hz kann IMMER alles zwischen 30 und 144Hz ohne weiteres darstellen, dem kann ich nur sagen dass das irgendwie unwahrscheinlich ist. Diese Frequenzen werden vermutlich einfach erreicht indem unter der hälfte der Bildwiederholrate (zB. bei 144Hz bei 72Hz) einfach jedes Bild verdoppelt wird und das G-Sync Modul erst bei unter 30Hz auf dopplung seitens der Grafikkarte angewiesen ist, warum auch immer. So könnte man letztendlich sagen das der Monitor 30-144Hz annehmen würde, während dies jedoch nur durch einen kleinen, nicht sichtbaren, Trick erreicht wird. Das erscheint mir deutlich wahrscheinlicher als das jedes G-Sync Panel mit 30-144 oder was auch immer Hz umgehen kann. Bei Freesync steht zwar auch der Frequenzbereich den der Monitor akzeptiert nur entspricht dieser dort vermutlich auch dem Frequenzbereich des Panels da dort nur durch die Grafikkarte Frame-Doubling stattfinden kann.
Das ist zumindest meine Meinung zu den G-Sync Panels/Monitoren.
 
Falls jemand ernsthaft glaubt das Panel eines G-Sync Monitors mit 144Hz kann IMMER alles zwischen 30 und 144Hz ohne weiteres darstellen, dem kann ich nur sagen dass das irgendwie unwahrscheinlich ist. Diese Frequenzen werden vermutlich einfach erreicht indem unter der hälfte der Bildwiederholrate (zB. bei 144Hz bei 72Hz) einfach jedes Bild verdoppelt wird und das G-Sync Modul erst bei unter 30Hz auf dopplung seitens der Grafikkarte angewiesen ist, warum auch immer. So könnte man letztendlich sagen das der Monitor 30-144Hz annehmen würde, während dies jedoch nur durch einen kleinen, nicht sichtbaren, Trick erreicht wird. Das erscheint mir deutlich wahrscheinlicher als das jedes G-Sync Panel mit 30-144 oder was auch immer Hz umgehen kann. Bei Freesync steht zwar auch der Frequenzbereich den der Monitor akzeptiert nur entspricht dieser dort vermutlich auch dem Frequenzbereich des Panels da dort nur durch die Grafikkarte Frame-Doubling stattfinden kann.
Das ist zumindest meine Meinung zu den G-Sync Panels/Monitoren.
Es ist eben "lustig" wenn man Panel angeboten bekommt die ab 48 Hz losgehen und diese Panel auf einmal in einem GSync 30-xxx Hz verbaut sind. Auch wenn das schon etwas länger her ist. Wie schon gesagt, ist wohl Nvidia Magie. ;)
 
Bei Gsync wird die Hertzzahl verdoppelt.
Heisst, bei 28fps hast du 56Hz.
Und was ist nun der Unterschied zwischen 28 fps bei 28 Hz und 28 fps bei 56 Hz?

Es ist eben "lustig" wenn man Panel angeboten bekommt die ab 48 Hz losgehen und diese Panel auf einmal in einem GSync 30-xxx Hz verbaut sind. Auch wenn das schon etwas länger her ist. Wie schon gesagt, ist wohl Nvidia Magie. ;)
Ist wohl kaum Magie, sondern einfach nur geschicktes Engineering.

Da ist es dann auch kein Wunder, dass G-Sync teurer ist. Ist eben auch einfach deutlich besser.
 
Und was ist nun der Unterschied zwischen 28 fps bei 28 Hz und 28 fps bei 56 Hz?

Wie vorher schon erwähnt wird bei 28fps und 56 Hz der gleiche Frame einfach doppelt angezeigt.
Damit hat man dann pseudo 56 fps.
Das war sogar mal ein beworbenes Feature von G-Sync.
Inzwischen kann Adaptive Sync / Freesync das auch.

Der Link von JoM79 ist veraltet, da er den Stand von März 2015 zeigt.
Inzwischen haben sich beide Sync Technologien weiterentwickelt.
 
Jetzt geht AMD vs Nvidia auch im Monitorforum los.
Ist es so schwer zu verstehen, daß das Gsyncmodul nen Monitor anders ansteuert als nen "normaler" Scaler?
Und wenn man nicht glaubt dass nen 144Hz Gsync Monitor jede Hertzzahl zwischen 30-144Hz kann, dann schreibt doch mal tftcentral oder Prad an, dass die das mal testen sollen.
So ist das für mich nur Gelaber von wegen "Nen Nvidia Gsync Monitor kann was besser als nen AMD Freesync Monitor? Nein, das ist nicht wahr, niemals."
 
Ist wohl kaum Magie, sondern einfach nur geschicktes Engineering.

Da ist es dann auch kein Wunder, dass G-Sync teurer ist. Ist eben auch einfach deutlich besser.


Man kann wohl kaum von geschicktem Engineering reden, wenn dasselbe AUO Panel 27" / WQHD /144Hz/IPS in 500€ Freesync Monitoren steckt, was bei 700 €-800€ G-Sync Monitoren zum tragen kommt :ugly:
Zumal der Freesync Monitor eine Range von 40-144 Hz garantiert und alle Gsync Monitore die mindesten 50% mehr kosten eine Range von 30-144 Hz garantiert.

Ab dem Punkt ist es Sinnlos zu behaupten, dass die Frequenz Spanne vom G-Sync Scaler abhängt, die 10 Hz sind in keinsterweise relevant, da das LFC bei einem Freesync Monitor diese 10 Hz mehr als kompensieren kann.

Das ULMB oder die Aussage
"Die IPS[1]-Technologie liefert satte Farben und Sie können sogar bis 165 Hz[2] übertakten, um eine ganz neue Gaming-Generation zu erleben. Sobald Sie es einmal erlebt haben, werden Sie nie mehr zurückkehren wollen."
einen solchen Aufpreis rechtfertigen sollen ist doch total Banane, das heißt doch im Grunde nur, dass es mit den Freesync Monitor auch klappen könnte, aber nicht muss, genauso wie es es beim G-Sync Monitor klappen "KÖNNTE" aber nicht muss.

Ergo bleiben ULMB und 21 Hz mehr, die nicht mal garantiert sind xD schließlich sind das alles dieselben AUO Panels, technisch stehen die Modelle in Freesync Monitoren und G-Sync Monitoren sich in nichts nach.


Aber Trotzdem als 30- 165 Hz Monitor verkaufen :ugly: das ist doch viel mehr verarsche als das Drama mit dem LFC und den 5 Minuten recherche die man benötigt um die Freesync Range / LFC eines Jeden Monitor herauszufinden.

Edit:

Hier nochmal der Link zur AMD Homepage mit den Freesync Monitoren, falls das recherchieren zu schwer ist : AMD FreeSync™ Technologie

Da sind alle Monitore aufgelistet, inklusive Range und LFC.

Dort ist sogar der folgende Monitor aufgelistet:


EIZO
FS2735
27"
IPS
2560x1440
56-144Hz or 35-90Hz


Dabei handelt es sich um den einzigen Monitor mit geteilter Range, dieser kam 2015 auf den Markt und ist immernoch Bestandteil, jeder Anti Freesync Rede.

Dabei gibt es doch noch folgende Monitore:


Acer
BE270U
27"
IPS
2560x1440
40-144Hz via DisplayPort




Acer
XF270HU
27"
IPS
2560x1440
0-144Hz
DisplayPort™



AOC
G2460PF
23.6"
TN
1920x1080
35-144Hz via DisplayPort™;



AOC
G2770PGF
27"
TN
1920x1080
48-144Hz


Nur um mal Aufzuzeigen, dass es mehr als einen Freesync Monitor gibt und dass es auch verschiedene Ranges gibt ( Welche auch Bestandteil, von Anti Freesync Reden sind :ugly: ) , wobei dies keine Rolle spielt, da das LFC eh greifen würde und somit, quasi die Komplette Range zwischen ~ 16-144 Hz abdeckt, egal bei welchem dieser Monitore.
 
Zuletzt bearbeitet:
Zurück