News G-Sync-Modul wird überflüssig: Nvidia und Mediatek kündigen Monitor-Kooperation an

Kenne ja sein Budget nicht. Für mich hat dieser ein gutes PL Verhältnis.
Dann mach halt Du einen besseren Vorschlag und jeder ist zufrieden ... :hail:
Das ist die übliche VA Möhre.
Da er ne 4080 hat und eigentlich nen Gsync Monitor will, ist der Monitor doppelt am Ziel vorbei.
Sowas darf es da schon mal sein.
Oder sowas Wenn er 21:9 haben will.
 
Gibts nicht bereits FreeSync-Monitore, bei dem man eine Technik ähnlich ULMB- / Pulsar gleichzeitig aktivieren kann? Ich glaube zumindest, das schon mal in einem Testbericht gelesen zu haben.
Ich nutze seit 6 Jahren einen Freesync Monitor (ASUS 27"/ WQHD / 165 Hz) und habe ULMB immer gleichzeitig aktiviert.
Ist das beim G-Sync Standard anders, so dass Variable Bildfrequenz nicht gleichzeitig mit ULMB aktiviert werden kann?
 
Das ist bei fast allen anderen Monitoren anders.
Ok, dann haben ich und weitere Spieler in meiner Blase wohl sehr viel Glück beim kauf gehabt.
Ich empfinde die Kombination beider Techniken, als spürbare Aufwertung des Spieleerlebnises.

Der Monitor ist eigentlich nichts besonderes und war preislich im Mittelfeld - dann wundert mich, dass mittlerweile nicht alle Geräte ab dieser Preisklasse eine Kombination ermöglichen.

Ich würde nicht mehr darauf verzichten wollen.
 
Eigentlich ist G-Sync überflüssig seit es Adaptive Sync / Free Sync weitverbreitet gibt und es auch von Nvidia Karten unterstützt wird :cool: Der Mehrwert von G-Sync existiert doch nur auf dem Papier oder im Kopf irgendwelcher Hardcore Enthusiasten.
Ich lese hier auch nur, dass Nvidia endlich eine Möglichkeit gefunden hat, die Nvidiasteuer auf Monitore zu erheben ohne dafür mehr Geld in die Herstellung des Monitors zu stecken. Nicht, dass sie das nicht schon mit "G-Sync-compatible" versucht hätten, aber irgendeiner im Marketing hat bestimmt ausgerechnet, dass so eine fancy collaboration noch mehr Nvidia-Jünger zum Kauf überzeugt, als so ein langweiliges "compatible"-Label.
Anders gesagt: "G-Sync-Modul wird überflüssig"? 2014 hat angerufen und möchte seine News zurück.

Aber vielleicht irre ich mich auch und wir sind Zeuge einer bahnbrechenden Innovation.
 
Zuletzt bearbeitet:
oh es gab (gibt?) Vorteile von G-Sync Ultimate zu Free-Sync Ultimate oder gar G-Sync-compatible.
Ich suche mal eine Übersichtsliste ob das in 2024 immer noch der Fall ist.

Edit.
Neben HDR (Qualität) spielt anscheinend immer noch die Hz Zahl ein Rolle.
Bei G-Sync (VRR Range) geht es ab 1 Hz los bei G-Sync-compatible teilweise ab 80 Hz (die meisten TFTs anscheind aber ab 48Hz). Wäre mich ein No Go. Suche aber weiter nach ~neutalen Berichten (das kommt von NVidia)
 
Zuletzt bearbeitet:
oh es gab (gibt?) Vorteile von G-Sync Ultimate zu Free-Sync Ultimate oder gar G-Sync-compatible.
Ich suche mal eine Übersichtsliste ob das in 2024 immer noch der Fall ist.
Ja, aber wenig.
Freesync Ultimate gibt es nicht.
Edit.
Neben HDR (Qualität) spielt anscheinend immer noch die Hz Zahl ein Rolle.
Bei G-Sync (VRR Range) geht es ab 1 Hz los bei G-Sync-compatible teilweise ab 80 Hz (die meisten TFTs anscheind aber ab 48Hz). Wäre mich ein No Go. Suche aber weiter nach ~neutalen Berichten (das kommt von NVidia)
Solange du nen Monitor mit 120Hz+ hast, geht die Range genauso bei 1Hz los.
 
Ich würde mit einem 360Hz Monitor gar keine Sync Technik mehr einschalten. Sieht man eh kein Tearing mehr. Hab meinen zweiten FreeSync Monitor und bei beiden in der unteren Sync-Range geflimmer. Der aktuelle hat 165Hz. Selbst da lass ich bei bestimmten Spielen das Sync gleich ganz weg und sehe kaum Tearing.
 
Zumindest laut Geizhals gibt es 1Hz nur mit g-sync:
Macht doch letztendlich keinen wesentlichen Unterschied, ob ein Frame mehrmals dargestellt wird, oder der eine sehr lange.

Bspw. Ob Frame A nach 16,667ms nochmal aufgebaut wird, bevor nach 33,333ms Frame B kommt, oder aber Frame A über die gesamten 33,333ms dargestellt wird, macht im Endeffekt keinen unterschied.

Das machen nämlich die Bildschirme die keine 1 Hz erreichen können, sofern die min. Hz höchstens die Hälfte der max. Hz entspricht - das nennt sich Frame Rate Compensation (FRC).
Und auch wenn NVIDIA behauptet das mit G-Sync-Modul 1Hz erreicht würde, würde es mich nicht im geringsten Überraschen wenn eigentlich FRC zum Einsatz kommt. Falls jemand einen unabhängigen Testbericht kennt, in dem diese Behauptung von NVIDIA mal geprüft wurde, bitte verlinken.
 
Zumindest laut Geizhals gibt es 1Hz nur mit g-sync:
Ja, weil Nvidia das so vermarktet.
Erklärung weiter unten.
Macht doch letztendlich keinen wesentlichen Unterschied, ob ein Frame mehrmals dargestellt wird, oder der eine sehr lange.

Bspw. Ob Frame A nach 16,667ms nochmal aufgebaut wird, bevor nach 33,333ms Frame B kommt, oder aber Frame A über die gesamten 33,333ms dargestellt wird, macht im Endeffekt keinen unterschied.

Das machen nämlich die Bildschirme die keine 1 Hz erreichen können, sofern die min. Hz höchstens die Hälfte der max. Hz entspricht - das nennt sich Frame Rate Compensation (FRC).
Und auch wenn NVIDIA behauptet das mit G-Sync-Modul 1Hz erreicht würde, würde es mich nicht im geringsten Überraschen wenn eigentlich FRC zum Einsatz kommt. Falls jemand einen unabhängigen Testbericht kennt, in dem diese Behauptung von NVIDIA mal geprüft wurde, bitte verlinken.
Da brauchst du dich nicht wundern, das funktioniert bei Nvidia genauso.
Oben im Bild und letzter Absatz.
Aber anscheinend glaubt wirklich jeder, dass nur Nvidia Gsync Monitore bis 1 Hz runter gehen.
Nein, dem ist nicht so.
Ich würde mit einem 360Hz Monitor gar keine Sync Technik mehr einschalten. Sieht man eh kein Tearing mehr.
Es geht ja nicht nur um tearing , sondern auch um ein flüssiges Bild.
180fps mit adaptive sync ist flüssiger als 180fps ohne sync und 360Hz.
 
Pulsar klingt wirklich super interessant. Bin bin sehr neugierig, wie gut das in der Praxis funktionieren wird, vor allem im Vergleich zum bereits bestehenden ULMB2. ULM2 funktioniert richtig eingestellt (kombiniert mit Fast Sync) überraschend gut, auch mit geringerer Framerate sowie mit FrameGen zusammen. Tearing? Keine Spur davon, zumindest nicht wahrnehmbar. In manchen Spielen (single Player Games) ist somit ein Unterschied zu ausgeschaltetem FrameGen nicht mehr zu spüren, einfach nur super smooth und super snappy, wirklich insane. Seit dem ich also die richtigen Einstellungen gefunden habe, vermisse ich Gsync kein bisschen mehr. Das liegt aber sicherlich auch daran, dass ich in den anderen Spielen (FPS, eSports) die optimale Framerate erziele, um der Bildwiederholfrequenz meines Monitors gerecht zu werden.

Der wirkliche Vorteil von Pulsar sollte vor allem dann in Erscheinung treten, wenn bei schwächerer Hardware in relevanten Spielen die optimale Framerate nicht mehr erreicht werden kann, was aber auch bedeuten würde, dass diese Monitore in die Preisklasse der budget-medium PC Hardware passen müssen. Ob das mit Mediatek gelingt? Bestimmt nicht von vornherein.
 
Ja, aber wenig.
Freesync Ultimate gibt es nicht.

Solange du nen Monitor mit 120Hz+ hast, geht die Range genauso bei 1Hz los.

Worst Case sogar ab 80 Hz :klatsch: => 2020 Odyssey G7
Ich fand auf der Schnelle keine Angaben von Samsung; würde damit aber auch nicht werben wollen.
Ich würde mit einem 360Hz Monitor gar keine Sync Technik mehr einschalten. Sieht man eh kein Tearing mehr. Hab meinen zweiten FreeSync Monitor und bei beiden in der unteren Sync-Range geflimmer. Der aktuelle hat 165Hz. Selbst da lass ich bei bestimmten Spielen das Sync gleich ganz weg und sehe kaum Tearing.
weil ggf. da kein Free Sync klappt.
Ab einer bestimmten FPS im Spiel nimmt auch der Vorteil von GSync bzw. FreeSync ab.
Ob das 60, 90, 120, 144 oder später sei ist bei jedem etwas anders.

Wenn ich z.B. in CP2077, Alan Wake 2 und ein paar andere Spiele alles auf max. stelle gehen die FPS selbst mit der RTX 4090 doch massiv in den Keller.
Langsamme MP Spiele wie WoWarships machen da auch mit 30 FPS noch Spass; gerade im Vergleich zu "ohne GSync".
(um die 30 FPS zu erreichen man muss dafür die Auflösung doch "etwas" hoch setzen :P )
 
Zuletzt bearbeitet:
kA ich würde mich IMMER wieder für "echtes" G-Sync entscheiden. Bei den Games, die ich spiele hab ich idR den Anspruch "50FPS+" und wenn Freesync erst bei 48 Hz/FPS einsetzt da es sonst wild flackert oder einen Blackscreen macht ist mir das zu knirsch. Da bezahl ich lieber alle drölfundzwölfzig Jahre 100€ mehr für den Monitor und muss mir das dann nicht wie die FreeSync Fans schönreden -weils einfach funktioniert und das ist letztendlich das Einzig ausschlaggebende ;) ob das nun effektiv bei 1Hz oder bei 16,667Hz anfängt ist mir Rille...es sind jedenfalls keine 48.
 
kA ich würde mich IMMER wieder für "echtes" G-Sync entscheiden. Bei den Games, die ich spiele hab ich idR den Anspruch "50FPS+" und wenn Freesync erst bei 48 Hz/FPS einsetzt da es sonst wild flackert oder einen Blackscreen macht ist mir das zu knirsch. Da bezahl ich lieber alle drölfundzwölfzig Jahre 100€ mehr für den Monitor und muss mir das dann nicht wie die FreeSync Fans schönreden -weils einfach funktioniert und das ist letztendlich das Einzig ausschlaggebende ;) ob das nun effektiv bei 1Hz oder bei 16,667Hz anfängt ist mir Rille...es sind jedenfalls keine 48.
Hatte noch nie einen Offiziellen G-Sync Monitore und hat nie Probleme mit VRR oder G-Sync Kompatible.

Ich bin der festen Überzeugung das es bis auf 0.01% bei den VRR weder mit G-Sync noch mit Free-Sync funktioniert.
Das reines Schlangenöl von Nvidia mittlerweile ist.
Das war zur Einführung vlt mal anders.

vlt ist das halt mal wieder ein Klassiches Layer 8 Problem.
" und muss mir das dann nicht wie die FreeSync Fans schönreden -weils einfach funktioniert "
Und bald bei wenn es bei mir nicht funktioniert muss es bei allen andren auch so sein:
Alle 4090 rauchen ab weil war bei mir so
Intel Raptorlake instabil und langsam
AMD Treiber sind scheise
Ryzen CPUs explodieren.
 
kA ich würde mich IMMER wieder für "echtes" G-Sync entscheiden. Bei den Games, die ich spiele hab ich idR den Anspruch "50FPS+" und wenn Freesync erst bei 48 Hz/FPS einsetzt da es sonst wild flackert oder einen Blackscreen macht ist mir das zu knirsch. Da bezahl ich lieber alle drölfundzwölfzig Jahre 100€ mehr für den Monitor und muss mir das dann nicht wie die FreeSync Fans schönreden -weils einfach funktioniert und das ist letztendlich das Einzig ausschlaggebende ;) ob das nun effektiv bei 1Hz oder bei 16,667Hz anfängt ist mir Rille...es sind jedenfalls keine 48.
Auch für dich, bei ner range von 48-144Hz wird auch unter 48fps synchronisiert.
Das macht der AMD Treiber genauso wie der von Nvidia.
Nvidia hat da echt gute Arbeit geleistet, nur damit die Leute für teuer Geld unnötige Sachen kaufen.
 
Zurück