ATI oder NVIDIA? FreeSync-Monitor ein Kaufkriterium?

Kommst du da echt nicht selber drauf?
Was bedeutet denn synchronisieren?
Etwas das unterschiedlich ist, angleichen und das dauert halt einen Moment.
 
Du synchronisierst die Graka. Ich synchronisiere den Monitor...

Kommst' selber drauf, ne?

Schneller Edit: Sry, blöder Ton von mir. Werde das zur Strafe gleich etwas ausführen, koche mir aber besser erst einen Kaffee und esse ein Müsli.

Nochmal sry bis dahin für den blöden Ton gerade.
 

Weil es so ist:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Augen auf ab 7:34

Inputlag = Abweichung von Aktion des Spielers bis diese auf dem Bildschirm dargestellt wird. Je geringer die ausgegebenen FPS um so größer der Lag. Führt zum Übersteuern des Zielcursors, dass ein scheinbar sicherer Schuss danebengeht etc.
Wenn das ganze Synchronisiert wird wartet die Grafikkarte mit der Bildveränderung bis der Monitor wieder bereit ist ein Bild aufzunehmen. Bei VSync und einen 60Hz Monitor können das schon mal 33,3 ms zwischen 2 Bildern sein wenn die FPS auf 30 zurückfallen.

Selbst GSYNC und VSYNC haben eine leichte Eingabeverzögerung, die aber eher in der geringen 1 stelligen Bereich fallen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Du synchronisierst die Graka. Ich synchronisiere den Monitor...

Kommst' selber drauf, ne?

Schneller Edit: Sry, blöder Ton von mir. Werde das zur Strafe gleich etwas ausführen, koche mir aber besser erst einen Kaffee und esse ein Müsli.

Nochmal sry bis dahin für den blöden Ton gerade.

Was hat das denn damit zu tun, wer was synchronisiert?
Jeder Abgleich dauert halt einen kleinen Moment.
 
Auch Du synchronisierst die Graka. Ich synchronisiere den Monitor...

Erst einmal müssen wir uns über den Begriff Eingabelag noch etwas genauer klar werden. Das ist nämlich erst einmal etwas komplizierter, als es viele Leute betrachten.

Am naheliegendsten sind hier natürlich elektronische Messungen mit Photodiode direkt am Monitor, also Timingmessung eines elektronisch etwa am Mausport ausgelösten Lichtpulses, direkt danach kommen die bekannten Kamerasetups, die letztlich ähnlich funktionieren. Hier müssen wir uns aber über eines klar werden:

Es ist hoch relevant, WO auf dem Bildschirm wir messen und wie wir Eingabelag wirklich genauer definieren, so gut sind heutzutage Gsync und FreeSync.

Erst einmal also das Wo, warum wo? Wo ist das wo?
Unten halbrechts, wo sich gerade das Gebüsch im Canyon bewegt hat? Im Zentrum, wo wir gerade auf ein noch knapp außer Reichweite heranpreschendes Fahrzeug anlegen? Oben links hinter der Wolke, wo sich gerade der Freiherr von Richthofen auf uns stürzt?

Wir werden nämlich (unter anderem) je nach Ort der Messung unterschiedliche Vor- und Nachteile der Systeme mit/ ohne Free/GSync sehen, von denen einige in der Tat prinzipbedingt sind und mit Synchronisierung zu tun haben. Ich werde dabei vor allem FreeSync betrachten, weil es im Gegensatz zu Gsync weniger Black-Box-Charakter hat, nicht nur, weil ich es besser aus dem Alltag kenne.

Sagen wir Du renderst gerade mit hypothetisch konstanten 190 FPS auf einen 100Hz-Schirm, einmal mit FreeSync und EnhancedSync und einmal "unsynchronisiert". Warum "unsynchronsiert" in Anführungszeichen? Weil ihr vergesst, daß es sehr wohl eine für das Auge relevante Synchronisierung auch ohne adaptive Sync (also Gsync/FreeSync) gibt, nämlich die mit den 100Hz des Bildschirms selbst. Genau da wird das "wo" relevant.

Wenn hypothetisch alles perfekt funktioniert (insbesondere die Frametime-Prediction von FreeSync ist hier gefragt), wird das prinzipbedingt sich wie folgt unterscheiden:

Während der ersten Millisekunden wird auf beiden Monitoren von oben nach unten das Bild zeilenweise dargestellt. Etwa nach 5ms aber wird das Bild in der unteren Hälfte beim "unsynchronsierten" Monitor nun etwas früher mit der neuen Geometrie dargestellt, das Auge sieht hier früher neue Information, wird in diesem Moment beispielsweise unten gemessen, wird der Lag geringer sein als mit FreeSync. Der Eingabelag in diesem Bildschirmbereich ist fraglos prinzipbedingt bei "unsynchronisierter" Darstellung klar überlegen. DAS gestehe ich jederzeit zu.

Was aber passiert im Idealfall an anderen Stellen zu anderen Zeitpunkten?

Die Framerate-Prediction ist nämlich auch nicht so dumm, sie hat hypothetisch korrekt 190FPS bzw. die entsprechende Framtime vorhergesagt und den Monitor längst angewiesen, auf 95Hz zu syncen (es geht hier erst einmal nur um das Prinzip).

Wie sieht das nun also idealisiert an anderer Stelle zu anderem Zeitpunkt aus? Wie sieht das meinetwegen beim vierten oder sechsten Frame aus? Der ist nach etwas weniger als zwanzig Millisekunden insgesamt fertig, und siehe da, der FreeSyncMonitor will auch gerade anzeigen, denn er hat die halbe Wiederholfrequenz aus den Frametimes vorhergesagt bekommen. Weil ich gemein bin, messe ich nun oben bei Herrn Richthofen hinter der Wolke. Und siehe da, plötzlich hinkt der "unsnchronsierte" Monitor knapp satte zehn Millisekunden hinterher, er war mit seiner Darstellung nämlich oben gerade fertig geworden. Siehe da, wenn alles hypothetisch perfekt funktioniert, kann das Auge nun in den oberen Bereichen tatsächlich mit adaptive Sync FRÜHER etwas wahrnehmen, prinzipbedingt, hypothetisch.

Und weisst Du was? Wie nah AMD da dran ist merkt man dann, wenn die Framerate-Prediction mal etwas versagt und es dadurch doch zu Tearing kommt, trotz FreeSync – es gibt wohl kaum einen besseren Beleg für niedrigen Eingabelag zum Schirm hin (der zum Spiel hin ist durch mehr berechnete als dargestellte Frames ja ohnehin besser) als daß bei Versagen der gerade bearbeitete Teil vom Grafikspeicher dargestellt wird, und genau das ist Tearing.

Ja, in der Realität kosten auch FreeSync und Gsync hier und da auch mal ein, zwei, drei, vier Millisekunden, das ist aber halt (böswillig dargestellt) oft nun wirklich nicht viel im Verhältnis etwa zu zehn Millisekunden im Großteil des unsynchronisiert dargestellten Bildteils oben. Hinzu kommt das smoothere Feeling durch temporale Übereinstimmung zwischen Geometriesetup und von der Engine beabsichtigten Darstellungszeitpunkten in allen Bildbereichen, sofern diese gut programmiert ist (geht etwa nicht mit Framelocks, klar, aber macht auch nicht jede Engine sauber ohne Framelocks). Ich sehe die teilweisen Eingabelag-Problemchen bei adaptiveSync jedenfalls bei BEIDEN Herstellern als mittlerweile Lamentieren auf hohem Niveau an, das ob der fortschreitenden Verbesserung von adaptive Sync meiner Wahrnehmung nach eigentlich Geschichte ist. Auf der anderen Seite sehe ich eine Schönfärberei unsynchronisierter Darstellung, die in Wahrheit halt letztlich eigentlich an anderer Stelle synchronisiert, nämlich mit der Darstellung des Monitors.

Aber ist halt nur meine Wahrnehmung, vielleicht schwimme ich da einfach gegen den Strom.

Und, vielleicht noch als Zusatz: Klar sehe ich, daß die wenigen durch adaptive Sync hinzugefügten Millisekunden im absoluten Profi-Bereich letztlich doch wieder etwas ausmachen, bei Monitoren mit sehr hohen Wiederholraten sind die hinzugefügten Millisekunden dann doch relevant, sicher. Da ist man dann aber auch eher mit 600 FPS bei 240 oder mehr Hz unterwegs.
 
Zuletzt bearbeitet:
Ich habe auch nichts von OC erwähnt, sondern rede von Out of the Box.
Der PCGH Index bezieht sich ja lediglich auf die Referenzdesigns. Die 56er Vega hebt sich in den Costumvarianten aber überproportional vom Referenzwert ab und erreicht fast schon die 64er Leistung.
Gaming Performance: 2560 x 1440 Pixel (WQHD) - Asus ROG GeForce GTX 1070 Ti Strix Gaming 8G im Test
Direkter Vergleich:
The Gigabyte GTX 1070 Ti Gaming OC 8G review

PowerColor Red Devil Vega 56 8GB review - Final words and conclusion

Zitat: "he card is more or less only a notch slower than the 64 (air-cooled model) yet cheaper. Meanwhile, the 56 passes the GeForce GTX 1070 and really is not that far off the GeForce GTX 1080. That depends on a little per game and rendering API /DX11/DX12/Vulkan. I can see most AIB partner boards being clocked a notch (50 MHz) higher, gaining a bit in perf. Trivial, however, will remain to be the dynamic boost marker. As stated, the Vega 56 does perform nicely with 2017 games and does position itself in a very competitive performance bracket as it feels right on many levels. I mean the GeForce GTX 1070 Ti was released simply to block the Vega 64. We had pretty much no issues and combined with the new Adrenalin driver you now have a nice overlay and smartphone link to the graphics card as well. "

Sorry @Gurdi aber ootb ist deine VEGA 56 (und es heisst cUstOm nicht anders herum denn sie verkleidet sich nicht... zumindest nicht bei mir) einfach keine reelle Option wenn du ehrlich bist.

Die billigste 56 Custom:

PowerColor Radeon RX Vega 56 Red Dragon Preisvergleich | Geizhals Deutschland

Für was 630 Euro löhnen, wenn ich das hier kriegen kann, was deutlich mehr Performance hat und fast 80 Euro günstiger ist:

Gigabyte GeForce GTX 1080 Windforce OC 8G Preisvergleich | Geizhals Deutschland

Egal ob AMD oder nVidia aber am Ende des Tages zählt einfach Preis/Leistung. Man hat AMD bis vor ein paar Jahren immer zugestanden (was ja auch nicht falsch war) günstiger zu sein als nVidia.

Wenn ich jemand hier ne GPU empfehlen soll, dann gibts hier nix zu überlegen, ausser man findet Freesync so wichtig, dass man bereit auf ein so krasses Performanceplus zu verzichten. Warum sollte man jemand eine GPU epmfehlen die fast 80! Euro mehr kostet als eine GPU die gut 30% mehr Performance bringt?

Und klar bringt ne VEGA Custom egal ob 56 oder 64 (siehe LC) auch mehr Leistung als sie es tut mit dem bare stock cooler, aber das tut die Konkurrenz eben auch. Ne GTX1080 Custom ootb geht auch bis 2GHz hoch und dann siehst du mit der 56er einfach kein Land mehr.

Das macht alles in allem deine VEGA56 nicht zu einer schlechten GPU, schon gar nicht, wenns unbedingt FreeSync sein muss, aber den meisten hilfesuchenden Leuten, die sich an so ein Forum wenden, geht es immer um Preis/Leistung.
 
Ist ja auch richtig so, die Vegas sind nicht zu empfehlen zu den aktuellen Preisen.
Es geht lediglich um eine korrekte Leistungseinschätzung. Vielleicht gibts in einer Woche ne 1070 für 350 Euro oder eine Vega 56 für 400 Euro etc.
Wichtig ist dass der TE eine korrekte Leistungseinschätzung erhält damit er dann kaufen kann wenn der Preis für Ihn stimmt, unabhängig vom Produkt.

Eine V56 ist mehr Wert als eine 1070 aber weniger als eine 1070ti. Wenn Sync dann noch ne Rolle spielt dann kann auch die 56er etwas mehr kosten, nur zu den abgehobenen Preisen aktuell ist das halb wirklich uninteressant.
 
Der PCGH Index bezieht sich ja lediglich auf die Referenzdesigns. Die 56er Vega hebt sich in den Costumvarianten aber überproportional vom Referenzwert ab und erreicht fast schon die 64er Leistung.

Du spielst wieder mal das Cherrypicking Spiel und ziehst dir extra den Tomshardware Test aus dem Netz, da darin 3 von 5 Spielen auf Vega gut performen, was aber nicht die Regel ist.
GTX 1070 und Vega 56 nehmen sich gar nichts, sieh es doch bitte mal ein, genauso gibt es von beiden Fälle in denen die GTX 1070 gar schneller arbeitet als eine übertaktete Vega 64 oder umgekehrt. (Letztes Beispiel Conan Exiles)

Ich kann dem TE keine Empfehlung aussprechen, weil ich mich zwischen den besseren Nvidia Treibern und dem netten Freesync nicht entscheiden könnte.
Im Zweifel würde es bei mir jedoch eine Nvidiakarte werden, da die Vega Karte für meine Begriffe zu viele Nachteile kompensieren muss. (Strom, VSR<DSR, Treiber).
Ich zocke seit geraumer Zeit auf 3840x1080 ohne Freesync da eine GTX 1080 Ti zum Einsatz kommt und habe den direkten Vergleich mit einer R9 290 bei gleichen FPS gemacht.
Ja man fühlt es definitiv, aber für so relevant halte ich das nicht. Lieber mehr FPS und dann mit Fastsync arbeiten, Freesync bzw G-sync produziert auch einen messbaren Input Lag.

Wichtig ist dass der TE eine korrekte Leistungseinschätzung erhält damit er dann kaufen kann wenn der Preis für Ihn stimmt, unabhängig vom Produkt.

Ein Test mit lächerlichen 5 Spielen ist also korrekter als der PCGH Index?
 
Ich habe auch nichts von OC erwähnt, sondern rede von Out of the Box.
Der PCGH Index bezieht sich ja lediglich auf die Referenzdesigns. Die 56er Vega hebt sich in den Costumvarianten aber überproportional vom Referenzwert ab und erreicht fast schon die 64er Leistung.
Gaming Performance: 2560 x 1440 Pixel (WQHD) - Asus ROG GeForce GTX 1070 Ti Strix Gaming 8G im Test
Direkter Vergleich:
The Gigabyte GTX 1070 Ti Gaming OC 8G review

PowerColor Red Devil Vega 56 8GB review - Final words and conclusion

Zitat: "he card is more or less only a notch slower than the 64 (air-cooled model) yet cheaper. Meanwhile, the 56 passes the GeForce GTX 1070 and really is not that far off the GeForce GTX 1080. That depends on a little per game and rendering API /DX11/DX12/Vulkan. I can see most AIB partner boards being clocked a notch (50 MHz) higher, gaining a bit in perf. Trivial, however, will remain to be the dynamic boost marker. As stated, the Vega 56 does perform nicely with 2017 games and does position itself in a very competitive performance bracket as it feels right on many levels. I mean the GeForce GTX 1070 Ti was released simply to block the Vega 64. We had pretty much no issues and combined with the new Adrenalin driver you now have a nice overlay and smartphone link to the graphics card as well. "

Ich zitiere es dir gerne nochmal, da sind exakt 3 Links, nicht einer mit 5 Tests. Dass sind zusammen wohl eher an die 50 Games....
Da ist Babeltech, 3dGuru und Toms Hardware drin. Werf mir nicht vor was du selbst betreibst.
Allein beim Babeltech Review werden bereits 106 benchmarks gemacht.
"Of our 106 benchmark runs"
 
Zuletzt bearbeitet:
Im Prinzip ist die Eingabevögerung eines Monitors die Zeit zwischen Signaleingang->Verarbeitung->Signalausgang.
Was die meisten noch dazu rechnen, ist die Bildwiederholrate und/oder die Reaktionszeit.
Was die Verabeitungszeit alleine schon länger werden lässt, ist die Anpassung der Bildwiederholrate.
Warum eigentlich Eingabelag und nicht Eingabeverzögerung oder Inputlag, eine Sprache reicht doch.
 
Ich zitiere es dir gerne nochmal, da sind exakt 3 Links, nicht einer mit 5 Tests. Dass sind zusammen wohl eher an die 50 Games...."

Ja das stimmt, trotzdem sehe ich absolut nicht wieso du unbedingt immer dieses Korrektiv einbringen musst wenn jemand GTX 1070 und Vega 56 auf Augenhöhe sieht, das ist nunmal das PCGH Ergebnis.
Vielleicht mag die 56er tendenziell in AAA Titeln im Schnitt 5% schneller sein, okay.
Aver wenn du mal abseits der AAA Titel etwas bencht, dann korrigiert sich das sowieso, dort ist Nvidia nämlich zumeist deutlich unproblematischer.
Ich würde jederzeit eine GTX 1070 einer Vega56 vorziehen, da kann bei der 56er noch soviel Potenzial ungenutzt bleiben. Wenn jemand wie ich ich zu Anfangs PUBG, Conan Exiles oder Rust gespielt hat, und auch noch ARK Survival Evolved gezockt hat, war AMD einfach nicht in der näheren Auswahl.
Und das ist unter Garantie noch Jahre so. Der schlechte Treiber und der fehlende Support hängt AMD einfach immer noch nach.
 
Der Monitor kann laut LG Freesync über Display Port von 55-75Hz/fps. Nicht so pralle, wenn du mich fragst, die wirklich niedrigen fps-Bereiche sind überhaupt nicht abgedeckt.
 
Der Monitor kann laut LG Freesync über Display Port von 55-75Hz/fps. Nicht so pralle, wenn du mich fragst, die wirklich niedrigen fps-Bereiche sind überhaupt nicht abgedeckt.

Meiner Erfahrung nach können LG-Monitore mit dieser Range mit mindestens 36-80 Hz gefahren werden, meist noch mehr (zwei von drei LG mit dieser zu Beginn üblichen Range, die ich kenne, gehen mittels CRU von 28 bis 84Hz, habe das nicht nur einmal gemacht – und ja, auch auf diesen funktioniert dann Framedoubling).

Im Prinzip ist die Eingabevögerung eines Monitors die Zeit zwischen Signaleingang->Verarbeitung->Signalausgang.
Was die meisten noch dazu rechnen, ist die Bildwiederholrate und/oder die Reaktionszeit.
Was die Verabeitungszeit alleine schon länger werden lässt, ist die Anpassung der Bildwiederholrate.
Warum eigentlich Eingabelag und nicht Eingabeverzögerung oder Inputlag, eine Sprache reicht doch.

Im beschriebenen Falle habe ich Dir nun mal aber aufgezeigt, daß durch die Anpassung der Framerate adaptive Sync auch in Vorteil geraten kann, Teile des Bildes betreffend. Was machst Du hier mit Deiner Definition? Sie schlägt fehl, denn der eigentliche Startzeitpunkt ist der, zu dem die Information über den Bildinhalt in den Grafikkartenspeicher geschrieben wurde, nicht der, zu dem sie von der Grafikkarte an den Monitor ausgegeben wurde.

Du scheinst FreeSync für dich neu erfunden zu haben.... :fresse:
Lese und lerne: AMD Freesync gegen Nvidia G-Sync im Test: Womit spielt es sich besser?

Sag' mal willst Du mich verohnepiepeln? Du kommst hier mit einem Artikel aus einer Zeit, wo FreeSync gerade ein paar Tage da war und Dinge wie Enhanced Sync und Co noch nicht einmal vorab besprochen wurden, weil sie schlicht nicht existierten. Hast Du überhaupt verstanden, worum es hier geht? :(
 
Habe da was von diesem Monat mal gefunden: FreeSync 2 Explained - TechSpot
Ja es werden mehr Funktionen für die zweite Version ausgesagt, aber nichts von dem was du zuvor beschrieben hast, die Neuerungen beziehen sich auf anderem Gebiet.

Aber da ich Freesync nicht habe und auch nicht 100% kenne möchte ich mich auch nicht zu sehr aus dem Fenster lehnen.
Mir ging es eher darum das zuvor behauptet wurde das die Grafikkarte mit Freesync Leistung verliert, mehr FPS erzeugt und ob es darüber keine Tearing entstehen habe ich bisher nur von dir gelesen.
Nirgendwo habe ich noch so was in der Art gelesen, im Gegenteil manche Foren Themen wo Leute Hilfe suchen wenn Freesync verwendet wird sagen was ganz anderes aus.
 
Zuletzt bearbeitet von einem Moderator:
Ich ersetze Dir jetzt bestimmt nicht mit ein paar Forenbeiträgen das hier notwendige Grundverständnis, kannste knicken, habe ich nicht die Zeit für, wenn Du da oben schon so 2015 einsteigst wäre das womöglich auch verschenkt, weil Du Dich ja vielleicht einfach nur doof stellst.

Setze Dich mit meinem Beitrag oben auseinander, wenn Du glaubst, daß Du die grundlegende Arbeitsweise der Technik verstanden hast. Wenn dem nämlich so ist, wirst Du auch meinen Beitrag oben ganz von selbst begreifen, und auch erfassen, warum das so ist. Da steht alles drin.
 
Zurück