ATI oder NVIDIA? FreeSync-Monitor ein Kaufkriterium?

Brauche ich nicht, weil ich G-Sync habe und mich im Grunde Freesync auch nicht interessiert.
Da ich ehe Nvida bevorzuge wird es mich auch nie richtig interessieren.
 
Im beschriebenen Falle habe ich Dir nun mal aber aufgezeigt, daß durch die Anpassung der Framerate adaptive Sync auch in Vorteil geraten kann, Teile des Bildes betreffend. Was machst Du hier mit Deiner Definition? Sie schlägt fehl, denn der eigentliche Startzeitpunkt ist der, zu dem die Information über den Bildinhalt in den Grafikkartenspeicher geschrieben wurde, nicht der, zu dem sie von der Grafikkarte an den Monitor ausgegeben wurde.

Ich glaub du hast die Definition nicht ganz verstanden.
Für mich ist ist der Inputlag vom Monitor die reine Verarbeitungszeit zwischen Ein und Ausgabe.
 
(Strom, VSR<DSR, Treiber).

Inwiefern hat Nvidia den Vorteil beim Treiber? Ich sehe da beide gleich (bzw. find ich den AMD Treiber insofern besser tatsächlich, wegen den zusätzlichen Funktionen, wodurch ich keine Programme von Dritt-Anbieter brauche. Aber für Leute, die einfach nur ihre GPU reinstecken, ist das egal).

Ich persönlich würde zur Nvidia Karte greifen, da ich Freesync zwar super finde, aber ich würde keine 620€ ausgeben, wenn ich dieselbe Leistung für 150-200€ weniger bekomme. Das ist mir G-Sync nicht wert, also warum sollte es das andersrum sein?
 
Ich glaub du hast die Definition nicht ganz verstanden.
Für mich ist ist der Inputlag vom Monitor die reine Verarbeitungszeit zwischen Ein und Ausgabe.

An der Stelle muss ich mich nun wirklich fragen, ob ich lachen oder weinen soll.

Wir stehen am Bahnhof und diskutieren über die Ankunftszeit am Zielbahnhof. Du sagst, der Zug zur vollen Stunde braucht nur 100 Minuten, die S-Bahnen immer mindestens zwanzig Minuten mehr. Prinzipbedingt ist der Zug immer schneller als die S-Bahn. Ich sage, ja, das ist so, daß der Zug schneller als die S-Bahn ist, und ich sage auch ja, er hat die geringste Fahrtzeit – aber er fährt halt immer nur zur vollen Stunde, und daher ist er eben nicht prinzipbedingt immer die schnellste Möglichkeit, zum Zielbahnhof zu kommen, schau' mal auf die Uhr.

Verstanden?
 
Zuletzt bearbeitet:
Du hast immer noch nicht verstanden was ich gesagt habe.
Aber um es mal an deinem Beispiel zu verdeutlichen.
Ich stehe vor dem Zug und möchte einsteigen.
Also Tür auf wann ich will, rein und der Zug fährt los wann er will.
Heisst mein Teil ist abgeschlossen.
Das wäre ohne Synchronisation.
Sage ich aber dem Schaffner, dass der Zug sofort los muss, wäre das G/Freesync.
Bei Vsync hingegen, würde mir der Schaffner sagen wann ich einsteigen darf und er fährt wann er will.
Die kürzeste Zeit in dem mein Handeln abgeschlossen ist, wäre also ohne Synchronisation.

Oder ganz einfach gesagt, was ich schon die ganze Zeit sage, ich rede nur vom reinen Inputlag des Monitors.
Ohne Inputlag eines Eingabegerätes, ohne Verzögerung durch die refreshrate und ohne die Reaktionszeit der Pixel.
Nehme ich ich das dazu, hab ich natürlich einen ganz anderen Wert, der sich je nach Synchronisation und refreshrate verändert.
 
Es mag ja sein, daß Du nur davon redest. Allein, lies doch bitte nochmal das, was Du als "Wall of Text" abgetan hast. Dann merkst Du, daß Du völlig an mir und dem was ich gesagt habe vorbei redest. Ich habe ganz klar definiert, worum es hier geht.
 
Ich glaub du hast die Definition nicht ganz verstanden.
Für mich ist ist der Inputlag vom Monitor die reine Verarbeitungszeit zwischen Ein und Ausgabe.
Ändert aber nichts daran, dass man mit Adaptive-Sync (speziell FreeSync) keine Zeit mehr braucht zwichen Ein und komplett erfolgter Ausagbe im bezug zu Vsync off.
Vielmehr wird die Latenz eher noch verringert, es kommt eben darauf an wie (wo) man misst.
Bei Adaptive-Sync geht es halt deultich weinger um Synchronisation , sondern mehr um anpassung diese Synchronisation zu vermeiden.
 
Inwiefern hat Nvidia den Vorteil beim Treiber? Ich sehe da beide gleich (bzw. find ich den AMD Treiber insofern besser tatsächlich, wegen den zusätzlichen Funktionen, wodurch ich keine Programme von Dritt-Anbieter brauche.

AMD hat eine recht schwankende Gamingleistung, grade für die alten Karten Fiji/Hawai scheint treiberseitig wenig getan zu werden, die fallen immer weiter ab und laufen beispielsweise in Conan Exiles extrem früh in ein CPU Limit.
Ansonsten halt die schwankende Leistung in early access Titeln oder in Titeln abseits von den Großen. Sich den Afterburner runterzuladen, stellt keinen Aufwand dar, ich sehe es sogar eher als Vorteil, denn Nvidia liefert Afterburner Support, während AMD da nicht wirklich was dafür tut.
 
Zuletzt bearbeitet:
AMD hat eine recht schwankende Gamingleistung, grade für die alten Karten Fiji/Hawai scheint treiberseitig wenig getan zu werden, die fallen immer weiter ab und laufen beispielsweise in Conan Exiles extrem früh in ein CPU Limit.
Ansonsten halt die schwankende Leistung in early access Titeln oder in Titeln abseits von den Großen. Sich den Afterburner runterzuladen, stellt keinen Aufwand dar, ich sehe es sogar eher als Vorteil, denn Nvidia liefert Afterburner Support, während AMD da nicht wirklich was dafür tut.


Aber für Leute, die einfach nur ihre GPU reinstecken, ist das egal).

Ich persönlich würde zur Nvidia Karte greifen, da ich Freesync zwar super finde, aber ich würde keine 620€ ausgeben, wenn ich dieselbe Leistung für 150-200€ weniger bekomme. Das ist mir G-Sync nicht wert, also warum sollte es das andersrum sein?
[/QUOTE]

Wenn auch vermehrt Early Access Titel gefragt sind, dann ist auch eher zu Nvidia zu greifen - gerade ältere AMD GPUs haben eben bei solchen Spielen, wo man schnell im CPU Limit landet, massive Probleme. Hat aber weniger mit den Treiber zu tun bzw. mehr mit den Architekturen. Polaris war da der erste Schritt zur Verbesserung, Vega hat in der Hinsicht ja auch einen weiteren Schritt gemacht, zumindest sah das so aus beim CPU Benchmark von PCGH bei PUBG. Es gab dann halt hier und da anscheinend Ausreißer, dass man sah, dass sich bei Vega da mehr tut. Aber Nvidia ist da mit den angepassten Treiber nach wie vor an der Spitze.

Ich seh es bei AMD als leichten Vorteil, eine moderne Treiber Oberfläche zu haben - es ist aber mehr ein "nice-to-have". Ich würde deswegen niemanden zu einer Vega deswegen raten oder zu einer RX 580, wenn vermehrt WoW oder Early Access Titel gespielt werden sollen.


Deswegen meine Empfehlung hier im Thread: Nimm die stärkste GPU, die du für dein Geld kriegen kannst, was ja hier ja somit die 1080 sein sollte. Freesync ist ein "nice-to-have" Feature, aber deswegen zur teueren und langsameren Karte zu greifen, kann ich nicht empfehlen.
 
Ändert aber nichts daran, dass man mit Adaptive-Sync (speziell FreeSync) keine Zeit mehr braucht zwichen Ein und komplett erfolgter Ausagbe im bezug zu Vsync off.
Vielmehr wird die Latenz eher noch verringert, es kommt eben darauf an wie (wo) man misst.
Bei Adaptive-Sync geht es halt deultich weinger um Synchronisation , sondern mehr um anpassung diese Synchronisation zu vermeiden.
Also ist die Verarbeitung des Eingangsignals und das anpassen der Bildwiederholrate schneller, als wenn der Monitor nach der Verarbeitung einfach das neue Bild in den Refresh rein haut und somit tearing verursacht?
 
Also ist die Verarbeitung des Eingangsignals und das anpassen der Bildwiederholrate schneller, als wenn der Monitor nach der Verarbeitung einfach das neue Bild in den Refresh rein haut und somit tearing verursacht?
Für FreeSync gibt es keine spezielle "Verarbeitung des Eingangsignals", sofern man in der Range ist.
Deweitern kommt es halt wieder darauf an was du denn messen willst.
Ich sage es mal so, ob tearing oder nicht, wenn "beide" ein komplettes Bild ausgeben (also auch wiklich zB 1080 Zeilen), dann hat FreeSync vorteile.
 
Nein, die Grafikkarte muss dem Monitor keine Informationen darüber geben, wie er sich anpassen muss.:schief:
 
Richtig, so langsam scheinst du es ja zu verstehen. :P
AMD schrieb:
...Der letzte Vorteil ist besonders für Gamer unerlässlich. Denn bei der Radeon FreeSync™ Technologie muss keine Abfrage an den Bildschirm gesendet oder eine Antwort abgewartet werden, um bestimmen zu können, wann das nächste Frame an den Monitor gesendet werden kann.
 
Du hast da wohl was falsch verstanden.
Da steht nicht, dass der Monitor keine Informationen kriegt und sich nicht anpassen muss.
Da steht, dass die Grafikkarte keine Rückmeldung braucht.
 
Wenn die Grafikkarte bzw Treiber dem Monitor nicht mitteilt was er zu tun hat, woher soll er das dann wissen?
Natürlich muss dem Monitor das mitgeteilt werden, sonst kann er sich ja nicht anpassen.
 
Wenn die Grafikkarte bzw Treiber dem Monitor nicht mitteilt was er zu tun hat, woher soll er das dann wissen?
Natürlich muss dem Monitor das mitgeteilt werden, sonst kann er sich ja nicht anpassen.
Rufst du jemandem an um ihm mitzuteilen , dass du ihn gleich anrufen möchtest? Oder woher soll der Angerufene denn wissen, dass er gleich angerufen wird?
 
Du willst es nicht verstehen oder?
Aber um in deinem Beispiel zu bleiben.
Wenn du jemanden anrufst und ihm sagst, dass er irgendwo hingehen soll, dann macht er das so schnell wie er will.
Rufst du ihn aber an und sagst ihm, er soll irgendwo hingehen und dabei eine bestimmte Geschwindigkeit einhalten, dann macht das einen Unterschied.
 
Zurück