ATI oder NVIDIA? FreeSync-Monitor ein Kaufkriterium?

kaineanung

Komplett-PC-Aufrüster(in)
Hallo Leute,

ich bin gerade dabei mir einen neuen PC anzuschaffen.
Einen Monitor habe ich bereits vorletztes Jahr gekauft gehabt weil ich dringend einen neuen gebraucht habe da der alte Monitor kaputt gegangen ist. Das Angebot war unschlagbar für einen curved 32" 3440x1440 Ultra-Wide-Monitor von LG der jedoch FreeSync kann und kein GSync. Damals habe ich mir fest vorgenommen eine ATI zu kaufen beim nächsten PC wenn die vergleichbare Leistungen bringen sollten (bisher war ich ausschließlich NVIDIA-Besitzer).

Nun ist es wahrscheinlich soweit und ich vergleiche die Grafikkarten miteinander. Zuerst war mein Limit 300 EUR, dann 400 EUR und jetzt schwanke ich zwischen einer 1070 Ti, 1080 oder Vega 56.
In Testberichten liegen beide NVIDIAS klar vor der ATI, vom Preis schenken die sich nicht viel.
Ohne meinen Monitor wäre die Entscheidung viel klarer pro NVIDA. Mit einem FreeSync-Monitor ist die Sache aber deutlich komplizierter. Wären die GraKas 200 EUR würde ich die ATI kaufen und es drauf ankommen lassen. Bei den hohen Preisen sollte man sich aber absolut sicher sein was man denn nun kaufen sollte.

So, meine Frage ist jetzt: Ist das FreeSync ein entscheidendes Kaufkriterium für eine ATI oder merkt man diese Technik kaum im Alltag?
Oder anders gefragt: lieber FreeSync und dafür teilweise 15 % weniger Leistung mit einer VEGA 56 oder kein Sync und dafür eine GTX 1080?
 
Wie wichtig dir Freesync ist kann dir niemand beantworten.
Ich persönlich sehe es nur als Bonus. Heißt, ich würde niemals 150€ extra für ein gsync Modell bezahlen und mich dadurch zwangsläufig an Nvidia ketten (sonst wäre der Aufpreis für gsync ja für die Katz), sondern gehe mit Freesync und freue mich, wenn ich es mit einer passenden AMD Karte paaren kann.
Ist momentan leider nicht der Fall, aber verloren habe ich dadurch auch nichts.
Ausprobiert habe ich es zwar schon und ich fand es wirklich ganz angenehm, aber für mich kein Must Have. Zumindest nicht bei 144Hz und ausreichend hohen Bildraten.
Das ist aber natürlich ein sehr subjektiver Eindruck und auf einem 60Hz Monitor fällt das Thema Tearing wieder wesentlich stärker ins Gewicht.

Die RX Vega 56 ist zwar im Vergleich zu Nvidia Pendants aktuell um ca 150 Euro überteuert, aber da du den Monitor schon hast und Gsync Module ziemlich genau den gleichen Aufpreis abrufen läufst du hier im Endeffekt wieder pari.
Zumindest wenn dir Freesync die 150 Euro wert sind.
Im Zweifelsfall hilft es halt nur aus beiden lagern zu bestellen und zu entscheiden was dir wichtiger ist. Mehr FPS, gespartes Geld oder Freesync.
 
Ist eine schwierige Frage weils rein subjektiv ist. Ich persönlich möchte nie mehr G-Sync missen, weil ich in 4K 60Hz spiele und es in dieser fordernden Auflösung einfach einen, für mich, brachialen Unterschied macht in AAA Spielen. Vor allem dann wenn man bereit ist Frames für höhere Einstellungen aufzugeben.

Wenn du allerdings 144Hz hast ist Freesync oder G-Sync vielleicht eher ein Bonus, so fern du Spiele in WQHD zockst bei denen deine GPU über 120 FPS konstant kommt. Bei Spielen wo es Frameeinbrüche gibt ist Freesync dann schon wieder sinnvoll, sofern du in der Freesync Range bist.

Persönlich muss ich aber sagen, würde es mir auf das Preis / Leistungsverhältnis der GPU ankommen, wenn du beispielsweise eine GTX1080Ti für 50-70 Euro mehr als ne VEGA64 bekommen kannst, würde ich eher die stärkere GPU kaufen und auf Freesync erstmal verzichten.
 
Schau einfach welche Spiele du spielst auf welcher Karte besser läuft. Allgemein würde ich sagen das die kleine Vega und die 1070 auf einem Niveau sind.
 
Schau einfach welche Spiele du spielst auf welcher Karte besser läuft. Allgemein würde ich sagen das die kleine Vega und die 1070 auf einem Niveau sind.

Die 56er Vega ist als Costum auf 1070ti Costum Niveau. Eine 1070er ist eigentlich immer langsamer.
Die Preise sind aktuell aber immer noch abartig hoch für die Vegas.
 
Die 56er Vega ist als Costum auf 1070ti Costum Niveau. Eine 1070er ist eigentlich immer langsamer.
Die Preise sind aktuell aber immer noch abartig hoch für die Vegas.

Eigentlich sind 1070 und Vega56 auf Augenhöhe... beide gibts als Customs und der PCGH Spieleindex spiegelt auch wieder dass die 1070Ti overall schon ein Stück schneller ist als ne VEGA 56.

Grafikkarten-Rangliste 2018: Radeon- und Geforce-GPUs im Benchmarkvergleich - Teil 2

OC kann man bei beiden Karten betreiben.
 
Freesync ist schon klasse, wenn man fps innerhalb der Range hat. Wie ist die denn bei deinem Monitor bzw. um welches Modell handelt es sich genau?
 
Ist glaube ich sehr subjektiv. Ich habe gehört, FreeSync soll total toll sein, aber im Endeffekt kann ich keinen großen Unterschied zwischen meinem 11 Jahre alten WUXGA 60 Hz TN-Panel und meinem wenige Monate alten Ultrawide 75 Hz IPS-Panel mit FreeSync erkennen.
Vielleicht nutze ich die falsche Software, achte nicht so darauf, oder bin halt blind (okay, das stimmt sogar teilweise ^^).
 
Freesync ist schon klasse, wenn man fps innerhalb der Range hat. Wie ist die denn bei deinem Monitor bzw. um welches Modell handelt es sich genau?

Ich sehe gerade, ich habe ja einen 34" und nicht einen 32" wie ich fälschlicherweise behauptet hatte. Habe nun auch meine Signatur angepasst. Sorry dafür.
Also, der Monitor ist ein

LG 34UC88-B34", 21:9 Format, curved (sehr stark sogar -> ist echt toll), IPS-Panel, 3440 x 1440 Pixel bei 75 Hz (subjektiv -> gestochen scharf), viele Anschlussmöglichkeiten, usw..
Und damals schon ein guter Preis für ca. 800 EUR. Jetzt, nach 2 Jahren kostet er immer noch zwischen 700 EUR und 810 EUR (Google Shopping gerade eben befragt).
Also denke ich der Monitor ist doch echt gut und es wäre schade wenn ich diesen nicht endlich mal auch in 3D-Spielen nutzen könnte (bisher war meine GTX 570 etwas zu schwach...;))

Die Frage ist nur: lieber eine bessere GraKa ohne FreeSync (das sagen mir nicht nur die Testberichte sondern auch mein Bauchgefühl) oder eine schlechtere GraKa bei gleichem Preis und dafür mit FreeSync?
Die Fragen habt ihr hier ja eigentlich auch schon beantwortet.

Ich warte lediglich noch auf den 'Konsens' damit sich mein Bauchgefühl auch bestätigt.... dennoch, ich hätte schon gerne beides. FreeSync und eine GTX 1080 (vielleicht wird es auch nur die 1070Ti)...
 
Ist glaube ich sehr subjektiv. Ich habe gehört, FreeSync soll total toll sein, aber im Endeffekt kann ich keinen großen Unterschied zwischen meinem 11 Jahre alten WUXGA 60 Hz TN-Panel und meinem wenige Monate alten Ultrawide 75 Hz IPS-Panel mit FreeSync erkennen.
Vielleicht nutze ich die falsche Software, achte nicht so darauf, oder bin halt blind (okay, das stimmt sogar teilweise ^^).

Genau auf so eine Antwort, von jemandem der aus Erfahrung spricht, hatte ich hier gehofft!
Vielen Dank! FreeSync ist ein kleines Boni das man gerne mitnimmt wenn alles andere stimmt. Aber man sollte lieber auf die anderen, wichtigeren, Dinge den Schwerpunkt legen.... richtig?
 
Also ich "kann" ohne Freesync nur noch mit hohen fps zocken. Oder vielleicht noch am TV mit entsprechender Distanz.:ka:
 
Dann nimm die GPU, die dir die meiste Leistung für dein Geld bietet. FreeSync ist ganz nett, aber kein Zwang (meine Meinung). Übrigens: Mein Monitor ist auch ein Ultrawide von LG. Klasse Panel :D
 
Ich nutze nun schon geraume Zeit FreeSync zwischen 32Hz und 84Hz und habe zum Vergleich noch einen herkömmlichen 120Hz-Monitor. Auch abseits vom niedrigeren Eingabelag und von Tearing betrachtet bringt mir FreeSync mehr gefühlte FPS, als der Schritt von 1920x1080 auf 2560*1080 und von 120Hz auf 84Hz kostet.

Alles in allem fühlt sich der FreeSync-Monitor insbesondere bei niedrigen FPS immer noch klar besser (schneller) an, obwohl er deutlich mehr stemmen muss.

Aber um das direkter auf dem selben Monitor vergleichbar zu machen habe ich mal etwas probiert, man kann FreeSync ja im Treiber abschalten:

GTA5, ein Spiel, das AMD nicht so toll liegt, insbesondere die minFPS betreffend, fühlt sich in der Tat mit FreeSync und 1,25-fachem Downsampling etwa so an wie ohne FreeSync und ohne Downsampling. Also auf dem gleichen Monitor mit gleichen Settings und im Durchschnitt. Aber in engen Situationen, bei Drops unter 40FPS, da fühlt sich trotz Downsampling der Monitor mit FreeSync immer noch eine Spur besser an als ohne, nicht nur etwa gleich.

FreeSync-Magic ist meines Erachtens also ein deutliches Kaufargument Richtung AMD, insbesondere wenn es sich um einen Monitor mit anständiger FreeSync-Range handelt. Da muss man bei Nvidia schlicht doch so einige FPS und somit $ zusätzlich einplanen.

Beispiel: Dank passablem FreeSync-Monitor würde ich meine RX480 mittlerweile nicht nur nicht mit einer 1060 tauschen wollen, sondern auch nicht mit einer gewöhnlichen 1070.
 
Ich nutze nun schon geraume Zeit FreeSync zwischen 32Hz und 84Hz und habe zum Vergleich noch einen herkömmlichen 120Hz-Monitor. Auch abseits vom niedrigeren Eingabelag und von Tearing betrachtet bringt mir FreeSync mehr gefühlte FPS, als der Schritt von 1920x1080 auf 2560*1080 und von 120Hz auf 84Hz kostet.

Alles in allem fühlt sich der FreeSync-Monitor insbesondere bei niedrigen FPS immer noch klar besser (schneller) an, obwohl er deutlich mehr stemmen muss.

Aber um das direkter auf dem selben Monitor vergleichbar zu machen habe ich mal etwas probiert, man kann FreeSync ja im Treiber abschalten:

GTA5, ein Spiel, das AMD nicht so toll liegt, insbesondere die minFPS betreffend, fühlt sich in der Tat mit FreeSync und 1,25-fachem Downsampling etwa so an wie ohne FreeSync und ohne Downsampling. Also auf dem gleichen Monitor mit gleichen Settings und im Durchschnitt. Aber in engen Situationen, bei Drops unter 40FPS, da fühlt sich trotz Downsampling der Monitor mit FreeSync immer noch eine Spur besser an als ohne, nicht nur etwa gleich.

FreeSync-Magic ist meines Erachtens also ein deutliches Kaufargument Richtung AMD, insbesondere wenn es sich um einen Monitor mit anständiger FreeSync-Range handelt. Da muss man bei Nvidia schlicht doch so einige FPS und somit $ zusätzlich einplanen.

Beispiel: Dank passablem FreeSync-Monitor würde ich meine RX480 mittlerweile nicht nur nicht mit einer 1060 tauschen wollen, sondern auch nicht mit einer gewöhnlichen 1070.

Und da sind sie wieder meine Probleme..... :wall:

Menno, was soll ich nur machen? Vega56 kostet einfach viel zu viel und bring weniger Leistung als die günstigere GTX 1080 und sogar weniger als die noch günstigere GTX1070Ti.....
Verkaufen die ihre Karten so gut daß die Nachfrage es erlaubt den Preis so hoch zu halten?? Wer kauft sich die wenn sie so teuer sind und weniger Leistung bringen?
Ich werde, wie alle Jahre wieder, noch Kopfschmerzen wegen dem Thema GraKa bekommen..... GRRR...
 
Eigentlich sind 1070 und Vega56 auf Augenhöhe... beide gibts als Customs und der PCGH Spieleindex spiegelt auch wieder dass die 1070Ti overall schon ein Stück schneller ist als ne VEGA 56.

Grafikkarten-Rangliste 2018: Radeon- und Geforce-GPUs im Benchmarkvergleich - Teil 2

OC kann man bei beiden Karten betreiben.

Ich habe auch nichts von OC erwähnt, sondern rede von Out of the Box.
Der PCGH Index bezieht sich ja lediglich auf die Referenzdesigns. Die 56er Vega hebt sich in den Costumvarianten aber überproportional vom Referenzwert ab und erreicht fast schon die 64er Leistung.
Gaming Performance: 2560 x 1440 Pixel (WQHD) - Asus ROG GeForce GTX 1070 Ti Strix Gaming 8G im Test
Direkter Vergleich:
https://babeltechreviews.com/the-gi...ersus-the-red-devil-rx-vega-56-with-36-games/

PowerColor Red Devil Vega 56 8GB review - Final words and conclusion

Zitat: "he card is more or less only a notch slower than the 64 (air-cooled model) yet cheaper. Meanwhile, the 56 passes the GeForce GTX 1070 and really is not that far off the GeForce GTX 1080. That depends on a little per game and rendering API /DX11/DX12/Vulkan. I can see most AIB partner boards being clocked a notch (50 MHz) higher, gaining a bit in perf. Trivial, however, will remain to be the dynamic boost marker. As stated, the Vega 56 does perform nicely with 2017 games and does position itself in a very competitive performance bracket as it feels right on many levels. I mean the GeForce GTX 1070 Ti was released simply to block the Vega 64. We had pretty much no issues and combined with the new Adrenalin driver you now have a nice overlay and smartphone link to the graphics card as well. "
 
Probleme haben manche.... :lol:

Ich nutze mit meinem UWQHD in 34 Zoll und G-Sync nur eine 1070er Grafikkarte.
Die Spiele setze ich immer auf das Maximum und in ganz einzelne Fälle eine Stufe niedriger ein.
Natürlich könnte man jetzt auch alle Untermenüs ganz hoch stellen und die Skalierungen auf volle Pulle, aber dann würde auch eine Vega, 1080Ti oder Titan schlapp machen.

Am ende finde ich den Unterschied eher nicht mehr so groß, was ggf. auch jeder anderes sehen wird.
Im Schnitt liege ich mit meiner Grafikkarte zwischen 100-120 FPS und sollte ich runter auf 60 FPS fallen was selten ist, wäre es auch nicht schlimm.
Zumindest komme ich für meine Verhältnisse mit meiner Grafikkarte sehr gut aus so das ich mir keine größere Grafikkarte kaufen werde!

FreeSync oder G-Sync verschafft keine mehr FPS, es kostet auch keine FPS, denn die Funktion liegt nur darin die Hz des Monitors immer an die zur Zeit bestehenden FPS synchron zu halten.
In meinem Fall läuft G-Sync nur zwischen 30 und 120 Hz, da mein Monitor nur max. 120 Hz kann. Darüber würde es Tearing entstehen, da diese Synchronhelfer keine FPS beschränken. Hier muss eigenständig entweder weiterhin V-Sync verwendet werden oder ein FPS-Limit.

Ich bin mit G-Sync sehr zufrieden und bei mir läuft soweit auch alles sehr gut.
Wenn die Grafikkarte weniger FPS erzeugt hat es nichts mit der Synchronisierung sondern was mit der höheren Auflösung zu tun.

Bin selbst von FullHD ohne G-Sync auf meinem neuen UWQHD vor ein paar Wochen gewechselt und konnte gut sehen wie meine Grafikkarte damit auskommt.
Muss aber sagen das mein alter Eizo ohne G-Sync mit120 Hz auch gut lief und ich diese Synchronisationshilfe nicht zwingend brauchte. Bei meinem neuen stand es auf meiner Wunschliste auch nicht an erster Stelle, mir war 1440P, Ultrawide Panel mit 21:9 und IPS bzw. VA wichtiger. Natürlich wollte ich in der Preisklasse was meiner gekostet hat auch dann G-Sync dabei haben.

Hier noch ein Video von mir worin G-Sync mit den FPS zu sehen sind.
Die große Anzeige als FPS sind die Hz des Monitors(am Monitor zuschaltbar...) die als FPS bezeichnet werden.
Das Spiel hat in der Ecke dann noch die FPS.

Das Video ist etwas verwackelt, da ich das ganze mit nur zwei Hände versucht habe... :D
Im ersten Teil übersteigen die FPS die Hz, im zweitem Teil wo ich den Helden tausche stellte ich V-Sync ein, damit die FPS nicht mehr über 120 Hz gehen.
Mittlerweile habe ich es aber ohne V-Sync am laufen, da in diesem Spiel auch die FPS limitiert werden können.

Die Grundeinstellung im Spiel ist Episch.
Monitor läuft in einer Auflösung von 3440x1440 Pixel.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Möchte dir jetzt nichts einreden, denn am ende kommt es auf jeden selbst an und jeder wird da anders darüber urteilen oder denken.

PS... ATI gibt es heute nicht mehr, ist heute AMD.
Wobei ATI damals auch schon zu AMD gehörte... :)
 
Zuletzt bearbeitet von einem Moderator:
Probleme haben manche.... :lol:
[...]
In meinem Fall läuft G-Sync nur zwischen 30 und 120 Hz, da mein Monitor nur max. 120 Hz kann. Darüber würde es Tearing entstehen, da diese Synchronhelfer keine FPS beschränken. Hier muss eigenständig entweder weiterhin V-Sync verwendet werden oder ein FPS-Limit.
[...]
Im ersten Teil übersteigen die FPS die Hz, im zweitem Teil wo ich den Helden tausche stellte ich V-Sync ein, damit die FPS nicht mehr über 120 Hz gehen.
Mittlerweile habe ich es aber ohne V-Sync am laufen, da in diesem Spiel auch die FPS limitiert werden können.
[...]

Da Du von "diese Synchronhelfer" schreibst, scheinst Du FreeSync da mit Gsync in einen Topf zu werfen. Zu Beginn war das auch so, aber mittlerweile ist AMD da weiter als Nvidia:

Bei AMD musst Du keine FPS mehr beschränken oder Vsync nutzen, wenn Du es nicht willst.

Du hast auch oberhalb der FreeSync-Range ein Tearing-freies Bild, ohne Vsync einschalten oder FPS begrenzen zu müssen. Wenn Du möchtest, etwa wegen kleiner Eingabelag/Tick-Vorteile etwa bei competitivem Counterstrike oder einer Spur mehr Topspeed wegen glitchiger Physics-Engine in GTA-Rennen, oder warum auch immer:

Du kannst bei FreeSync problemlos mehr FPS berechnen als dargestellt werden wenn Du willst, ohne Begrenzer oder vSync, die Funktion nennt sich im Treiber enhanced Sync.

Und es geht dabei übrigens nicht nur um Tearing und Eingabelag. Tearing ist nur die augenfällige Situation, in der die Timingprobleme in einem Bild sichtbar werden, es ist aber nicht nur das Tearing weg, sondern auch die Timingprobleme selbst. Was damit gemeint ist?

Das ist etwas schwierig zu erklären, grundsätzlich geht es darum, daß die Bildgeometrie auch dann oft nicht ganz zum Darstellungszeitpunkt passt, wenn das Bild eben nicht durch Tearing zerreisst, lediglich die Objekte sind dann nicht ganz an der Stelle, wo das Auge sie zu dem Darstellungszeitpunkt erwartet. Die Fehlpositionierung, die im Tearing besonders auffällt, ist ja auch bei nicht zerissenem Bild noch da. Deshalb fühlen sich Gsync und FreeSync innerhalb der Ranges so viel "glatter" an. Sobald man da aber ohne enhanced Sync die Range "überschiesst", kommt zwar kein Tearing 'rein, aber ein gelegentliches Microstuttering, das empfindliche Naturen durchaus spüren – ich zum Beispiel.
 
Zuletzt bearbeitet:
Ja super.
Das heisst bei Nvidia Fastsync und gibt es schon ne ganze Weile.

Nach meinem Kenntniststand führt FastSync aber bei gleichzeitiger Gsync-Nutzung zu zusätzlichem Eingabelag im Unterschied zu enhanced Sync, deshalb nutzt das keiner bzw. kaum einer beim kompetitiven Spielen. Das ist meiner Wahrnehmung nach bei AMD nicht so (mit den ersten zwei, drei Enhanced-Sync-Treibern gab es auch bei AMD noch zusätzlichen Eingabelag in Kombination mit FreeSync+enhancedSync, mittlerweile ist das aber mindestens klar besser oder völlig abgestellt).
 
Jede Synchronisation führt zu einem erhöhten Inputlag.
Nur nimmt das jeder anders war.
 
Zurück