• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Eure Erfahrung oder Fachwissen zu dem Vegleich von RX 64 und 1080 ti

MickHH

PC-Selbstbauer(in)
Moin, in einem Test der PCGH, wurde versucht die beste Grafikkarte für den Ryzen zu finden. Klar ist, das auf dem Papier bis auf eine Ausnahmeüberraschung die 1080 ti "gewonnen" hat.

Nun ist aber die Frage, wie wirkt sich das auf den Bildschirm aus bzw. auf das was das menschliche Auge dann sieht, ist die Grafik dann bei der 1080 ti sichtbar "schöner, besser und flüssiger.
Und in wie fern kann dann zb. Freesync 2 dieses weniger an Leistung und FPS gegenüber der 1080 ti verbessern oder so angleichen, das praktisch keine Unterschiede zu sehen sind. Geht das überhaupt??

Klar ist, das die 1080 ti über allem steht. Dennoch frage ich mich, ob diese wirklich notwendig ist, wenn es möglich weise rein optisch gar nicht mehr und noch besser als schon "Das Beste" geht.. Gibt es möglicherweise eine FPS Zahl oder Grafik die unser Auge und Gehirn nicht weiter und mehr wie besser als..............- wahr nimmt???
Sind das dann nur noch gemessene Werte auf dem Papier???

Was kommt nach 4 K das wir als noch schöner,schneller und besser wahrnehmen können???

Die Fragen beziehen u.a. auf diesen Artikel.


DER Artikel : GTX 1080 Ti oder Radeon RX Vega 64: Die beste Grafikkarte fur Ryzen
 
F

FortuneHunter

Guest
Von der Darstellung sind beide Karten gleich. Die Geschwindigkeit und der Grafikspeicher sind der einzige Unterschied, wirken sich aber je nach Einstellungen im Spiel oder dem Spiel selbst unterschiedlich aus.

Geschwindigkeit: Die Wahrnehmung von FPS ist sehr subjektiv und von Mensch zu Mensch unterschiedlich. Manche "brauchen" unbedingt FPS über 100 um etwas als flüssig wahrzunehmen. Alles darunter ist für sie ein Ruckeln. Andere haben auch mir 30 FPS keine Probleme und nehmen diese nicht als Ruckeln war, wenn diese konstant geliefert werden. Eine Obergrenze gibt es nicht. Es gibt kompetative Spieler, die eine sehr hohe FPS-Zahl benötigen um präzise Zielen zu können. Je geringer der Unterschied zwischen angezeigten und berechneten Bild ist um so größer ist die Chance das du auch triffst. Deswegen sind geringe FPS in Shootern bei den es auf Präzision ankommt eher schlecht.
Hier kommt es auch immer auf das Eingabegerät an. Mit der Maus bist du schneller beim zielen. Du bewegst das Fadenkreuz direkt auf das Ziel, wärend du es mit einem Controller eher nachführst. Bei der direkten Ansteuerung ist es von größerer Bedeutung, dass sich dein Ziel beim schießen auch noch immer an der Stelle befindet, auf die du schießt. Insbesondere auf große Entfernung und kleinem Ziel kann es ansonsten passieren, dass du danebenschießt obwohl das dargestellte Bild dein Ziel immer noch unter dem Fadenkreuz anzeigt.
Je niedriger die FPS um so größer die Chance, dass das Ziel eben nicht mehr da ist.

Die GTX1080Ti steht nur im Moment "über allen". Für das von dir angesprochene 4K-Gaming reicht sie aber nicht immer aus um die volle Grafikpracht in den von vielen Spielern als spielbar definierten 60 FPS darzustellen.

Freesync und auch GSync helfen dabei das Bild flüssiger erscheinen zu lassen. Die dargestellten FPS verändern sich ständig. Ohne eine Begrenzung springen die dargestellten FPS laufend von einem Wert zum anderen, was in der Darstellung zu Tearing (zerreißen den Bildes) und ähnliche Effekten führt:

unbenannt-jpg.1003001



Nun gibt es Begrenzer wie VSYNC zum Beispiel, die dafür sorgen, dass die Grafikkarte nur immer dann ein Bild ausgibt, wenn der Monitor bereit ist. Die FPS springen dann immer noch zwischen der Obergrenze und den nächsten Teilern hin und her. Dieses Springen wird viel stärker als Ruckeln wahrgenommen, als das normale freie hin und herspringen vermeidet aber ein zerreißen des Bildes
Bei Freesync und GSync ist es umgekehrt. Der Monitor wird an die Grafikkarte angepasst. Gibt die Grafikkarte ein Bild aus wird dieses direkt dargestellt. Das führt zu einem flüssigen Bild, dass nicht von Tearing betroffen ist und als flüssig wahrgenommen wird. Allerdings wirkt das Verfahren nur im jeweils vom Monitor unterstützten FPS-Bereich. Oberhalb dieses Freqenzbereichs kommt es wieder zu Tearing. Das kann man mittels Begrenzer (Framelimiter oder VSYNC das nur die Framerate nach oben begrenzt) umgehen. Verliert aber an Präzision. Weswegend kompetative Spieler darauf verzichten.

Grafikspeicher: Je höher die Auflösung ist die du benutzt um so mehr VRAM benötigst du. Wenn die VRAM-Auslastung den vorhandenen Grafikspeicher überschreitet, dann müssen Teile des Bildes in weniger schnellen Speicher ausgelagert werden, was zu wahrnehmbaren Ruckeln führt.

Nach 4K kommen 8K, 16K was aber noch lange Zukunftsmusik ist ... Wenn man ehrlich ist reichen die aktuellen Grafikkarten nicht mal für 4K ohne Kompromisse bei den Einstellungen der Spiele eingehen zu müssen.

Es kommt immer drauf an wie kompromissbereit man selbst ist und ob man das letzte Quentchen Optik (das im Zweifel nur auf Screenshots wahrnehmbar ist) unbedingt benötigt.

Der nächste Schritt in Sachen Darstellung ist die Erhöhung der Hz der 4K-Monitore. Willst du diese Ausnutzen benötigst du in Zukunft wesentlich schnellere Grafikkarten. Um beispielsweise 144 FPS in WQHD zu erreichen benötigst du genauso eine GTX 1080 Ti wie für die 60 FPS-Darstellung in 4K bei gleichen Grafikeinstellungen.
 

Anhänge

  • Unbenannt.JPG
    Unbenannt.JPG
    257,3 KB · Aufrufe: 232

Prozessorarchitektur

Lötkolbengott/-göttin
Wie soll den graifk besser aussehen
Die gx1080ti ist nur schneller
Was sync angeht nun zuerst bist empfindlich für tearing (Das sieht nicht jeder)
dann vermeiden lässt sich tearing ohne vsync oder gsync freesync nicht das ist technisch bedingt
Aber man kann den effekt so gut wie ganz vermeiden
das zauberwort ist gleichmäßige FPS dabei spielt die Höhe keine rolle
Bsp
hast nen Spiel das mit deiner cpu und der gpu min 45fps schafft und max 100fps dann gibt das üble tearings und teils slowdown effekte
limitiert man die fps auf sagen wir mal max60fps verschwinden slowdowns und das tearing ist gering gis nicht vorhanden
regel ist etwa max 15% variable fps kein tearing abhängig von Monitor refreshrate
Das bsp gilt für 60hz bildschirme
Da kommt in jeder sekunde 60 Bilder zu je 16,6ms sind die fps über diesen wert also 80 somit 12,5ms ist kein tearing vorhanden wenn aber nach den 80 aufeinmal 45 sind also 22,2ms ergibt sich dann 22,2-12,5=10,2ms die auf den nächsten frame addiert werden als 16,6+10,20= 26,8 und ein Zerreißen des Bildes
Die 16,6ms sind fix weil Monitor diese ausgibt je höher Monitor HZ desto geringer der wert
Somit wird es mit einen 144 hz(6,9ms) display tearing schlimmer je mehr Distanz zwischen den fps gibt

Nun Ob vega64 oder gtx1080ti nach leistung klar die ti nach freesync eher die vega64
ich würde nach vorhandene Monitor und preis ausgehen
Für 60 75 reicht eine gtx1060 aus bzw gtx1080 ab 100hz 144hz Bildschirme ist die 1080ti besser
Allerdings ab 1440p darunter spielt die cpu nicht mit (nur mit hoch OC cpu möglich auszulasten etwa einen cfl 4,7ghz allcore)
vega64 ist klar die Leistungsklasse zwischen gtx1070 und 80, abhängig von der Auslastung der gpu
Ein generelles Problem der amd GCN Architektur hier hilft nur max OC CPu weiter (ab 5ghz cfl) dann zieht die vega64 mit der gtx1080 gleich
 

Kuomo

Software-Overclocker(in)
Die 1080ti ist fast immer schneller, d.h. sie hat mehr Leistung die man in mehr FPS, mehr Pixel, oder mehr Details stecken kann. Insofern kann man sagen die 1080ti ist besser. Ob du das dann mit deinen Augen auf deinem Bildschirm in deinen Spielen auch siehst, musst du wissen.

Pauschale Aussagen wie "der Mensch sieht nur Xfps, oder XPixel" kann man kaum treffen, wenn dann sind es nur grobe Anhaltspunkte. Fakt ist, dass schnellere Bewegungen mehr fps brauchen, um als natürlich flüssig wahrgenommen zu werden. Ob man Wert auf diese "Flüssigkeit" legt ist subjektiv, unser Gehirn "mag" sie auf jeden Fall, das merkt man gerade in VR, zu wenig fps und das Hirn erkennt den Schwindel und dir wird komisch. Mehr Pixel machen das Bild klarer und ruhiger und damit angenehmer zu betrachten, der wahrnehmbare Unterschied von 4k zu 8k wird aber definitiv geringer ausfallen als von FullHD zu 4k/UHD. Der entscheidende Faktor ist dabei aber nicht direkt die Auflösung, sondern die Pixeldichte, d.h. auf kleineren Bildschirmen sehen auch weniger Pixel scharf aus, kennt man ja vom Smartphone.
 
Zuletzt bearbeitet:
TE
M

MickHH

PC-Selbstbauer(in)
Von der Darstellung sind beide Karten gleich. Die Geschwindigkeit und der Grafikspeicher sind der einzige Unterschied, wirken sich aber je nach Einstellungen im Spiel oder dem Spiel selbst unterschiedlich aus.

Geschwindigkeit: Die Wahrnehmung von FPS ist sehr subjektiv und von Mensch zu Mensch unterschiedlich. Manche "brauchen" unbedingt FPS über 100 um etwas als flüssig wahrzunehmen. Alles darunter ist für sie ein Ruckeln. Andere haben auch mir 30 FPS keine Probleme und nehmen diese nicht als Ruckeln war, wenn diese konstant geliefert werden. Eine Obergrenze gibt es nicht. Es gibt kompetative Spieler, die eine sehr hohe FPS-Zahl benötigen um präzise Zielen zu können. Je geringer der Unterschied zwischen angezeigten und berechneten Bild ist um so größer ist die Chance das du auch triffst. Deswegen sind geringe FPS in Shootern bei den es auf Präzision ankommt eher schlecht.
Hier kommt es auch immer auf das Eingabegerät an. Mit der Maus bist du schneller beim zielen. Du bewegst das Fadenkreuz direkt auf das Ziel, wärend du es mit einem Controller eher nachführst. Bei der direkten Ansteuerung ist es von größerer Bedeutung, dass sich dein Ziel beim schießen auch noch immer an der Stelle befindet, auf die du schießt. Insbesondere auf große Entfernung und kleinem Ziel kann es ansonsten passieren, dass du danebenschießt obwohl das dargestellte Bild dein Ziel immer noch unter dem Fadenkreuz anzeigt.
Je niedriger die FPS um so größer die Chance, dass das Ziel eben nicht mehr da ist.

Die GTX1080Ti steht nur im Moment "über allen". Für das von dir angesprochene 4K-Gaming reicht sie aber nicht immer aus um die volle Grafikpracht in den von vielen Spielern als spielbar definierten 60 FPS darzustellen.

Freesync und auch GSync helfen dabei das Bild flüssiger erscheinen zu lassen. Die dargestellten FPS verändern sich ständig. Ohne eine Begrenzung springen die dargestellten FPS laufend von einem Wert zum anderen, was in der Darstellung zu Tearing (zerreißen den Bildes) und ähnliche Effekten führt:

1003001-eure-erfahrung-oder-fachwissen-zu-dem-vegleich-von-rx-64-und-1080-ti-unbenannt.jpg



Nun gibt es Begrenzer wie VSYNC zum Beispiel, die dafür sorgen, dass die Grafikkarte nur immer dann ein Bild ausgibt, wenn der Monitor bereit ist. Die FPS springen dann immer noch zwischen der Obergrenze und den nächsten Teilern hin und her. Dieses Springen wird viel stärker als Ruckeln wahrgenommen, als das normale freie hin und herspringen vermeidet aber ein zerreißen des Bildes
Bei Freesync und GSync ist es umgekehrt. Der Monitor wird an die Grafikkarte angepasst. Gibt die Grafikkarte ein Bild aus wird dieses direkt dargestellt. Das führt zu einem flüssigen Bild, dass nicht von Tearing betroffen ist und als flüssig wahrgenommen wird. Allerdings wirkt das Verfahren nur im jeweils vom Monitor unterstützten FPS-Bereich. Oberhalb dieses Freqenzbereichs kommt es wieder zu Tearing. Das kann man mittels Begrenzer (Framelimiter oder VSYNC das nur die Framerate nach oben begrenzt) umgehen. Verliert aber an Präzision. Weswegend kompetative Spieler darauf verzichten.

Grafikspeicher: Je höher die Auflösung ist die du benutzt um so mehr VRAM benötigst du. Wenn die VRAM-Auslastung den vorhandenen Grafikspeicher überschreitet, dann müssen Teile des Bildes in weniger schnellen Speicher ausgelagert werden, was zu wahrnehmbaren Ruckeln führt.

Nach 4K kommen 8K, 16K was aber noch lange Zukunftsmusik ist ... Wenn man ehrlich ist reichen die aktuellen Grafikkarten nicht mal für 4K ohne Kompromisse bei den Einstellungen der Spiele eingehen zu müssen.

Es kommt immer drauf an wie kompromissbereit man selbst ist und ob man das letzte Quentchen Optik (das im Zweifel nur auf Screenshots wahrnehmbar ist) unbedingt benötigt.

Der nächste Schritt in Sachen Darstellung ist die Erhöhung der Hz der 4K-Monitore. Willst du diese Ausnutzen benötigst du in Zukunft wesentlich schnellere Grafikkarten. Um beispielsweise 144 FPS in WQHD zu erreichen benötigst du genauso eine GTX 1080 Ti wie für die 60 FPS-Darstellung in 4K bei gleichen Grafikeinstellungen.

Saubere und absolut klare Antwort, Danke
 

Gurdi

Kokü-Junkie (m/w)
Im konkreten Beispiel liefert dir Freesync 2 eine permanente Angleichung der Bildrate an die Wiederholfrequenz deines Monitors. Meiner Meinung nach ist es nicht mehr Zeitgemäß bei einem Neukauf auf das Feature zu verzichten.

Freesync 2 würde auch noch den Vorteil der HDR Unterstützung sowie des HDR Tonemappings mit sich bringen, was eine deutliche Verminderung des Inputlags bei Nutzung von HDR nach sich zieht, wenn unterstützt von der Software.
Wie erwähnt, wer heute neu kauft sollte HDR und Sync nicht liegen lassen, da bringen einem 10% mehr Fps nichts wenn auf diese Features verzichtet dafür.
 
Oben Unten