Nvidia Turing: Geforce RTX 2060 im Final-Fantasy-XV-Benchmark

Und das ohne RTX und nicht mehr als eine Hand voll Pixel pro Körperglied :ugly:

...

@INU.ID
Gib den Zeug mal Zeit. Bist die Entwickler gelernt haben die RT und Tensor Cores richtig zu nutzen, braucht es eben Zeit. Wenn sie es nutzen, dann kommt die Optimierung. Dann noch die Treiber. Danach vielleicht noch die Algorithmen. Ich denke da liegt noch etlich Performance brach. Die Einführung war nicht ganz geglückt, aber mit BF hat sich NV halt auch einen dicken Fisch geangelt, was Publicity angeht für RTX. Ob nun gut oder schlecht, Werbung bleibt Werbung.

Zeit ist Geld, heißt es landläufig...

Und hier sehe ich eben das Problem bei RTX und Nvidia.
Warum jetzt eine 2080Ti für min. 1200€ kaufen, wenn diese in 6-9 Monaten evtl. nur noch "Schrottwert" hat, da bereits die nächste Generation (shrink) ansteht, und einige Spiele bis dahin erst (mit Glück) vernünftig spielbar angepasst wurden?

Oder kauft man sich z.B. SSDs auf "Halde", nur weil vielleicht in einem, oder zwei Jahren mehr Speicherplatz im PC benötigt wird... ;)

mfg
 
welche großen Unterschiede siehste denn bitte, wenn du von 1080p auf 1440p gehst?
Schönere Kanten, feiner abgestufte Texturen etc.
Irgend nen älteren Warhammer 40k Titel hab ich auch in "4K" gezockt.
Das Einzige, was das trübt sind die sehr niedrig aufgelösten Assets, aber da ändert auch natives 4K nichts daran.

zB. Farcry 5 spiele ich auch in "1440P" und da sind die Pflanzen, das Wasser usw, eben alles, was feine Kanten hat viel besser rausgekommen.

Sind ja auch Subjektive Wahrnehmungen, kommt auch immer auf das verbaute Panel an, Bildschirmgröße etc.
Ich hab ein VA auf 27" Curved. vll liegts auch an der kleineren Pixeldichte, das mir das so auffällt.
Dass man auf nem 19" Bildschirm keinen Unterschied zwischen 1080 und 1440 sieht, ist ja wohl klar :ugly:
 
Schönere Kanten, feiner abgestufte Texturen etc.
Irgend nen älteren Warhammer 40k Titel hab ich auch in "4K" gezockt.
Das Einzige, was das trübt sind die sehr niedrig aufgelösten Assets, aber da ändert auch natives 4K nichts daran.

zB. Farcry 5 spiele ich auch in "1440P" und da sind die Pflanzen, das Wasser usw, eben alles, was feine Kanten hat viel besser rausgekommen.

Sind ja auch Subjektive Wahrnehmungen, kommt auch immer auf das verbaute Panel an, Bildschirmgröße etc.
Ich hab ein VA auf 27" Curved. vll liegts auch an der kleineren Pixeldichte, das mir das so auffällt.
Dass man auf nem 19" Bildschirm keinen Unterschied zwischen 1080 und 1440 sieht, ist ja wohl klar :ugly:

Also ich finde so ab 27" merkst du den Unterschied sehr stark. 27" 1080p sieht echt nicht gut aus. 27" 1440p geht allerdings (wobei du da den unterschied zu 4K auch definitiv siehst).
 
wie schön, dass du dann doch nochmal relativierst.
"Schönere Kanten, feiner abgestufte Texturen ..." sind für mich persönlich keine wirklich großen Unterschiede. aber das sieht eh jeder anders, von daher Wayne.
 
Schönere Kanten, feiner abgestufte Texturen etc.
Irgend nen älteren Warhammer 40k Titel hab ich auch in "4K" gezockt.
Das Einzige, was das trübt sind die sehr niedrig aufgelösten Assets, aber da ändert auch natives 4K nichts daran.

zB. Farcry 5 spiele ich auch in "1440P" und da sind die Pflanzen, das Wasser usw, eben alles, was feine Kanten hat viel besser rausgekommen.

Sind ja auch Subjektive Wahrnehmungen, kommt auch immer auf das verbaute Panel an, Bildschirmgröße etc.
Ich hab ein VA auf 27" Curved. vll liegts auch an der kleineren Pixeldichte, das mir das so auffällt.
Dass man auf nem 19" Bildschirm keinen Unterschied zwischen 1080 und 1440 sieht, ist ja wohl klar :ugly:

Man sieht selbst an kleinen Laptops problemlos den Unterschied zwischen Full HD und WQHD, außer man hat was an den Augen.
 
Ich könnte mit meiner 580 bestimmt die allermeisten Regler in FHD nach re. schieben und trotzdem habe ich mich für WQHD mit leichten(!) Reduzierungen entschieden, weils einfach besser aussieht und das Bild sich "ruhiger" anfühlt. Wer hier noch FHD wegen RT verteidigt ist entweder Sehbehindert oder wurde einer "Marketing-Gehirnwäsche" unterzogen. Anders kann ich mir das nicht erklären.
Lustig finde ich, das AMD sein olle 480>590 aufbohrt und NV für eine ähnliche Leistung, was komplett Neues auf den markt bringt. Ich will mal für die potentiellen 2060-Käufer hoffen, das diesmal 8GB VRAM verbaut werden. Sonst wird es mit Argumenent für eine 2060 echt dünn :D
Gruß T.
 
Die 2060 müsste sich zukünftig mit AMDs Navi prügeln.
Und bei Navi gehen heute schon viele davon aus, dass Navi 10 mindestens über 1080-Niveau liegen wird.
D.h. die 2060 wird so keine Chance gegen Navi haben, oder Nvidia weiß schon dass Navi 10 noch nicht einmal 1070ti-Niveau erreicht.

Irgendwie ergeben diese Werte noch nicht viel Sinn......
 
Die 2060 müsste sich zukünftig mit AMDs Navi prügeln.
Und bei Navi gehen heute schon viele davon aus, dass Navi 10 mindestens über 1080-Niveau liegen wird.
D.h. die 2060 wird so keine Chance gegen Navi haben, oder Nvidia weiß schon dass Navi 10 noch nicht einmal 1070ti-Niveau erreicht.

Irgendwie ergeben diese Werte noch nicht viel Sinn......

Navi kommt irgendwann nächstes Jahr, da kann genauso gut ein Nvidia Refresh in 7nm kommen oder gar eine neue Gen in 7nm.

Auflösung ist das Maß aller Dinge, wer das leugnet...:rollen:

Jap, wobei ich bei WQHD RT vs 4k Raster echt am Überlegen wäre, aber ich schätze die Nvidia 7nm Generation wird das Problem erst gar nicht enstehen lassen, da sollte dann 4k mit RT (wenn auch nicht Ultra) durchaus auf 40-60 FPS laufen, hätte wohl jetzt schon geklappt, wenn Nvidia doppelt so viele RT Cores in die 2080 Ti gepackt hätte.
 
Für alle, die es immer noch nicht mitbekommen haben: RT kann man auch in verschiedenen Detailstufen haben und es auch in Spielen nutzen, die nicht schon ohne die Technik High-End-Grafikkarten an die Grenze bringen. So kann man das auch nutzen. Ich denke gegenüber den meisten anderen Reflexionstechniken ist das durchaus eine Alternative. Hier wird so getan, als ob ein neues Spiel mit einer neuen Technik nicht schon immer mehr Leistung gefordert hätte. Und einen Trade-Off zwischen Framerate, Detailgrad und Auflösung gibt es, seit es 3D-Grafik gibt. Ich finde die Richtung gut, auch wenn man stattdessen natürlich auch noch mehr normale Shaderkerne hätte umsetzen können. Irgendwann ist eine Grenze erreicht, an der man mit Rastergrafik an die Grenzen kommt und RT könnte ein echter Zugewinn an Grafikqualität werden und irgendwo muss mal ein Anfang gemacht werden.

Ich frage mich, ob es damals auch so ein Geschrei gab, als die Hardware-TnL eingeführt wurde, oder ob die Leute damals ein bisschen begeisterter darüber waren, dass es nicht mehr immer nur mehr vom gleichen gab.
 
Dieselben Leute die lieber hohe FPS haben und in sinnvollen Abständen zum Monitor sitzen als bei einer Diashow Pixel zählen. ..

Ich sitze in vernünftigen Didtanzen vor meinem Monitor und msn erkennt dort keinen Unterschied beim Spielen ob 1440P oder 4K ja oft gar bei 1080P nicht swhr wohl aber zwischen den 30-60 fps@4k statt 144 oder 200+ bei 1080 P. Und ich

Außerdem erkenne ich -das liegt vielleicht leider daran, dass ich in der Natur wohne und oft draußen bin- den Unterschied zwischen einer Nachbildung von realistischen Beleuchtungen durch aktuelle Rasterizing verfahren und RT
In der Natur lebend, und welche Immersion hast du in der Natur ein 22" Fenster durch das du guckst. Hohe Auflösung bedeutet nicht nur mehr Pixel, sondern völlig andere Engine Skalierungsstufen beim dargestellten Inhalt! Mit höherer Auflösung sieht man einfach mehr, die Skalierung fällt aber bei hoher Pixelanzahl weniger auf. Dabei erweitert sich der Bildinhalt, als wenn du bei einem 1080p Monitor durch einen 12" Schlauch guckst der sich in der Bildmitte befindet.

Setz dich gerne vor einen 32" in einer Auflösung von 1080p. Das ist auch von einer 10m Entfernung eine Pixelshow (Pixel-/Rasterverfahren). Was hat wohl das 21x9 Format für einen Vorteil?

Wenn man auf Displays mit hoher Auflösung herunterskalieren muss, sieht das einfach grottig aus und die Zeiten in denen man vor 22-24" Monitoren hockt sind lange vorbei.

Fotorealismus? Jedes Bild wird bei optischer Erfassung nachbearbeitet, soviel zu deinem Fotorealismus und wenns nur darum geht Speicherplatz auf einer Karte zu sparen.

In welchem Spiel bitte hast Du denn eine Nachbildung des Beleuchtungsmodell mit RT sehen können, es gibt keins! Bilder werden im Shop nachbearbeitet.

Jap, wobei ich bei WQHD RT vs 4k Raster echt am Überlegen wäre, aber ich schätze die Nvidia 7nm Generation wird das Problem erst gar nicht enstehen lassen, da sollte dann 4k mit RT (wenn auch nicht Ultra) durchaus auf 40-60 FPS laufen, hätte wohl jetzt schon geklappt, wenn Nvidia doppelt so viele RT Cores in die 2080 Ti gepackt hätte.
Das kommt darauf an, ob nVidia mehr ihrer Einheiten ins Chipdesign einpfelgt oder nur shrinkt um den Takt zu erhöhen, Energie und Fläche zu sparen. Die Preise müssen irgendwann runter.

UHD ist in Rasterization noch eine Bank, die in bestimmtern Genre (wo es auf Bildqualität ankommt) an der 60fps Marke scheitert, bei hohen Qualitätsoffset sowieso (auf AA kann man verzichten). Ich würde nicht davon ausgehen das UHD spielbar wird. WQHD mit dauerhaft 60fps wäre vorstellbar. Irgendwann sollen ja mehr Feature die mit DXR und in RT Echtzeitszenarien berechnet werden können, auswählbar sein, nicht nur eins oder zwei.
 
Zuletzt bearbeitet:
Das kommt darauf an, ob nVidia mehr ihrer Einheiten ins Chipdesign einpfelgt oder nur shrinkt um den Takt zu erhöhen, Energie und Fläche zu sparen. Die Preise müssen irgendwann runter.

Ich glaub, ich werd' einfach beten, dass meine 1080Ti einige Jahre hält, denn ich will eigentlich beim nächsten Mal wieder deutlich weniger ausgeben(diesmal wäre ich bereit zu 900 gewesen, für eine 2080Ti), als jetzt die 570€ für meine gebrauchte 1080Ti.
Im Grunde will ich aber wieder Richtung 300-350€. Das ist irgendwie ein vernünftigerer Preis für ne GPU.

Dieses um die 1000€ nur für ne GPU is eigentlich ganz schön bekloppt.
Ich will wieder weniger, anstatt mehr ausgeben, zukünftig.

Vielleicht wird ja eine GTX 4060 zukünftig ohne RT ca. so schnell wie meine 1080Ti jetzt schon is(falls letztere irgendwann das zeitliche segnet ;) ). Dann könnte das ja irgendwie hinhauen, wenn vielleicht auch nicht gleich zum Marktstart. Im Notfall halt wieder ne gebrauchte Karte.

P.S.: Raytracing is sowieso nachdem was ich bisher so gesehen habe, wieder total uninteressant für mich, für die nächsten paar Jahre.
 
Zuletzt bearbeitet:
Für alle, die es immer noch nicht mitbekommen haben: RT kann man auch in verschiedenen Detailstufen haben und es auch in Spielen nutzen, die nicht schon ohne die Technik High-End-Grafikkarten an die Grenze bringen. So kann man das auch nutzen. Ich denke gegenüber den meisten anderen Reflexionstechniken ist das durchaus eine Alternative. Hier wird so getan, als ob ein neues Spiel mit einer neuen Technik nicht schon immer mehr Leistung gefordert hätte. Und einen Trade-Off zwischen Framerate, Detailgrad und Auflösung gibt es, seit es 3D-Grafik gibt. Ich finde die Richtung gut, auch wenn man stattdessen natürlich auch noch mehr normale Shaderkerne hätte umsetzen können. Irgendwann ist eine Grenze erreicht, an der man mit Rastergrafik an die Grenzen kommt und RT könnte ein echter Zugewinn an Grafikqualität werden und irgendwo muss mal ein Anfang gemacht werden.

Ich frage mich, ob es damals auch so ein Geschrei gab, als die Hardware-TnL eingeführt wurde, oder ob die Leute damals ein bisschen begeisterter darüber waren, dass es nicht mehr immer nur mehr vom gleichen gab.

Klar kann man RayTracing in verschiedenen Detail stufen haben. Verschiedene Detailstufen bedeutet die Anzahl der ausgesendeten rays verringen, was dann wiederum heißt, dass das Ausgangsbild für den Denoiser noch mehr Noise enthält, was bedeutet dass der Denoiser nicht mehr hinterher kommt und du immer noch Noise auf den Bildern erkennen kannst.

Gamers Nexus hast das sehr schön dokumentiert: Du bekommt z.B. in Gesichtern, Wasser oder den Fensterscheiben der Trambahn schöne Bildfehler wenn der Denoiser es nicht perfekt hin bekommt.
YouTube
 
welche großen Unterschiede siehste denn bitte, wenn du von 1080p auf 1440p gehst?
Der Unterschied ist in jedem Spiel, das in 1080p viel Subpixel Aliasing verursacht, gigantisch - und das sind inzwischen einige.

Hinzu kommt, dass TAA in 1080p immer müllig aussieht, weil matschig, wohingegen 1440p/TAA @ 1080p VSR ein wesentlich schärferes Bild bietet. UE4 Spiele mit dem Engine eigenen TAA sind in 1080p an der Grenze zur Unspielbarkeit, weil extrem unscharf. Ich erleb es grad wieder in Little Nightmares (UE4). Ohne VSR ist das einfach nur Matsch - mit VSR extrem schön.

Die reine 1440p @ 1080p Kantenglättung is nutzlos - Selbst 2160p @ 1080p entspricht an Polygonkanten grad mal 2xMSAA. Das Oversampling der restlichen Bildinhalte profitiert hingegen extrem. Sogar die Anisotropische Filterung wird besser. Das ist alles seit 20 Jahren bekannt. Hast du in deinem Leben mal einen einzigen Artikel zum Thema Supersampling gelesen? Kombiniert man das Oversampling dann mit kostenlosem SMAA/FXAA/MLAA für die Polygonkanten, sieht das Ergebnis fantastisch aus.

Selbst die beiden Pro/X Konsolen bieten inziwschen 1440p @ 1080p Modi und die Welt jubelt.
 
Auflösung ist das Maß aller Dinge, wer das leugnet...:rollen:
1080P@60 ist das Maß aller Dinge.. mann mann mann wie kann man das nicht wissen?!
Boah, müffelt das hier nach Selbstbeweiräucherung ...
klar is 4k 144Hz HDR maxed out nett. aber das will ja auch bezahlt und befeuert werden.
find ich immer witzig, wenn wer unter ner 2080Ti erzählt, dass "Auflösung das Maß aller Dinger wäre" :lol:

@KrHome: ich hab beim besten Willen keine Ahnung was du von dir gibst. ich find UT4 in 1080p gediegen. ich kann hier alles in nativen 1080p zocken und hab an der Kantenglättung fast nirgends was zu meckern (außer Alien Isolation, das hat da ja gar nix). dann is für dich ja die allgemein gängigste Auflösung ein Graus, mit der sonst jeder super klar kommt. das find ich schon sonderbar.
 
Zuletzt bearbeitet:
Klar kann man RayTracing in verschiedenen Detail stufen haben. Verschiedene Detailstufen bedeutet die Anzahl der ausgesendeten rays verringen, was dann wiederum heißt, dass das Ausgangsbild für den Denoiser noch mehr Noise enthält, was bedeutet dass der Denoiser nicht mehr hinterher kommt und du immer noch Noise auf den Bildern erkennen kannst.

An der Stelle könnte man sich vermutlich aussuchen, ob man dem Denoiser das zumuten kann/will, oder ob man die Effektauflösung dann einfach reduziert. Dann wäre es halt ein bisschen pixelig, aber man hat nicht die Artefakte, die ein überforderter Denoiser produziert. Oder man erhöht den Smoothness-Cut-Off, dann wird die Reflexion halt ein bisschen "stumpfer". Alles nicht optimal, aber zu sagen, dass man den Effekt überhaupt nicht nutzen kann, halte ich für überzogen.
 
Boah, müffelt das hier nach Selbstbeweiräucherung ...
klar is 4k 144Hz HDR maxed out nett. aber das will ja auch bezahlt und befeuert werden.
find ich immer witzig, wenn wer unter ner 2080Ti erzählt, dass "Auflösung das Maß aller Dinger wäre" :lol:

@KrHome: ich hab beim besten Willen keine Ahnung was du von dir gibst. ich find UT4 in 1080p gediegen. ich kann hier alles in nativen 1080p zocken und hab an der Kantenglättung fast nirgends was zu meckern (außer Alien Isolation, das hat da ja gar nix). dann is für dich ja die allgemein gängigste Auflösung ein Graus, mit der sonst jeder super klar kommt. das find ich schon sonderbar.

Ganz ehrlich? Mir taugt 4K@60Hz high halt besser als 1080p Ultra. Ob jetzt 60 oder 144Hz. Über 1440p läss sich zwar reden, aber mir persönlich taugt da 4K immernoch mehr.

Wie gesagt, es kommt auch auf die Bildschirmgröße an. Bei 24" sind 1080p einfach was anderes als bei 32". Zumal manche Leute den 4K Moni z.B. auch aus anderen Gründen haben.
Und dann auf nem 4K 32" Moni 1080p einzustellen ist Vorsichtig gesagt unangenehm. (ist bei mir z.B. So)

Es kommt einfach auf die Gegebenheiten an.
 
Boah, müffelt das hier nach Selbstbeweiräucherung ...
klar is 4k 144Hz HDR maxed out nett. aber das will ja auch bezahlt und befeuert werden.
find ich immer witzig, wenn wer unter ner 2080Ti erzählt, dass "Auflösung das Maß aller Dinger wäre" :lol:

@KrHome: ich hab beim besten Willen keine Ahnung was du von dir gibst. ich find UT4 in 1080p gediegen. ich kann hier alles in nativen 1080p zocken und hab an der Kantenglättung fast nirgends was zu meckern (außer Alien Isolation, das hat da ja gar nix). dann is für dich ja die allgemein gängigste Auflösung ein Graus, mit der sonst jeder super klar kommt. das find ich schon sonderbar.
bei Gurdi wundert mich nichts mehr.:lol: Ich gehe fest davon aus das er 30FPS als flüssig ansieht, vielleicht sogar 20 :lol:
Vega liefert nicht einmal in WHQD anständige ergebnisse und ist häufig weit weg von konstanten 60FPS.
http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

Nichts geht über SGSSAA (NV Inspector, bits) ! Die mit abstand beste wahl. Das Bild wirkt deutlich weniger verwaschen und die kanten werden zumindest auf herkömmlichen Monitoren sichtbar besser geglättet als mit DSR
NVidia Anti-Aliasing Guide (updated) | guru3D Forums
...kombiniert mit HBAO+ natürlich
HBAO+ Compatibility Flags Thread | guru3D Forums
 
Zuletzt bearbeitet:
Zurück