Nvidia Turing: Geforce RTX 2060 im Final-Fantasy-XV-Benchmark

Für mich wäre so ne dedizierte Karte nix, muss ich zugeben. Eventuell ist die Verbindung zwischen 2 Karten schlich zu langsam für Raytracing oder sowas...aber man kann ja immer fordern, ohne sich selbst drum zu kümmern...du könntest doch ne dedizierte RT Karte entwickeln, also los.:daumen:

Hatte mit Ageia PhysX doch auch so angefangen. Mag sein das es den Umstand geschuldet war das es nicht von Nvidia war, aber ich glaube nicht das damalige Karten das hätten leisten können. Man hätte ruhig die 10er Serie weiter führen können und RT Karten als dedizierte Karte verkaufen können, wenn das bei PhysX geklappt hat, hätte das für paar Spiegelungen sicherlich auch klappen können.

Bin gespannt was nächstes Jahr kommt.. oder hat Nvidia ähnliche Probleme wie Intel? Wie Intel hat Nvidia alte Roadmap Termine schon längst gerissen. Mal schauen was kommt.
 
Ich find RT auf dieser Karte genauso sinnvoll wie auf der 2080Ti. Nützt auf beiden Karten nicht wirklich was :-P
Wer zum Teufel gibt sich freiwillig so'n massiven Performancedrop? So viel besser siehts nichtmal aus.

Na ja, preislich sicher nicht viel billiger als die 1070. Schließlich will nVidia nicht am Hungertuch nagen.
 
Dann ratet mal welche Karte nach der GTX 1080(Ti) als nächstes vom Markt verschwindet, um die verkrüppelte RTX 2060 verkaufen zu können.
Wenn die wirklich Raytracing unterstützt, .... :lol:
 
Zuletzt bearbeitet:
Dieselben Leute die lieber hohe FPS haben und in sinnvollen Abständen zum Monitor sitzen als bei einer Diashow Pixel zählen. ..

Ich sitze in vernünftigen Didtanzen vor meinem Monitor und msn erkennt dort keinen Unterschied beim Spielen ob 1440P oder 4K ja oft gar bei 1080P nicht swhr wohl aber zwischen den 30-60 fps@4k statt 144 oder 200+ bei 1080 P.

Außerdem erkenne ich -das liegt vielleicht leider daran, dass ich in der Natur wohne und oft draußen bin- den Unterschied zwischen einer Nachbildung von realistischen Beleuchtungen durch aktuelle Rasterizing verfahren und RT

Insofern ist es mir völlig egal wie viel Performance ein Feature frisst, wenn es dem Fotorealismus näher kommt. Was nämlich auch hier irgendwann der letzte kapiert haben wird: grafische Fortschritte werden ab jetzt immer kleiner und dennoch kostspieliger

Ich weiß nicht ob ich dich da korrekt verstanden habe.

Ich zb. spiele noch auf einem 27" 1080p-Monitor. Wenn ich darauf mit DSR@4k spiele, sehe ich schon einen sehr deutlichen Unterschied, und das obwohl ich einen "Herren-Schreibtisch" habe, den Monitor also nur dann mit den Fingern berühren kann, wenn ich mich ordentlich nach vorne beuge. :D Ob das jetzt sinnvoller ist als ihn beim Zocken mit der Nasenspitze berühren zu können, keine Ahnung.

Bezüglich Bildrate: Ich bin, eigentlich schon immer, ein Low-FPS-Spieler. Auch mir ist die Bild- bzw. Darstellungsqualität wichtig, und auch wichtiger als FPS. Ob die Bildrate nämlich 60FPS oder 200FPS beträgt ist mir dahingehend "woscht", als dass die hohen Frames mir keinen wirklichen Mehrwert bieten. Wenn ich mich zb. auf einem BF-Server mal auf die ersten Plätze geballert hab, waren da ganz sicher mehr Spieler mit deutlich höheren FPS hinter mir, als Spieler mit ähnlich niedrigen FPS wie bei mir. Von Single-Player-Games ganz zu schweigen. Hier reichen (mir) häufig wirklich schon ~30FPS, wenn die Bildausgabe halbwegs flüssig ist. Zumal Ruckler bzgl. Wahrnehmung in der Regel schon ganz gut von der ungleichmäßigen Bewegung der Spielfigur "geglättet" werden, zackige Linien, schlechte Texturen, oder ein unruhiges Bild (Treppchenbildung) usw. nimmt man hingegen deutlich schneller/leichter wahr.

Und genau hier ist das - aktuelle, und in meinen Augen - Problem von Raytracing. Momentan bietet es keinen wirklichen Mehrwert, kostet aber sehr viel Leistung. Diese Leistung würde ich zb. lieber in zb. AA/DSR usw. investieren, einfach weil der optische Impact/die Immersion so für mich deutlich mehr ansteigen würde.

Und jetzt das zweite Problem von Raytracing: Realismus. In erster Linie soll die Grafik die Immersion anheben. Der Spieler soll durch eine bessere Darstellung einfach nur mehr/tiefer/intensiver "eintauchen" können - der Spielspaß soll ansteigen. Und genau hier ist der Knackpunkt: Es muß nicht zwingend echt sein, es muß sich für den Spieler nur echt geil anfühlen. Und hier kann es durchaus passieren, dass das klassische (schon etwas aufwendigere) Beleuchtungsmodell weniger mathematisch korrekt/realistisch ist, sich aber besser anfühlt als "partielles" Raytracing. Oder dass die Differenz zwischen "qualitätsreduziertem Raytracing" und der klassischen Darstellung so gering ist, dass der Spieler lieber in einer 4x höheren Auflösung (4k statt 1080p) spielt, und auf (häufig ja auch nur peripher wahrgenommenes) "realistischere" Spiegelungen/Schattenwürfe verzichtet.

Man sagt ja auch, auf dem Weg zur "perfekten" Grafik kommt erst noch mal ein Punkt, an dem das Empfinden der eigentlich besseren Darstellung beim Spieler nach unten abfällt, bevor es dann am Ende wieder ansteigt. Es bringt also nichts für minimale Veränderungen massive Performance zu opfern, wenn diese minimalen Veränderungen entweder kaum bis gar nicht, oder sogar negativ, wahrgenommen werden.

Es kann also durchaus passieren, auch wenn ich es nicht hoffe, dass die kommenden Spiele hier nicht die Raytracing-Wunder bringen, die die Spieler (und auch Besitzer von RTX-Karten) sich wünschen. In der Geschichte der Computergrafik gab es eigentlich zu jedem neuen Killer-Feature eine ganze Reihe an "Demonstrationen" (Benchmarks, Tech-Demos, Spiele), welche direkt zum Release (bzw. schon davor) oder ganz kurz danach verfügbar waren. Nicht so beim Thema RTX-Raytracing. Hier sah es ja schon in den Reviews mehr als nur mau aus.

Nicht das ich falsch verstanden werde: Ich finde die RTX technisch super (den fehlenden Sprung beim RAM und die Preise aber shice^^), und ich finde auch Raytracing geil. Und ich hoffe hier auf enorme Sprünge in der nächsten Zeit. Aber ich habe so meine Zweifel, dass die erste Charge an RT-Karten hier so eine krasse Veränderung bringen wird, wie die Marketingabteilung von Nvidia "uns" verkaufen will.

Bei CPUs haben so viele User über Jahre immer und immer wieder gesagt "Also bis die Kerne mal genutzt werden, ist die CPU schon zu alt", dabei halten CPUs mittlerweile problemlos 5-7 Jahre und länger. Aber eine Grafikkarte altert hier sehr viel schneller. Von den zb. 24 Monaten "Premium-Lifetime" der RTX sind schon 2 Monate um. Ob da in den nächsten 22 Monaten wirklich so viel passiert? Und was kommt danach... wenn zb. eine RTX3080Ti am Start ist... wird das dann aktuelle RT dann noch gut mit einer 2080Ti laufen? Oder mit einer RTX 2070?

Hier sollte man mMn die Erwartungen an die aktuelle Raytracing-Hardware/-Technik vielleicht erstmal nicht zu hoch ansetzen. ^^
 
Mal eine Frage an den Artikelautor: bei all der Liebe, die in der Spekulation über "mit RT Cores" und "ohne Tensor Cores" und so steckt: ihr wisst schon, dass Raytracing nur mit beiden Funktioniert, oder? Ohne das über die Tensor Cores berechnete Denoise des mit der mit den rt Cores berechneten Bilder würde das alles... Ziemlich ******** aussehen oder um Welten mehr RT Cores benötigen.

Hier in dem Video sieht man z.b. die Auswirkung:
RTX Coffee Break: Ray Traced Reflections and Denoising (9:52 minutes) - NVIDIA Developer News CenterNVIDIA Developer News Center


Natürlich könnte man auch ohne Tensor Cores arbeiten, das würde aber den Nutzen der RT Cores auf sowas wie: Berechnung des Sichtkegels der npc's und so limitieren.
 
Wir hatten früher auch nicht mehr.

Und das ohne RTX und nicht mehr als eine Hand voll Pixel pro Körperglied :ugly:

@Topic
Kommt immer drauf an aus welcher Generation man wechselt und wie der Preis der Karte ist (natürlich auch die Leistung). RTX ist da nur ein nettes Feature was man mal testen kann. So lange es noch nicht wirklich optimiert ist, würde ich mich auch Hüten zu sagen was geht und was nicht. Wie schon tausend mal erwähnt gab es bisher selten ein grafisches Feature welches vom Fleck weg gut aussah und performant lief. Harren wir der Dinge.

@altariius
Irgendein User hatte hier mal berichtet, dass die derzeitige Implementierung von RTX bei BF5 auch nicht die RT-Cores vernünftig ausnutzt. Diese eine RTX-Demo damals mit dem Auto und dem lodernden Feuer war wohl auf einer Titan V gemacht und nutzten nicht die RT/Tensor Cores. Seitdem, vor nicht mal 2 Monaten, soll sich auch nicht so viel getan haben. Aber habe dazu leider nichts im Netz gefunden.

@
INU.ID
Gib den Zeug mal Zeit. Bist die Entwickler gelernt haben die RT und Tensor Cores richtig zu nutzen, braucht es eben Zeit. Wenn sie es nutzen, dann kommt die Optimierung. Dann noch die Treiber. Danach vielleicht noch die Algorithmen. Ich denke da liegt noch etlich Performance brach. Die Einführung war nicht ganz geglückt, aber mit BF hat sich NV halt auch einen dicken Fisch geangelt, was Publicity angeht für RTX. Ob nun gut oder schlecht, Werbung bleibt Werbung.
 
Zuletzt bearbeitet:
(...)Ist BF 5 denn der einzige Maßstab? Was wenn Spiele kommen mit geringeren Anforderungen weil sie besser optimiert sind?
Finde es immer lächerlich, ja fast Naiv wenn von den ersten Benchmark gleich auf die gesamte Technologie geschlossen wird. Nur weil in Crysis die Geforce 8 nicht lief war sie trotzdem eine tolle Karte die in anderen Spielen sehr wohl gezeigt hat was sie kann (...)

Hmm war denn Shadow of the Tomb Raidermit RT Schatten denn besser mit 40 FPS in 1080p auf einer 2080TI? ... besser optimiert ... wir werden sehen wenn es mal mehr Spiele in die Öffentlichkeit geschafft haben. mal sehen wie viel sie bei SOTTR noch herausholen konnten ;). Oder schau dir Metro an das nutzt RT_Beleuchtung und zumindest ich konnte auf den Videos zu RTX ON/OFF kaum einen Unterschied zu normalem SSOA sehen ... da kann man viele andere 'traditionelle' Effekte ordentlich nach oben schrauben bevor die FPS auf ein Drittel einbricht ;).

Und merkst du was? alle diese Spiele nutzen EINEN Aspekt von RayTracing, Reflexionen, Schatten ODER Beleuchtung. Battlefield V nutzt die normalen Schatten und Beleuchtung wie in normalen Spielen auch. In SOTTR und Metro wird es keine RT-Reflexionen geben.

Und der Unterschied war bei Crysis das andere Spiele halt Grafisch keine so hohe Qualität wie Crysis nutzen da wurden halt Abstriche gemacht ... wenn man deiner Analogie folgt und auf RTX bezieht dann halt RTX OFF ;) ... und ja da ist eine 2080Ti verdammt flott. Aber dann frage ich mich ob ich für 30% Mehrleistung doppelt so viel Geld ausgeben will wie für eine 1080TI ;).
 
@Algo
Hat eine 1080TI nicht damals auch bei Release 850 - 950€ gekostet? Daher habe ich noch keine RTX 2080TI gesehen die irgendwie 1700 - 1900€ gekostet hat. Nur weil sie mittlerweile auf 600€+ gefallen ist nach 1,5 Jahren, kannst du das jetzt nicht so einfach vergleichen. Alleine die 1 vs 3 Shaderengines ist schon ein enormer Unterschied. Und die 2080TI entspricht ja jetzt der Titan.

Und wie schon gesagt gibt es etliche Sachen die noch gar nicht richtig genutzt werden. Das Denoising soll wohl nicht auf den Tensorcores laufen. Die RT Cores werden auch nicht richtig genutzt. Es sind etliche Bugs drin zwecks SSOA und RT. Der Treiber passt nicht etc. etc. Also ja, es wird noch besser laufen mit ein paar Patches. Vielleicht auch zwischendurch wieder schlechter, wer weiß. Bloß eine Aussage zu treffen am Stand der jetzigen Implementierung ist doch eher fragwürdig, wenn man über die Zukunft spricht. Ist zwar kein schöner Stand, aber so what. Niemand muss eine RTX kaufen.

Ich empfand die Metro RTX Videos schon gut und den Unterschied sichtbar.

Ach du meintest Rise of the tomb raider... War von PC Welt oder so ne? Die hatten doch son vermurksten 6800K@Stock am Laufen oder? Da würde ich lieber nochmal "vernünftige" Benchmarks sehen.

Edit: War verwirrt. Shadow of the tr. Aber das lief doch so schon nicht so super. Maxed out auf 1080p nur knapp 90FPS.
 
Zuletzt bearbeitet:
Naja ich sprach von aktuellen Preisen und wenn ich heute eine Grafikkarte kaufen wollte, aber mal schauen wann die 2080TI wenigstens den MSRP von $999 erreicht ;). und gut ich hab ja schon keine Wahl mehr die 1080Ti gibt es ja schon so gut wie nicht mehr und bis die 2080Ti im Preis gefallen ist kann man eine 1080Ti eh nicht mehr kaufen.

Auf was soll das Denoisen denn sonst laufen wenn nicht auf den Tensor Cores? Auf der CPU O_o?
 
Naja ich sprach von aktuellen Preisen und wenn ich heute eine Grafikkarte kaufen wollte, aber mal schauen wann die 2080TI wenigstens den MSRP von $999 erreicht ;). und gut ich hab ja schon keine Wahl mehr die 1080Ti gibt es ja schon so gut wie nicht mehr und bis die 2080Ti im Preis gefallen ist kann man eine 1080Ti eh nicht mehr kaufen.

Auf was soll das Denoisen denn sonst laufen wenn nicht auf den Tensor Cores? Auf der CPU O_o?

Keine Ahnung. Hab da in den reddits auch nach Quellen gefragt gehabt, aber leider keine Antwort bekommen. Aber wie gesagt es muss ja auch so funktionieren, da die Demo damals auf einer Titan V gemacht wurde (angeblich). Glaube das war aber auch auf EuroGamer mal zu lesen, dass das so war.
 
Dieselben Leute die lieber hohe FPS haben und in sinnvollen Abständen zum Monitor sitzen als bei einer Diashow Pixel zählen. ..

Ich sitze in vernünftigen Didtanzen vor meinem Monitor und msn erkennt dort keinen Unterschied beim Spielen ob 1440P oder 4K ja oft gar bei 1080P nicht swhr wohl aber zwischen den 30-60 fps@4k statt 144 oder 200+ bei 1080 P.
Moment... Um die RTX in 1080P zu verteidigen willst du uns hier erzählen, dass man keinen Unterschied zwischen 1080P und 4K erkennt?
Sonst gehts dir noch gut?
Und auf der anderes Seite sieht man sehr wohl den Unterschied zwischen 60FPS und 144FPS?? Öhm... sicher, dass du hier nicht was verwechselst?

Und wie klappt das mit RTX? Da hast ja grade so 60FPS in 1080P
Merkt man da keinen Unterschied zu den 144FPS ohne RTX? :lol:

Noch lächerlicher kann man das ja nicht verteidigen.
Ich sehe ja schon große Unterschiede auf meinem 1080P Monitor, wenn ich per VSR auf 1440P hochgehe. Und das sind eigentlich immer noch 1080P :ugly:

Wahrscheinlich 100% der normal sehenden Menschen erkennen einen großen Unterschied zwischen nativen 1080P und nativen 4K, jedoch wahrscheinlich nur ein kleiner Prozentsatz tatsächlichen Unterschied zwischen 144FPS und 60FPS.
 
Hier geht es doch noch um eine eventuelle RTX 2060, oder? Nach dem derzeitigen Stand der Dinge erscheint mir das eher ein Marketingschachzug zu sein. Wenn dieser Benchmark einigermaßen plausibel ist, wäre das schon sehr enttäuschend. RTX 2060 langsamer als die altehrwürdige GTX 1070 (die ihrerseits mit der GTX 980ti in einer Liga gespielt hat)? Wow.

Selbst die "großen" Karten bieten ja momentan nicht viel mehr als eine Grafikdemo in derzeit einem Spiel. Ich bin gespannt, ob der Patch für Shadow of the Tomb Raider besser optimiert ist und man dann von einem "Spielerlebnis" sprechen kann.

Meine Sicht der Dinge: Ich spiele auf einem 24" WQHD Monitor und möchte nicht auf FHD zurück! Seit ich außerdem G-Sync und deutlich mehr als 60Hz kennengelernt habe, möchte ich darauf auch nicht mehr verzichten. Wenn Raytracing mich dann selbst mit der teuersten Karte auf 60 FPS drückt, dann ist das ein Ausblick in die Zukunft, mehr aber nicht. Obwohl doch, schöne Screenshots lassen sich damit anfertigen :-D

Aber spielen möchte ich so nicht...
 
Hat vor ein paar Jahren auch niemanden aufgehalten in reduzierten Details 4K zu spielen. Damit war die Grafik zwar hässlicher aber die Kanten waren scharf

High sieht halt nun mal immer noch sehr gut aus und performt anständig. Bei Raytracing macht im Moment alle anderen Regler außer der Raytracing-Regler ungefähr garnichts weil Raytracing der limitierende Faktor ist und das bei durchwachsenen FPS in 1080p. Ob jetzt Ultra + RT Low oder Low und RT Low. Der FPS-Gewinn ist quasi nicht vorhanden 1080p 144hz sieht im Moment zacken-duster aus. Ganz zu schweigen von > 1080p. Abgesehen davon, dass es sein kann, dass RT irgendwann kommt, nur eben scheinbar(!!!) nicht mit der RTX 2xxx Generation. Die Performance zu dem Preis in der Auflösung ist für viele Enthusiasten schon einfach nicht sonderlich ansprechend. Für die "normalen" Käufer erst recht nicht.
 
Also ich weiß nicht ... die RTX 2070 ist ja schon eigentlich nicht für Raytracing zu gebrauchen (30 FPS in 1080p O_o in Battlefield V). Was soll denn da eine weiter Karte mit noch weniger RT-Cores?
IMHO völlig unsinnig so eine RTX 2060.

Ja, genau wie wahrscheinlich bereits bei der 2070, bezahlt man nun für die 2060 Features, die nie effektiv zum Einsatz kommen werden, und dann ist Karte auch noch langsamer als eine 1070, wo doch normalerweise wenigstens eine neue GPU-Generation, die Alte um eine Versionsnummer und Leistungsstufe schlägt oder wenigstens gleichzieht (970-->1060/980Ti-->1080)....
Völliger Nonsens das Teil. :wall:

mfg
 
Zurück