Geforce RTX 2080 Ti: Raytracing-Performance in Shadow of the Tomb Raider (Off-screen-Gameplay)

The Good old Gamer hat es auf Youtube ganz gut auf den Punkt gebracht:
Nvidia hätte Turing auf die Quadros beschränken sollen, damit die Spielestudios sauber entwickeln können, bis die Spieler dann mit den 7nm GPUs genug Rechenpower an der Hand haben, um auch 1080p in 60+ fps mit Ray Tracing zu genießen.

Aktuell sind die Quadro und Gamer Chips bei Turing ja identisch - kein eigenes Design mehr mit mehr FP64 für die Profis.
 
@Rollora

Du wirfst den "Nörglern" vor, sie würden den klassischen Ablauf von neuen Techniken nicht verstehen, doch ich habe das Gefühl, dass du nicht verstehst, dass es dabei nicht um das Feature an und für sich geht, sondern um den Preis der Karte, der mit dem in den Kinderschuhen steckenden Feature verlangt wird. Hättest du meinen Beitrag richtig gelesen, wäre deine Antwort dementsprechend anders ausgefallen.

Die Kombination stimmt einfach nicht. Wir reden hier von 1200€+, nicht 120€.
Wenn die neue sich preislich in der selben Region wie seine Vorgänger befände, wäre das Thema erledigt. Da kommt dann Niemand daher und meckert darüber, dass ein neues Feature noch in den Kinderschuhen steckt und die Frames zusammenbrechen. Wenn das Ding mit 1200€ aber deutlich mehr als sein Vorgänger kostet aufgrund bzw. überwiegend wegen des in Kinderschuhen steckenden Features, dann meckert man sehr wohl. Es ist wie immer das Nehmen und Geben und das stimmt bei diesem Paket - zumindest bezogen auf die bisherigen Infos - einfach nicht.
 
Zuletzt bearbeitet:
@Rollora

Du wirfst den "Nörglern" vor, sie würden den klassischen Ablauf von neuen Techniken nicht verstehen, doch ich habe das Gefühl, dass du nicht verstehst, dass es dabei nicht um das Feature an und für sich geht, sondern um den Preis der Karte, der mit dem in den Kinderschuhen steckenden Feature verlangt wird. Hättest du meinen Beitrag richtig gelesen, wäre deine Antwort dementsprechend anders ausgefallen.

Die Kombination stimmt einfach nicht. Wir reden hier von 1200€+, nicht 120€.
Wenn die neue sich preislich in der selben Region wie seine Vorgänger befände, wäre das Thema erledigt. Da kommt dann Niemand daher und meckert darüber, dass ein neues Feature noch in den Kinderschuhen steckt und die Frames zusammenbrechen. Wenn das Ding mit 1200€ aber deutlich mehr als sein Vorgänger kostet aufgrund bzw. überwiegend wegen des in Kinderschuhen steckenden Features, dann meckert man sehr wohl. Es ist wie immer das Nehmen und Geben und das stimmt bei diesem Paket - zumindest bezogen auf die bisherigen Infos - einfach nicht.
Und du verstehst nicht, dass das eigentlich schon immer so war.
SSAA bei 3dfx - 4 Grafikchips konnten es nicht heben, es bedarfte einer zukünftigen Grafikkarte - dennoch kostete das Ding.
Shader? Dasselbe. Schön in 3D Demos, aber sobald im Spiel ordentlich aufgedreht ruckelte es auch auf der teuersten Karte.
Und bei den günstigsten? Ja da wars ne Diashow.
So war das mit so vielen Effekten in den letzten 20 Jahren.
VR? Ebenso: bis man ne ausreichend stabile Framerate in der aktuellen Auflösung hat und dann endlich in VR spielt merkt man: geht eigentlich gar nicht, dieses Fliegengitter vor der Nase.
Dann halt auf 4K warten. Aber hey, welche Karte schafft heute schon 2x90fps4K STABIL? Keine.
Usw usf.
Und jetzt eben auch wieder. Und die plötzliche Aufregung darum ist mir eben nicht ganz klar, wenn das schon immer der Lauf der Dinge war.

Ich befürworte die Preise keineswegs. Aber ich MUSS ja auch nix kaufen. Denn was immer der Lauf der Dinge ist: Technik ist zuerst teuer und wird dann immer günstiger. Ich mach halt inzwischen was anderes und irgendwann kann auch meine 200€ Karte das, was ich von ihr möchte. Wer aber natürlich seine Füße nicht stillhalten kann um auch auf die 7nm oder später Gen zu warten, der ist natürlich arm dran. Aber selber schuld

Darüber hinaus wird die GPU auch in traditionellen Rasterizing mehr Leisten. Also kann man sich immerhin damit trösten.

Ich persönlich hab den 4K, HDR und high FPS Trend abgewartet und muss auch nicht sofort auf RT aufspringen. Aber ich finde gut, dass ein neuer entfacht ist, somit kann ich ja vielleicht bald eine "günstige" 4K Karte kaufen, weil ja schon der nächste Trend geboren ist.

Ist wie bei den Bildschirmen. Kaum gabs HD, gabs auch schon 2K. Dann 4K, dann HDR, bald 8K. Und jedesmal beschweren sich die Leute, als würde das, was es bislang schon gibt plötzlich aussterben und nicht mehr funktionieren


Abgesehen davon sind die Preiserhöhungen linear mit der Performanceerhöhung PLUS viele neue Features Eine Performance-Prognose zu GeForce RTX 2070, 2080 & 2080 Ti | 3DCenter.org
 
Zuletzt bearbeitet:
@Rollora: Die neuen Karten sind aber im Grunde um Rayracing herum gebaut worden, das ist schon ein Unterschied wie ich finde zu Sachen wie Tesselation oder PhysX z.B.
Nvidia selbst hat ja das Feature auch absolut in den Vordergrund gestellt, man darf sich also schon Fragen was die sich dabei gedacht haben wenn die Effekte derart massiv Leistung kosten. Man hätte sich in dieser Gen auch erstmal auf das DLAA konzentrieren können, das scheint mir das wesentich sinnigere Feature zu sein als die RayTracing Effekt selbst.
 
Und du verstehst nicht, dass das eigentlich schon immer so war.
SSAA bei 3dfx - 4 Grafikchips konnten es nicht heben, es bedarfte einer zukünftigen Grafikkarte - dennoch kostete das Ding.
Shader? Dasselbe. Schön in 3D Demos, aber sobald im Spiel ordentlich aufgedreht ruckelte es auch auf der teuersten Karte.
Und bei den günstigsten? Ja da wars ne Diashow.
So war das mit so vielen Effekten in den letzten 20 Jahren.
VR? Ebenso: bis man ne ausreichend stabile Framerate in der aktuellen Auflösung hat und dann endlich in VR spielt merkt man: geht eigentlich gar nicht, dieses Fliegengitter vor der Nase.
Dann halt auf 4K warten. Aber hey, welche Karte schafft heute schon 2x90fps4K STABIL? Keine.
Usw usf.
Und jetzt eben auch wieder. Und die plötzliche Aufregung darum ist mir eben nicht ganz klar, wenn das schon immer der Lauf der Dinge war.

Ich befürworte die Preise keineswegs. Aber ich MUSS ja auch nix kaufen. Denn was immer der Lauf der Dinge ist: Technik ist zuerst teuer und wird dann immer günstiger. Ich mach halt inzwischen was anderes und irgendwann kann auch meine 200€ Karte das, was ich von ihr möchte. Wer aber natürlich seine Füße nicht stillhalten kann um auch auf die 7nm oder später Gen zu warten, der ist natürlich arm dran. Aber selber schuld

Darüber hinaus wird die GPU auch in traditionellen Rasterizing mehr Leisten. Also kann man sich immerhin damit trösten.

Ich persönlich hab den 4K, HDR und high FPS Trend abgewartet und muss auch nicht sofort auf RT aufspringen. Aber ich finde gut, dass ein neuer entfacht ist, somit kann ich ja vielleicht bald eine "günstige" 4K Karte kaufen, weil ja schon der nächste Trend geboren ist.

Ist wie bei den Bildschirmen. Kaum gabs HD, gabs auch schon 2K. Dann 4K, dann HDR, bald 8K. Und jedesmal beschweren sich die Leute, als würde das, was es bislang schon gibt plötzlich aussterben und nicht mehr funktionieren


Abgesehen davon sind die Preiserhöhungen linear mit der Performanceerhöhung PLUS viele neue Features Eine Performance-Prognose zu GeForce RTX 2070, 2080 & 2080 Ti | 3DCenter.org

2K?^^
 
Verstehe wer will.
Da bekommt die Aussage " ... etwas noch nie dagewesenes ..." eine gewisse Bedeutung.
Wenn RT soviel Performance kostet und nur an einer Hand abzählbare Games damit überhaupt umgehen können, siehts m.M.n. nach einem Flop RTX aus.
Da besteht vielleicht ein kausaler Zusammenhang, warum immer noch 1080/1080Ti hergestellt werden!

Warten wir mal die Tests ohne RT-Belastete Games ab.
Es sollte dann doch was merklich besseres als 30Fps in FHD rauskommen.
Wenn eine 2070 über dem Niveau einer Titan XP sich einsortieren soll, na ja, offiziell nur mit anwendbarem RT, sind die Erwartungen etwas zwielichtig!
Aber das ist nur meine Sicht der Dinge, deswegen ala Rudi Carrell, " Laß dich überraschen!".


(Guido Maria Kretschmar, der Mann, der aus der DB Schlumpfhausen macht, mit roten Schlumpfienenmützen.)

Eigentlich eine Frechheit der Preis für eine 2000 Serie von Nvidia. Nur wegen den Chip oder Ram. Denn die Technik gab es schon ewig hier mal ein link und es kam nicht von Nvidia Raytracing-Beschleuniger von Imagination Technologies | heise online
 
Zurück