Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Ganz genau, in RL ist RT noch recht unverbreitet und durch Nvidias Herangehen fürchte ich, wird sich das so schnell auch nicht ändern. Leider gibt es zu Viele, die diese Monetarisierungsstrategie unterstützen.^^

MfG
https://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Raytracing-Games-1371273/

Joah, sind schon einige AAA Games dabei. Und jetzt kommst Du mit "ja aber die drölfzig Indie Games"... Die werden auch irgendwann umschwenken wenn deren Entwicklungszeit nicht mehr 10+ Jahre ist.
 
Du arbeitest im Gegensatz zu NVidia natürlich für lau.

Komm bitte vorbei, bei mir müsste mal ausgemistet werden und der Garten braucht auch dringend einen motivierten Arbeiter.
Nach der Logik hätte ja Nvidia vor 3 Jahren kein Geld verdient oder sind die Produktionskosten etwa um den gleichen Faktor gestiegen wie die "Leistung" also 4? Ich glaube nicht, denn genau so wie die "reale" Leistung sind auch die realen Produktionskosten lediglich im üblichen Inflationsrahmen gestiegen.^^

MfG
https://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Raytracing-Games-1371273/

Joah, sind schon einige AAA Games dabei. Und jetzt kommst Du mit "ja aber die drölfzig Indie Games"... Die werden auch irgendwann umschwenken wenn deren Entwicklungszeit nicht mehr 10+ Jahre ist.
Schön das du anderen Wörter in den Mund legst und darauf dann sogar noch eingehst. Ich finde das ehrlich gesagt ein bisschen verrückt...^^ :ugly:

MfG
 
Nach der Logik hätte ja Nvidia vor 3 Jahren kein Geld verdient oder sind die Produktionskosten etwa um den gleichen Faktor gestiegen wie die "Leistung" also 4? Ich glaube nicht, denn genau so wie die "reale" Leistung sind auch die realen Produktionskosten lediglich im üblichen Inflationsrahmen gestiegen.^^

MfG

DLSS wird also nicht weiter entwickelt, es arbeiten keine hunderte Programmierer daran und es läuft auch kein neuronales Netz mehr um es weiter zu trainieren. Na dann kann NV das ja auch für lau raushauen... :schief:

Schön das du anderen Wörter in den Mund legst und darauf dann sogar noch eingehst. Ich finde das ehrlich gesagt ein bisschen verrückt...^^ :ugly:

MfG
Du sagtest:
Ganz genau, in RL ist RT noch recht unverbreitet und durch Nvidias Herangehen fürchte ich, wird sich das so schnell auch nicht ändern.

worauf ich eine Liste mit RT Games gezeigt habe. In der Regel kommt dann das Argument der tausend Steam-Indie-Games pro Tag die ohne RT kommen.
 
2013. Vor fast 10 (!!!) Jahren. Inflation - ignoriert, Euro-Dollar Kurs - ignoriert, technischer Fortschritt und höhere Kosten - ignoriert. :daumen:
Lustig, inkl. Umrechnung und Inflation landet die Titan bei 1.542 EUR :ugly:

Es werden weiterhin keine Details dazu erfunden.
Natürlich wird da etwas erfunden!

Stimmt, wer den neuen "heißen shice" will der kauft NVidia. Wer sich mit weniger zufrieden gibt kauft eben AMD. Ich seh da kein Problem.
:wall::wall::wall:
Macht diskutieren hier Sinn? Eher nein! Wobei "heiß" trifft es ja ganz gut !

Du kannst auf allen Karten RT aktivieren. Schaltest halt DLSS dazu und nimmst nicht die höchste RT Stufe. Wo Problem?
Das Problem? Ernsthaft? DLSS ist zweifelsohne ein brauchbares Tool, aber die RT Leistung einer 2080 ist genau wie gut? Die RT Leistung einer 3050 ist genau wie zu gebrauchen? Da kannst du DLSS zuschalten wie du willst, die fps sind wenig bis gar nicht brauchbar, außer du schaltest dann alles runter was geht. Aber der optische Zugewinn durch RT ist nunmal immer noch extrem gering und sobald du nur eine Textur runterdrehst, ist es nunmal tausendmal sinnvoller auf RT zu verzichten, denn auf diese Textur!
 
Lustig, inkl. Umrechnung und Inflation landet die Titan bei 1.542 EUR :ugly:
Weiterhin keine Einrechnung von Forschungs- und Produktions-Kosten. TSMC verlangt mehr für Wafer als man vor 10 Jahren bezahlt hat.

Natürlich wird da etwas erfunden!
Was wird da zusätzlich erfunden? Frames sind alles "erfundene" Darstellungen von Berechnungen.
Erkläre mir bitte den Unterschied den es ausmacht ob ein Frame auf den Shadern oder Tensor Cores berechnet wurde.

:wall::wall::wall:
Macht diskutieren hier Sinn? Eher nein! Wobei "heiß" trifft es ja ganz gut !
Die 4080er Karten werden gar nicht so heiß, vermutlich noch weniger als meine 3080 die noch nie über 70° gekommen ist trotz "alle Regler rechts" Einstellung.

Das Problem? Ernsthaft? DLSS ist zweifelsohne ein brauchbares Tool, aber die RT Leistung einer 2080 ist genau wie gut? Die RT Leistung einer 3050 ist genau wie zu gebrauchen? Da kannst du DLSS zuschalten wie du willst, die fps sind wenig bis gar nicht brauchbar, außer du schaltest dann alles runter was geht. Aber der optische Zugewinn durch RT ist nunmal immer noch extrem gering und sobald du nur eine Textur runterdrehst, ist es nunmal tausendmal sinnvoller auf RT zu verzichten, denn auf diese Textur!

Aber sicher, red es Dir ruhig ein. Das macht es nicht zu einem Fakt:

1080p, RT Ultra, mit FSR 1.0 Ultra Quality:
1664369765560.png


DLSS Quality würde hier mehr FPS liefern.
 
Und ich habe noch eine GTX 1070 Ti im Rechner gepaart mit einer 5800x CPU von AMD. ?
So wie es aussieht, wird es wohl auch so bleiben.
Mal ehrlich, Nvidia hat sie doch nicht mehr alle, Grafikkarten zu solchen Preisen anzubieten. Um ein paar popelige Games zu spielen ist das echt zu viel Geld. So kann einem sein Hobby kaputt gemacht werden. ?‍♀️
 
Zuletzt bearbeitet:
Weiterhin keine Einrechnung von Forschungs- und Produktions-Kosten. TSMC verlangt mehr für Wafer als man vor 10 Jahren bezahlt hat.
Und eine Titan hat keine F&E gehabt? Außerdem reicht ein kurzer Blick in Nvidias zahlen um zu wissen, dass Produktionskosten zu 100% nicht so gestiegen sind wie die Preise.
Was wird da zusätzlich erfunden? Frames sind alles "erfundene" Darstellungen von Berechnungen.
Erkläre mir bitte den Unterschied den es ausmacht ob ein Frame auf den Shadern oder Tensor Cores berechnet wurde.
Frames die nativ berechnet werden stellen das dar was im Abtastraster zum Zeitpunkt X vorgelegen hat. Beim DLSS hast du das eben nur noch bedingt. Dort wird letzten Endes eine Prädiktion bestimmen wie gewisse Pixel aussehen und nicht mehr das was zum Zeitpunkt X tatsächlich abtastbar ist. Insofern ist "erfunden" durchaus vertretbar.
Wenn man hingegen meint Objekte seien Erfunden worden ist das schwachsinn.
 
Weißt du wann ich das letzte mal in Full HD gespielt habe? Muss so 2013 gewesen sein! In etwas gescheiterer Auflösung (2560*1440) wird das ganze nämlich schon extrem zäh:

1664374071566.png

Hier schafft eine 2080 Super mit DLSS Quality 27,1 fps (Perzentil).

Sinnvoll nutzbar auf einem qualitativ hohen, wenn auch nicht perfekten Niveau ist Raytracing in Cyberpunk 2077 entsprechend ab einer GeForce RTX 2080 Super oder einer GeForce RTX 3060 Ti. Auch langsamere Grafikkarten bis hinab zur GeForce RTX 2060 Super können RT in dem Spiel flüssig darstellen, es müssen dann aber qualitative Verluste an anderer Stelle in Kauf genommen werden. Raytracing ohne Einschränkungen bis hinauf zu WQHD ist mit einer GeForce RTX 2080 Ti oder mindestens einer GeForce RTX 3070 möglich. Ist Ultra HD die Zielauflösung, sollte es bei RT Ultra gleich eine GeForce RTX 3090 sein, RT Mittel läuft ab einer GeForce RTX 3080 ordentlich.
Damit dürfte meine Aussage zumindest mal belegt sein, dass eine ganze Menge der Karten eben nicht ausreichen um RT sinnvoll einzusetzen. Du sprachst von über 20% der Karten die RT können, ich sprach davon, dass viele der Karten nicht ausreichend sind um RT auch sinnvoll einzusetzen. Wenn wir dem Fazit eines anderen Magazins einfach mal Glauben schenken, sind es plötzlich unter 10% der Karten die es wirklich nutzen können, bei allen anderen muss man für RT auf anderes verzichten und dann wird irgendwie für mich einfach kein Schuh draus, ist ungefähr so als wenn ich ein Elektroauto kauf und dann nur 70 PS hab, macht irgendwie kein Spaß!


und es bleibt anscheinend bei 1 pro GPU
ist hier nicht von einer potenziellen 7950XT mit zweien die Rede gewesen?
CPUs mit GPUs vergleichen ist aber eh Unsinn.
Null verstanden, es ging nicht um den Vergleich von A und B, es ging darum zu zeigen, dass ein Hersteller zehn Jahre lang führend sein kann und vieleicht auch gar nicht mehr gewohnt ist, das Maximum herauszuholen, weil man sich ausgeruht hat und die 10-15% Mehrleistung je Gen gereicht haben.

mit den Shadern wird vermutlich kein revolutionärer Schnellkochtopf
Nochmal der Verweis auf RDNA 1 und RDNA 2, beides sind Modelle die grds. keine groben Abweichungen erkennen lassen, dennoch gab es eine Explosion in Sachen Leistung und Effizienz. Aktuell geht vieles im Bereich des PCs über die Effizienz (da man dann nochmal an der Schraube drehen kann und mehr Leistung holen wird), da sage ich, dass die 4xxxer Karten kein großer Wurd sind, 25% haben wir an anderer Stelle schonmal gerechnet, was ziemlich wenig ist für einen Fertigungsschritt von 8nm auf 4nm. Wenn AMD die 15-20% aus der Fertigung (hier ja nur von 7 auf 5) konsequent mitnimmt, würde das schon reichen um im Punkt Effizienz gleichzuziehen, wenn dann noch ein Schritt ala RDNA 1 auf 2 kommt, (wo es reichlich 50% waren) wird es im schlimmsten Fall eine 6950XT mit 225W geben (womit mal mind. 4080 16GB Niveau gemeint ist).
Die Gerüchte geben es zumindest her, fraglich bleibt nur ob in der Spitze die 4090 angegriffen werden kann, die aber wohl für 99% der User eher unereichbar teuer ist!
 
Weißt du wann ich das letzte mal in Full HD gespielt habe? Muss so 2013 gewesen sein! In etwas gescheiterer Auflösung (2560*1440) wird das ganze nämlich schon extrem zäh:

Anhang anzeigen 1403613
Hier schafft eine 2080 Super mit DLSS Quality 27,1 fps (Perzentil).
Schön ohne Angabe der Einstellungen. :daumen:

Witzlos so ein cherry-picking. Der Großteil der Spieler zockt noch in 1080p, Deine persönlichen Anforderungen haben nichts, null, nada damit zu tun was ich gesagt habe.

1664375354131.png


Fakt bleibt: bereits ab einer 2060 kann man RT einschalten und bekommt spielbare FPS raus. Das hast Du ja als "unmöglich" dargestellt.

1080p, RT Mittel, Details Mittel, DLSS Quality/Balanced wird schon gehen.


ist hier nicht von einer potenziellen 7950XT mit zweien die Rede gewesen?
Bisher nur als Gerücht, nichts bestätigt meines Wissens nach.

Null verstanden, es ging nicht um den Vergleich von A und B, es ging darum zu zeigen, dass ein Hersteller zehn Jahre lang führend sein kann und vieleicht auch gar nicht mehr gewohnt ist, das Maximum herauszuholen, weil man sich ausgeruht hat und die 10-15% Mehrleistung je Gen gereicht haben.
Höre ich seit 4+ Jahren bei jedem AMD GPU Release. Ich wünsche es AMD, bisher ist das alles Träumerei gewesen. Bei den CPUs hat es auch bis Zen3 gedauert bis man in der Single-Thread-Leistung aufschliessen konnte.
 
RDNA2 verschlafen?
RT + DLSS ignoriert? Ja, AMD hat in der Rasterleistung aufgeholt, keine Frage. Aber nicht überflügelt...


Naja, bei Intel braucht man auch 5 Generationen um MC wieder mithalten zu können; 9xxx, 10xxx, 11xxx, 12xxx und erst 13xxx wird im Consumerbereich im MC mithalten
Lassen wir am besten die Quervergleiche, die machen wie gesagt wenig Sinn. Nvidia ist nicht Intel.
 
1080p, RT Mittel, Details Mittel, DLSS Quality/Balanced wird schon gehen.
Das stimmt!

Ich habe aber nie behauptet, dass es nicht geht, sondern habe gesagt "sinnvoll nutzen" ist ein großer Unterschied. RT Mittel bringt in meinen Augen (subjektiv, aber da stehe ich durchaus nicht alleine da, sondern werde in der Regel von den Magazinen in meiner Meinung bestärkt) nichts, RT Ultra sieht an manchen Stellen wirklich gut aus, aber RT Mittel hat in Cyberpunk keinen Flair.
DLSS ist in meinen Augen auch nur Quality wirklich zu empfehlen, Balanced ist schon grenzwertig.
Details Mittel halte ich gar nix von.

In Cyberpunkt dann doch lieber Details Ultra, RT aus! Sieht besser aus und bringt mehr optisches auf den Bildschirm als alles auf Mittel und sollte mit den meisten Karten in Full HD dann wirklich sauber laufen.
Aber nicht überflügelt...
Sichtweisenabhängig!
AMD ist nicht schneller, aber sparsamer!
 
Das stimmt!

Ich habe aber nie behauptet, dass es nicht geht, sondern habe gesagt "sinnvoll nutzen" ist ein großer Unterschied. RT Mittel bringt in meinen Augen (subjektiv, aber da stehe ich durchaus nicht alleine da, sondern werde in der Regel von den Magazinen in meiner Meinung bestärkt) nichts, RT Ultra sieht an manchen Stellen wirklich gut aus, aber RT Mittel hat in Cyberpunk keinen Flair.
DLSS ist in meinen Augen auch nur Quality wirklich zu empfehlen, Balanced ist schon grenzwertig.
Details Mittel halte ich gar nix von.

In Cyberpunkt dann doch lieber Details Ultra, RT aus! Sieht besser aus und bringt mehr optisches auf den Bildschirm als alles auf Mittel und sollte mit den meisten Karten in Full HD dann wirklich sauber laufen.

Auf einer 2060?

1664376320475.png


1664376353581.png



Schaltet man auf RT High und DLSS Quality/Balanced ein dann ist man bei ungefähr den FPS vom reinen Rasterizing, inklusive Details High (und nicht Ultra)...
 
Sitz gerade nicht an meinem PC, aber RT High in Cyberpunk? Ich hab gerade nur Ultra und Medium gefunden.

Aber egal, lass uns die Diskussion, die allen anderen hier auf den Keks gehen dürfte, beenden. Du wirst RT als geilen Scheiß in Erinnerung behalten und man wird dich nicht von den Nachteilen überzeugen können. Genauso wirst du meine aktuelle Meinung nicht groß ändern können. Egal wie lange wir noch uns gegenseitig zutexten, aber jemand der entgegen aller anderen Meinungen (Fachwelt und Co.) weiterhin die Ansicht hat, dass RT High, Full HD und eine 2060 mit DLSS Balanced eine gute Idee ist, den kann man einfach nicht davon überzeugen, dass dies leider vollständiger Käse ist!

Wie gesagt, sage ich das ganz ohne Vorbehalte gegenüber DLSS, was ich in der Quality Variante wirklich gut finde und für nahezu alle NV Karten wirklich wichtig ist. Gegenüber RT habe ich da so meine Meinung, ja es kann optisch etwas ausmachen, in meinen Augen ist dies aber oftmals (vor allem alles unter Ultra) nicht besser als mit aus, nur eben an mancher Stelle anders! Dafür kostet es dann aber eben einfach zu viel Leistung. Mit den 4xxx Karten kann RT dann so langsam wirklich ankommen, die Spitzenmodelle der 3er Varianten haben es in meinen Augen dann schon oftmals brauchbar hinbekommen. Hier hat AMD jedenfalls noch sehr viel Arbeit vor sich, zum einen wird RT immer wichtiger werden, zum anderen wird DLSS leider auch immer wichtiger (oder FSR oder Intels Derivat). Auch wenn ich von solchen Upscalern grds. kein großer Freund bin, nativ ist halt immer noch am besten, aber DLSS hat sich seit Version 2 und FSR ja eigentlich auch, wirklich gemausert, so dass ich dies bisher akzepatbel empfinde, auch wenn ich es eigentlich vor allem auf MidRange Karten sehe und nicht wirklich im High End (außer um die Lebensdauer zu verlängern)
 
Haben die neune Karten so wenig Power/Performance, da sie jetzt Upscaling machen?
Upscaling hat doch nur bei Einsteiger und Mittelklasse Sinn.
Ich muss jetzt mal fragen: Hast du die letzten paar Jahre unter einem Stein geschlafen? :confused:

Upscaling ist doch nicht nur bei Einsteiger- und Mittelklassekarten sinnvoll. DLSS und FSR bieten - je nach Auflösung und Stufe - vergleichsweise gute Bildqualität bei deutlichem Performancegewinn. Gerade DLSS punktet hier nicht selten mit top Bildqualität. Das ist auch für High End-Klassen durchaus sinnvoll. Gerade wenn es um leistungsfressendes RT geht.

Und für dich als GTX1080Ti-Besitzer wäre zumindest FSR mit Sicherheit einen Blick wert.

PS: Da Downsampling, wovon du sprachst, schon gut Leistung zieht, wäre eine leistungsstarke Karte von Vorteil. ;)
 
AMD kann das auch nicht lösen. Wir sprechen hier von Vollbild-Raytracing, das Nvidia zeigt und mittels DLSS 3 um den Fps-Faktor 4 aufblasen kann. Diese Sprünge sind mit reiner Hardware-Power nicht mal eben möglich. Gewöhn dich besser an Upsampling, das bleibt und wird immer besser. :-)

MfG
Raff
Trotzdem muss man dies nicht unbedingt für gut befinden. Das Nvidia darüber hinaus DLSS3 den 4000er Karten vorbehält ist die allergrößte Frechheit :schief:
 
Zurück