News DLSS 3.5: Nvidia gibt neues DLSS-Upgrade für alle RTX-GPUs frei

Mit DLSS kommt dann ein Feature, dass nur für die nächste Generation verfügbar ist. Nvidia mag geplante Obsoleszenz sehr gern.
 
Für die verschiedenen LODs gibt es Mods. Klar ist eine offizielle Lösung besser, aber immerhin lässt sich nachhelfen.

Wird man wohl im DLC bzw. mit dem neusten Patch auch weiterhin benötigen.

Habe mir heute etwas Gameplay angeschaut und das Pop In ist immer noch genau so vorhanden :(

Keine Ahnung ob es so dann released wird bzw. wie die Settings waren. Sollte es aber so erscheinen, hilft auch das beste Raytracing, DLSS, FG und co. nicht. Sowas zerstört einfach die Atmosphäre vom Game.
 
Ich erinnere mich damals an viele Diskussionen
2018, die RTX Serie kam

a) niemand braucht RT, sieht teils schlechter aus als Rastern und frisst zu viel Performance
b) niemand braucht DLSS sieht schlechter aus als nativ

Ich bin kein Early Adopter aber mir war klar, dass es DLSS oder ähnliches braucht um RT den notwendigen Schub zu geben und, dass es RT braucht für grafischen Fortschritt. Aber die Spiele von damals waren halt auch nur Rasterspiele mit RT drangepappt und somit war der Effekt teilweise lächerlich überschaubar. Reflexionen halt.
Aber die Zeit und die Algorithmen haben sich weiterentwickelt. Mit der 4090 hat man endlich genug Power Raytracing vorwärts zu bringen, in ein paar Jahren ist so eine Karte hoffentlich auch leistbar und die nächste Konsolengeneration hat hoffentlich auch genug Power (am besten doppelte 4090 RT Leistung) . DANN wird Raytracing endlich ein massenphänomen und niemand mehr wird sagen "RT und AI Upscaling braucht niemand"
Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer ist. Kenne nicht mal persönlich jemanden der 4000er karte hat dümpeln alle bei 1er und 2er reihe noch rum^^

Foren sind immer noch nicht die masse :D

Was bringt es wenn die 4090 genug leistung hat gefühlt den rest kannst in tonne kloppen. mit 6090 gibts dann Rt super duper potter wo dann die alten wieder zu schwach sind. Die sollen lieber mal lösungen bringen wo die masse auch hat so geht das nur langsam vorwärts.

Marketing läuft aufjedenfall Super bei das merkt man :P
 
Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer sind
Ich hatte in meinen bisherigen Titeln Raytracing immer aktiviert, dabei nutze ich nur eine RTX 3060.
Es handelte sich um relativ alte Games wie Metro EE oder Shadow of the Tomb Raider. Auch in Cyberpunk ist es mir die geringere Performance bisher wert, zur Not mit DLSS balanced und Raytracing auf mittel.
Im Singleplayer braucht man keine allzu hohe Bildrate.
 
Zuletzt bearbeitet:
Wo sage ich dass der Funktionsumfang dafür verantwortlich ist?
So, wie du es beschrieben hast, hast du impliziert, dass Ampere Karte nicht in der Lage wären DLSS+FG zu bieten.


Was meinst Du mit RTX API? Etwa BEVOR es die RT-Erweiterung in DirectX gab?
Ja, genau.

RTX Voice ist ja wohl nicht vergleichbar mit den Anforderungen für komplett KI-berechnete Frames innerhalb weniger Millisekunden... :schief:
Es geht nicht um technische Details, sondern...

Deine Beispiele sind beide sowas von an den Haaren herbeigezogen und absolut nicht vergleichbar. Natürlich entwickelt Nvidia ihre Features erst mal für die aktuelle Gen und schaut dann ob es auf älteren Karten läuft. Das ist einfach nur logisch. Wie "RTX" auf Pascal performed wissen wir alle, diese Freigabe hätten sie sich sparen können.
...darum, dass Nvidia künstlich Features beschränkt und dabei auch nicht zurück schreckt zu lügen (RTX Voice nutze Tensor Kerne). Dementsprechend kannst du dir sparen Nvidia zu verteidigen.
Ob die Leistung von GTX Karten reicht oder nicht, sollte jeder für seinen Anwendungsfall selbst entscheiden können.
 
So, wie du es beschrieben hast, hast du impliziert, dass Ampere Karte nicht in der Lage wären DLSS+FG zu bieten.

Dann trete doch den Gegenbeweis an, sollte ja kein Problem sein. Aktuell ist mein Stand: FG funktioniert nur auf Ada aufgrund der besseren OFA.



Und was hätte Nvidia Deiner Meinung nach tun sollen? Sie haben eine eigene API geschrieben um RTX Features in Spielen zu ermöglichen. Zu dem Zeitpunkt HATTE AMD KEINE RT-Accelerators (wir sprechen hier von RDNA1).

Davon abgesehen ist eine Nvidia-spezifische "RTX-API" sehr sicher nicht nutzbar auf RT-Einheiten eines anderen Herstellers.

Somit ist Dein Argument kompletter Unsinn, selbst wenn die "RTX-API" offen gewesen wäre, niemand hätte sie nutzen können. Außerdem musste Nvidia damals Pionierarbeit leisten und den Entwicklern bei der Integration helfen.

Und wenn Du jetzt kommst und sagst "Nvidia hätte die API ja AMD kompatibel machen können" lache ich mal herzlich und laut.

Es geht nicht um technische Details, sondern...


...darum, dass Nvidia künstlich Features beschränkt und dabei auch nicht zurück schreckt zu lügen (RTX Voice nutze Tensor Kerne). Dementsprechend kannst du dir sparen Nvidia zu verteidigen.
Ob die Leistung von GTX Karten reicht oder nicht, sollte jeder für seinen Anwendungsfall selbst entscheiden können.

Nö, spare ich mir nicht. Wenn ich ein neues Feature für unsere Software entwickle, dann release ich das erst wenn es gut läuft. Sonst bekomme ich diverse Bug-Meldungen und darauf hat niemand Lust.

Was also wenn FG auf Ampere Karten mehr Probleme (deutlich höherer Input Lag, Frame Drops, etc.) macht? Das Feature wäre DOA. Oder kannst Du den Gegenbeweis antreten?

Nur weil Nvidia mal geflunkert hat (RTX Voice) heißt das nicht dass sie immer und überall flunkern. Oder unterstellst Du AMD auch aufgrund des Bulldozer-Falls immer zu flunkern was die Anzahl der Cores angeht?
 
Nur weil Nvidia mal geflunkert hat (RTX Voice) heißt das nicht dass sie immer und überall flunkern.
Stimmt schon, aber wenn man einmal lügt sind beim nächsten mal halt zweifel da.


Oder unterstellst Du AMD auch aufgrund des Bulldozer-Falls immer zu flunkern was die Anzahl der Cores angeht?
Auch wenn viele sich darüber immer aufgeregt habe kann ich das nicht verstehen, wäre doch egal gewesen wenn die Leistung und der Stromverbrauch gut gewesen wären oder ?

Mal davon ab egal ob Nvidia AMD oder Intel ganz ehrlich ist sowieso keiner von denen wenn sie meinen das würde den profit erhöhen.
 
Stimmt schon, aber wenn man einmal lügt sind beim nächsten mal halt zweifel da.

Zweifel sind ja Ok, aber hier wird es als Fakt dargestellt dass Frame Generation auch auf Ampere laufen würde. Ohne jeglichen Beweis. "Ist so weil Nvidia bei RTX Voice auch gelogen hat". Tolles Argument, leider invalid.

AMD wird uns ja vielleicht bald zeigen dass ihre Frame Generation auf RDNA3 und RDNA2 läuft, und zwar genau so performant und qualitativ gleichwertig. Dann nehme ich alles zurück und behaupte das Gegenteil. :D


Auch wenn viele sich darüber immer aufgeregt habe kann ich das nicht verstehen, wäre doch egal gewesen wenn die Leistung und der Stromverbrauch gut gewesen wären oder ?
Es geht um das Prinzip der "Sippenhaft". Irgendwer lügt, und das bedeutet dass alle weiteren Aussagen auch gelogen sein sollen. Da ist es völlig egal welches Beispiel ich bringe, jeder Hersteller hat mal geflunkert und somit tätigt keiner mehr valide Aussagen, wenn man der Logik folgt.

Mal davon ab egal ob Nvidia AMD oder Intel ganz ehrlich ist sowieso keiner von denen wenn sie meinen das würde den profit erhöhen.
Korrekt.
 
Dann trete doch den Gegenbeweis an, sollte ja kein Problem sein. Aktuell ist mein Stand: FG funktioniert nur auf Ada aufgrund der besseren OFA.
Dem Wortlaut nach kann man der Logik folgen, dass die (mangelnde) Leistung eine Rolle spielt.

Und was hätte Nvidia Deiner Meinung nach tun sollen? Sie haben eine eigene API geschrieben um RTX Features in Spielen zu ermöglichen. Zu dem Zeitpunkt HATTE AMD KEINE RT-Accelerators (wir sprechen hier von RDNA1).

Davon abgesehen ist eine Nvidia-spezifische "RTX-API" sehr sicher nicht nutzbar auf RT-Einheiten eines anderen Herstellers.

Somit ist Dein Argument kompletter Unsinn, selbst wenn die "RTX-API" offen gewesen wäre, niemand hätte sie nutzen können. Außerdem musste Nvidia damals Pionierarbeit leisten und den Entwicklern bei der Integration helfen.

Und wenn Du jetzt kommst und sagst "Nvidia hätte die API ja AMD kompatibel machen können" lache ich mal herzlich und laut.
Es ging mir nicht um AMD, sondern um GTX Karten.

Nö, spare ich mir nicht. Wenn ich ein neues Feature für unsere Software entwickle, dann release ich das erst wenn es gut läuft. Sonst bekomme ich diverse Bug-Meldungen und darauf hat niemand Lust.
Dein Kommentar entbehrt nicht einer gewissen Ironie, da RTX Voice über Mods lauffähig gemacht wurde und Nvidia daraufhin dieses Feature bis zur GTX600 freigeschaltet hat. Als ich RTX Voice mit meiner Karte Jahre später testen wollte, ist die Software von Nvidia grundsätzlich beim Starten abgestürtzt. Das gleiche ist bei Freunden passiert (z.T. mit anderen Karten). So viel zu deinem zweiten Versuch Nvidia zu verteidigen.


Was also wenn FG auf Ampere Karten mehr Probleme (deutlich höherer Input Lag, Frame Drops, etc.) macht? Das Feature wäre DOA. Oder kannst Du den Gegenbeweis antreten?
Das kann man nur spekulieren. PCGH hat bei der 4090 beobachtet, dass bei sehr hohen Fps FG bremsen kann. Wie die Leistung von Ampere Karten bei FG in der Praxis ausfällt, ist ohne Info von Nvidia kaum einzuschätzen. Der Fakt, dass Ampere Hardwareeinheiten dafür bereits hat, kann darauf hindeuten, dass das Marketing den Nachteil zu einem Vorteil zu verwandeln versucht, in dem man FG nur für Ada Karten freischaltet, nachdem es möglicherweise für Ampere nicht rechtzeitig fertig wurde, oder die Performance falsch eingeschätzt wurde oder oder oder.

Nur weil Nvidia mal geflunkert hat (RTX Voice) heißt das nicht dass sie immer und überall flunkern. Oder unterstellst Du AMD auch aufgrund des Bulldozer-Falls immer zu flunkern was die Anzahl der Cores angeht?
Ich prangere an, dass Nvidia Software Features an Hardware knüpft, ohne dass es immer eine technische Notwendigkeit gibt. Wieso man das als Kunde verteidigen sollte, entzieht sich mir.

Um AMD geht es hier nicht, deswegen nur kurz bemerkt, dass die bei Bulldozer immerhin mit offenen Karten gespielt haben und "nur" bei ihrer Definition, was Kerne sind, sich zu weit aus dem Fenster gelehnt haben. Der Funktionsumfang der Kerne war öffentlich bekannt.
 
Dem Wortlaut nach kann man der Logik folgen, dass die (mangelnde) Leistung eine Rolle spielt.

Es ging mir nicht um AMD, sondern um GTX Karten.

Dein Kommentar entbehrt nicht einer gewissen Ironie, da RTX Voice über Mods lauffähig gemacht wurde und Nvidia daraufhin dieses Feature bis zur GTX600 freigeschaltet hat. Als ich RTX Voice mit meiner Karte Jahre später testen wollte, ist die Software von Nvidia grundsätzlich beim Starten abgestürtzt. Das gleiche ist bei Freunden passiert (z.T. mit anderen Karten). So viel zu deinem zweiten Versuch Nvidia zu verteidigen.


Das kann man nur spekulieren. PCGH hat bei der 4090 beobachtet, dass bei sehr hohen Fps FG bremsen kann. Wie die Leistung von Ampere Karten bei FG in der Praxis ausfällt, ist ohne Info von Nvidia kaum einzuschätzen. Der Fakt, dass Ampere Hardwareeinheiten dafür bereits hat, kann darauf hindeuten, dass das Marketing den Nachteil zu einem Vorteil zu verwandeln versucht, in dem man FG nur für Ada Karten freischaltet, nachdem es möglicherweise für Ampere nicht rechtzeitig fertig wurde, oder die Performance falsch eingeschätzt wurde oder oder oder.

Ich prangere an, dass Nvidia Software Features an Hardware knüpft, ohne dass es immer eine technische Notwendigkeit gibt. Wieso man das als Kunde verteidigen sollte, entzieht sich mir.

Um AMD geht es hier nicht, deswegen nur kurz bemerkt, dass die bei Bulldozer immerhin mit offenen Karten gespielt haben und "nur" bei ihrer Definition, was Kerne sind, sich zu weit aus dem Fenster gelehnt haben. Der Funktionsumfang der Kerne war öffentlich bekannt.

Nein, Du prangerst an dass Frame Generation auf Ampere laufen würde. Das war Deine Aussage:

Dennoch gibt es keinen Hinweis, dass die Umsetzung von FG durch den Funktionsumfang der Recheneinheiten eingeschränkt wurde, sondern rein der Leistung wegen. Edit: ninja'd von @Krabonq
Dieses Vorgehen ist bei Nvidia nicht neu, dass sie Features einfach softwareseitig sperren, siehe RTX Voice und die RTX API Erweiterung. Beides wurde irgendwann später für Pascal freigegeben, obwohl man zum Launch von Turing erklärt hat, es gebe eine Hardwareanforderung für beides.

Und dazu hast Du keinen Beleg. Du setzt einfach vorraus dass Nvidia FG nur auf Ada freigegeben hat um den Karten ein Alleinstellungsmerkmal zu geben, weil Nvidia nicht bewiesen hat dass FG auf Ampere nicht gut laufen würde. Das nennt man Beweislastumkehr und da bin ich raus. Nach dieser Logik kann ich die wildesten Theorien aufstellen mit der Argumentation dass der Hersteller nicht das Gegenteil bewiesen hat.
 
Also ich kenne immer noch keinen der RT immer an hat da einfach für die meisten das zuviel leistung schluckt... und die guten karten dafür zu teuer ist. Kenne nicht mal persönlich jemanden der 4000er karte hat dümpeln alle bei 1er und 2er reihe noch rum^^

Foren sind immer noch nicht die masse :D
sagt ja auch niemand, lies nochmal genau.
Ich hab im Prinzip gemeint: mit der 4090 haben wir jetzt eine Baseline für RT, davor wars für Early Adopter.
Ich hab nicht geaagt endlich haben alle RT Fähige Karten.
Das kommt natürlich erst wenn die 4090 RT Leistung in Karten bis 300 Euro vorhanden ist, aber Entwickler können schon mal damit arbeiten
Was bringt es wenn die 4090 genug leistung hat gefühlt den rest kannst in tonne kloppen. mit 6090 gibts dann Rt super duper potter wo dann die alten wieder zu schwach sind. Die sollen lieber mal lösungen bringen wo die masse auch hat so geht das nur langsam vorwärts.
siehe oben
 
sagt ja auch niemand, lies nochmal genau.
Ich hab im Prinzip gemeint: mit der 4090 haben wir jetzt eine Baseline für RT, davor wars für Early Adopter.
Ich hab nicht geaagt endlich haben alle RT Fähige Karten.
Das kommt natürlich erst wenn die 4090 RT Leistung in Karten bis 300 Euro vorhanden ist, aber Entwickler können schon mal damit arbeiten

siehe oben
Bis Rt mal auf 300€ karten läuft gibt es wieder neuere sachen wo angeblich jeder braucht und es geht von vorne los.
 
mal abwarten sehen wir dann ja. Gab schon vieles wo angeblich der ober knaller war^^
da gibts nix zum Abwarten, nach 30 Jahren Rastern ist jetzt Hybrid mit RT dran.
Raytracing war optisch schon immer überlegen, es gab nur zu wenig Leistung. Die Filmindustrie setzt es seit den 80ern ein, es ist halt erst jetzt zum Echtzeitrendering reif genug
 
mal abwarten sehen wir dann ja. Gab schon vieles wo angeblich der ober knaller war^^
Raytracing wird bzw ist zum Teil der neue Standard.
Raytracing vereinfacht die Entwicklung auch erheblich da zuvor ein großer Teil der Arbeit von Leveldesignern daraus bestand Lichtquellen, Reflektionen (z.Bsp. Cube Maps) und diverse andere Objekte manuell zu setzen um den Eindruck der Realität zu vermitteln.
Raytracing macht das von selbst, es reicht eine normale Lichtquelle (z.Bsp. die Sonne) und schon hat man ein Bild dass im Prinzip der Realität entspricht.
 
Zurück