Geforce RTX 4000: Lovelace angeblich ohne größere Architektur-Änderungen

Das bezweifle ich:
Anhang anzeigen 1387368

Bei CB erreicht die 6900XT ohne RT schon nur 48 Fps:
In dem Test steht nicht welche RX 6900XT getestet wurde, Ebenfalls steht nicht welche Taktrate dadrin ist.
Die Customs haben generell nochmal mehr Mhz mit und du kannst definitiv noch mehr übertakten.
Zudem habe ich nicht von 4k geredet sondern UWQHD 3440x1440, das habe ich bei dir überlesen sry.

Aber doch es ist definitiv easy möglich!

In WQHD hast du übrigens ohne RT ca 90 Fps in deinem Test, von dort aus auf die 45 FPS mit RT in UWQHD zu kommen ist jetzt wirklich kein Problem.
 
Weil du sonst garnicht die Qualität der Rekonstruktion einschätzen kannst?
Beide Bilder sind Ausschnitte aus jeweils einem 4K Screenshot und ich kann gerade nicht nachvollziehen, wieso ich beim nativen 4K Bild noch mit DSR arbeiten soll, um das 4K DLSS Bild bewerten zu können? Das wäre dann doch 8K DSR vs 4K DLSS?

In WQHD hast du übrigens ohne RT ca 90 Fps in deinem Test, von dort aus auf die 45 FPS mit RT in UWQHD zu kommen ist jetzt wirklich kein Problem.
45 Fps in UWQHD halte ich für plausibel, aber es ging mir um 4K.
 
Und bevor du mir gleich mit "Nativ ist viel besser als DLSS" kommst:
Anhang anzeigen 1387366Anhang anzeigen 1387367

Erstes Bild ist Nativ mit TAA und zweites Bild ist DLSS (Dying Light 2).
Mal davon ab... die KI von DLSS bemängelt ja keiner aber die könnte man auch auf dem nativem Bild anwenden.
Denn das ist was du da am Tower siehst, ist nur der KI zu verdanken die das Bild überarbeitet hat.

Das es dazu halt eine niedrigere Auflösung sein muss... das kann ich nicht nachvollziehen, denn die macht ja das Bild schlechter nicht die KI.
 
Beide Bilder sind in 4K und ich kann gerade nicht nachvollziehen, wieso ich beim nativen 4K Bild noch mit DSR arbeiten soll, um das 4K DLSS Bild bewerten zu können? Das wäre dann doch 8K DSR vs 4K DLSS?
Weil ein nativ abgetastetes Bild von Haus aus Bildinformationsverlust hat. DSR hat aufgrund der Überabtastung diesen Fehler nicht mehr bzw. nur noch im sehr geringen maße. DLSS soll ebenfalls die Bildinformationsverluste vermeiden indem dieses Bildpunkte errechnet. Ob diese Rekonstruktion jedoch richtig ist kann man anhand des nativen Bildes nicht abschätzen. Um zu wissen ob die Bildinformationsverluste nun wirklich weg sind oder ob der Algorithmus seinerseits neue/andere Fehler einführt ist ein Vergleich mit einer "idealen" Lösung (DSR) nötig.
 
Ob diese Rekonstruktion jedoch richtig ist kann man anhand des nativen Bildes nicht abschätzen.

Dann ist die Quelle also nicht gut genug um eine Rekonstruktion abzuschätzen.
Das reduzierte Bild aber schon oder wie darf ich das verstehen?

Klar kann die KI dabei auch native Bilder abtasten und bearbeitet darstellen... wenn das nicht geht was du da sagst würde die ganze Technik an sich nicht funktionieren.
 
Dann ist die Quelle also nicht gut genug um eine Rekonstruktion abzuschätzen.
Das reduzierte Bild aber schon oder wie darf ich das verstehen?

Klar kann die KI dabei auch native Bilder abtasten und bearbeitet darstellen... wenn das nicht geht was du da sagst würde die ganze Technik an sich nicht funktionieren.
es gibt aber noch kein ultra quality dlss das soll aber kommen. dann hat man eben native auflösung plus der rekonstruktion.

dlss wirkt bei 4k erst auf balanced minimal verwaschen kann man mit schärfe regler aber ausgleichen. bei cyberpunk hatte ich fast ein fps verdoppelung damals von nativ 4k auf quality und man hat wirklich keinen unterschied gesehen. ich habe bei horizon 5 bei 4k mal fsr ultra quality probiert zum spaß und das war einfach eine katastrophe. hatte da beim lod der vegetation nur flimmern und es war so nicht spielbar. fsr kann leider nicht viel besser werden als es ist weil die herangehensweise von nvidia mit dlss viel komplexer ist und dadurch wirklich ein tolles bild zustande kommt. das wurde bei denn fsr tests aber auch überall gesagt das es nicht möglich ist an dlss heranzukommen. fsr wird sich trotzdem durchsetzen da es für alle karten geht und das finde ich schon schade wenn dann dlss verschwindet
 
Dann ist die Quelle also nicht gut genug um eine Rekonstruktion abzuschätzen.
Das reduzierte Bild aber schon oder wie darf ich das verstehen?

Klar kann die KI dabei auch native Bilder abtasten und bearbeitet darstellen... wenn das nicht geht was du da sagst würde die ganze Technik an sich nicht funktionieren.
Ich glaube du verstehst es falsch. Der Algorithmus kann eine beliebige Auflösung heranziehen. Das ist auch erstmal nicht wichtig.
Wenn ich aber bewerten will ob DLSS wirklich besser ist als nativ dann brauche ich eine Quelle die wirklich besser ist um eine objektive Bewertung durchzuführen. Wie sonst willst du wissen ob das was der DLSS Algorithmus macht korrekt ist?
 
Exakt. Im ersten Wolfenstein mit DLSS gab es beispielsweise Wände an denen bunte Schmierereien waren, oder Einschusslöcher, die es nativ dort gar nicht gab. Das sah zwar stimmig zu den meisten Szenen im Spiel aus, gehörte dort aber nicht hin. Der Algorithmus war aber der Auffassung. Da kann das Spiel noch so detailliert wirken. Das hat mit "besser als nativ" nichts am Hut. Das ist schlicht falsch und damit ein schlechteres Bild. Einfach weil es nicht das Gefühl vermittelt das uns der Entwickler des Spiels vermitteln wollte.
Wenn ein Feature den Bildinhalt nach eigenem Maßstab abändert, dann ist das für mich keine Verbesserung.

Jetzt nicht wieder falsch verstehen. Es gibt einige positive Beispiele für DLSS (inzwischen jedenfalls), nur halt nicht ausschließlich.
 
Wobei die Verbesserung der KI in meinen Augen noch das besste vom DLSS ist.

Was die Fehler angeht, ist es auch nur eine Frage der Zeit bis die Darstellung durch die KI wirklich zu 100% korrekt dargestellt werden kann. Ich denke das solche Fehler wie die mit den Schusslöchern einfach nur durch eine noch nicht ausreichend geschulte KI zustande kommen.

Ich glaube du verstehst es falsch. Der Algorithmus kann eine beliebige Auflösung heranziehen. Das ist auch erstmal nicht wichtig.
Wenn ich aber bewerten will ob DLSS wirklich besser ist als nativ dann brauche ich eine Quelle die wirklich besser ist um eine objektive Bewertung durchzuführen. Wie sonst willst du wissen ob das was der DLSS Algorithmus macht korrekt ist?

Durch die Entfernung zum Objekt kannst du herausfinden ob das was die KI darstellt korrekt ist.
So weißt du ja was sich wo und wie im Spiel befindet und wie es aussehen soll.
Die KI an sich trainiert ja auch nicht mit Standbildern sondern mit vielen aufeinanderfolgenden Bildern da es ja ehr ein Film als ein Bild ist.
Eine wirklich bessere Quelle ist da grundsätzlich nicht nötig um diese Einschätzung durchzuführen.
 
Durch die Entfernung zum Objekt kannst du herausfinden ob das was die KI darstellt korrekt ist.
So weißt du ja was sich wo und wie im Spiel befindet und wie es aussehen soll.
Die KI an sich trainiert ja auch nicht mit Standbildern sondern mit vielen aufeinanderfolgenden Bildern da es ja ehr ein Film als ein Bild ist.
Eine wirklich bessere Quelle ist da grundsätzlich nicht nötig um diese Einschätzung durchzuführen.
Eben das kannst du nicht. Das Objekt existiert, schließlich werden Motionvektors von dem Objekt genutzt. Aber werden die Abtastpunkte richtig gewählt? Das kannst du zu keinem Zeitpunkt mit einem nativen Bild validieren.
Ob die Prädiktion von DLSS in diesem Zeitpunkt richtig ist und eben nicht zu viele Abtastpunkte auf dem Objekt gelandet sind (oder zu wenig) kann man mit deiner Methode nicht feststellen. Du stellst nur sicher das der Algorithmus keine Objekt frei erfunden hat. Das stand aber auch nie zur Debatte.
 
@Bl4ckR4v3n das ergibt trotzdem keinen Sinn und hat mit der Praxis auch absolut nichts mehr zutun. Wer nutzt 8K DSR @4K? Bei älteren Spielen vielleicht, aber bei aktuellen kannste die Anzahl der User an einer Hand abzählen.

Wenn ich ein natives 4K Bild habe, dann vergleiche ich dieses auch mit 4K DLSS. Ist doch völlig logisch, dass das 8K Bild besser/detailreicher ist, als das 4K DLSS Bild. Das ist aber schon bei 4K nativ vs 8K DSR/nativ der Fall.
Ich verstehe aber worauf die hinaus willst, allerdings ist das dennoch irrelevant. Selbst wenn der Funkturm falsch von DLSS rekonstruiert wird, ist es dennoch besser als das 4K Bild. Sobald es im nativen 4K Bild gut erkennbar wird, wird es auch von DLSS richtig rekonstruiert. Es relativiert sich also, denn im 4K Bild ist er so gut wie gar nicht zu erkennen und ich bevorzuge lieber falsch rekonstruiert und gut erkennbar, als gar nicht erkennbar.

Wenn der Funkturm weit genug entfernt ist, haste das selbe Problem auch in 8K und es ist völlig egal, ob es falsch von DLSS rekonstruiert wird, solange es gut aussiehst oder störst du dich auch Feuer/Wasser, welches nicht physikalisch korrekt brennt/fließt?

Fast inverse square roots ist auch nur eine Annäherung ans richtige Ergebnis und das reichte damals für die Berechnungen in Quake. Ich behaupte mal, dass du etliche solcher Tricksereien in sämtlichen Spielen vorfindest, aber das spielt wie gesagt keine Rolle, wenn das Ergebnis richtig aussieht/wirkt.
 
Zuletzt bearbeitet:
@Bl4ckR4v3n das ergibt trotzdem keinen Sinn und hat mit der Praxis auch absolut nichts mehr zutun. Wer nutzt 8K DSR @4K? Bei älteren Spielen vielleicht, aber bei aktuellen kannste die Anzahl der User an einer Hand abzählen.
Es geht doch nicht darum zu zocken sondern um die Bewertung der grafischen Qualität.
Wenn ich ein natives 4K Bild habe, dann vergleiche ich dieses auch mit 4K DLSS. Ist doch völlig logisch, dass das 8K Bild besser/detailreicher ist, als das 4K DLSS Bild. Das ist aber schon bei 4K nativ vs 8K DSR/nativ der Fall.
Ich verstehe aber worauf die hinaus willst, allerdings ist das dennoch irrelevant. Selbst wenn der Funkturm falsch von DLSS rekonstruiert wird, ist es dennoch besser als das 4K Bild. Sobald es im nativen 4K Bild gut erkennbar wird, wird es auch von DLSS richtig rekonstruiert. Es relativiert sich also, denn im 4K Bild ist er so gut wie gar nicht zu erkennen und ich bevorzuge lieber falsch rekonstruiert und gut erkennbar, als gar nicht erkennbar.
Dagegen spricht ja auch nichts. Nur sollte man dann vorsichtig mit aussagen wie: "Besser als Nativ" sein. Es ist eben nicht wirklich belegt. Hier wird im Board sonst immer gerne auf Fakten verwiesen aber bei sowas kommt dann immer ein rein subjektiver Eindruck der objektiv bisher unbewiesen im Raum steht.
Das DLSS für viele (inkl mir) ein hinreichend genaues Bild herstellt bestreite ich auch nicht. Und man hat ja auch weniger flimmern, mehr fps. Gibt wenig Gründe es abzulehnen :)
Wenn der Funkturm weit genug entfernt ist, haste das selbe Problem auch in 8K und es ist völlig egal, ob es falsch von DLSS rekonstruiert wird, solange es gut aussiehst oder störst du dich auch Feuer/Wasser, welches nicht physikalisch korrekt brennt/fließt?
Zum 1. Ja das stimmt, aber durch die vorraussichtlich höhere Pixeldichte dürfte das ganze wesentlich entschärft werden. In der Realität verschwimmt ein Objekt ja auch immer weiter und Details gehen verloren.
2. Wenn ich so manche "Feuer" Darstellung sehe, ja tue ich ;). Aber ich weiß auch dass wir dann nicht mehr in fps rechnen sonder fpw (Frames per Week) entsprechend kann ich mit dem Tradeoff leben.
Generell bin ich auch keiner der sagt es muss alles perfekt sein. Mich stören 2 Halme weniger auf High anstelle Ultra bspw. nicht.
Fast inverse square roots ist auch nur eine Annäherung ans richtige Ergebnis und das reichte damals für die Berechnungen in Quake. Ich behaupte mal, dass du etliche solcher Tricksereien in sämtlichen Spielen vorfindest, aber das spielt wie gesagt keine Rolle, wenn das Ergebnis richtig aussieht/wirkt.
Natürlich gibt es dutzende Tricksereien. Das lässt sich nicht vermeiden und gehört dazu. Wenn ich solche Methoden aber richtig bewerten will dann sollte man nicht einfach nur auf einen Status Quo schauen sondern auch das ideale Verhalten betrachten, denn da will man ja normalerweise hin.
 
Zurück