Metro Exodus Hotfix-Update: DLSS nach ersten Berichten deutlich besser

Nvidia macht hier ganz klar einen Fehler beim Marketing.

Es darf nie und niemals RTX On und RTX Off heißen. RTX Off schaltet Cores ab und ist eigentlich eine Art Stromsparmodus mit leisem Lüfter. Schont Ohren und Geldbeutel, also absolut Top das Feature. Da darf man ruhig etwas mehr Geld für die Graka zahlen, man spart es ja anschließend wieder.

DLSS verbessert das Bild indem es die Texturen so aussehen lässt wie früher, als nachweislich alles besser war. Da hat man auch nicht so genau hingesehen, man hat hat sich mit 320x240 Pixeln den Farbflash ins Auge blitzen lassen und vor dem Schlafen gehen zu Gott gebetet dass man davon keinen Epileptischen Anfall im Schlaf erleidet und dabei erstickt oder so.

Nostalgie, Umweltschutz und Lärmschutz, was kann man von einer Karte mehr verlangen? Bevor jetzt jemand über die R7 lästert, auch die muss man einfach richtig benutzen. Vertikal montieren, Gehäuse ans offene Fester stellen, gehärtete Glasscheibe einschlagen und schon helfen die Lüfter bei der Luftbestäubung des dt. Waldes. Mehr Wald, weniger CO2. Nur der AMD PC wird so gleichzeitig zu einem Winterrefugium für Bienenköniginnen.

Was einem lieber ist, kann jetzt jeder für sich entscheiden. Volksentscheid Bayern ist aber ganz klar Rettet die Biene und damit eine R7 für alle auf Staatskosten.

Was ein Schwachsinn...
 
DLSS ist ein e interessante Idee.
Leider hat das Feature 2 intrinsische Nachteile, die mit aktueller Technik nicht wegzukriegen sind:

1) Jedes Spiel muss einzeln durch die KI im Nvidia Supercomputer gejagt werden - für jede gebotene Auflösung einzeln und verursacht dadurch deutlich mehr Stromverbrauch für diverse Wochen (schlimmstenfalls Monate), als die aktuelle Implementierung rechtfertigen würde.
2) Selbst mit der nachgebesserten Version kommt die Bildqualität ungefähr auf das Niveau wie eine Renderskalierung auf 80% - bei gleicher Performance.

Durch 2) wird 1) aktuell zu einer noch sinnfreieren Stromverschwendung, als Coin Mining.
Man lagert die nötige Rechenpower schlicht auf einen zentralen Supercomputer aus und hat damit den Stromverbrauch nicht bei sich, sondern bei Nvidia.
Wäre echt mal interessant, wie die Energiebilanz aussähe, wenn man den Stromverbrauch dann auf jede verkaufte Karte umlegt...

Ja.

Eine niedrige(!) Auflösung wird einfach mit einer KI in einem teuren Rechenzentrum (Achtung: Käufer zahlen!) hochskaliert, verwäscht(!) das Bild und stylistisch von dieser auch noch verändert (!).
Hinzu kommt noch stellenweise sehr starkes Ghosting, so als wenn man Overdrive am Monitor um weitere 5 Stufen über Extrem gedreht hat.
Das sind 5 starke Negativpunkte, worüber NVidia völlig schweigt, und man einfach nur sagt, dass man DLSS als megageile neue Technik quasi ohne Geschwindigkeitsverlust für Raytracing verwenden könnte.
Letzteres mag natürlich aus dieser Sichtweise helfen, um die Frames in spielbare Bereiche zu hiefen, was 2060 Käufer sicherlich oft werden anwenden müssen.
Aber der ganze Aufwand, der dafür betrieben wird, ist es doch ehrlich gesagt nicht wirklich Wert, ich stelle das aus Umweltgründen auf eine Negativ-Stufe mit Mining.
Daher find eich die Ankündigung von AMD, diesen Weg nicht zu gehen, und auf vorhandene Techniken zu setzen, mehr als richtig.
 
Es ist eine schlechtere Bildqualität für mehr Performance. Das Gefasel vom besserem Bild bei Mehrleistung war stets ein Wunschtraum.

Das ist kein Wunschtraum, denn Auflösung erzeugt nicht per se ein besseres Bild, schon gar nicht in Bewegung, wenn die Glättung nicht stimmt, aber wem erklärt man das, dir sicherlich nicht.
Ein Bild das niedriger aufgelöst ist, kann deutlich besser sein, sofern Bildruhe vorliegt, deswegen spielt auch nicht jeder in 4K, weil das nur in engen Grenzen sinnvoll ist immer mehr die Auflösung zu erhöhen.Jetzt ist also wieder das "Getöse" und "Gefasel" dein Angriffspunkt.
Jeder Beitrag von dir ist 1:1 vorhersehbar, dummes, albernes immer sich wiederholendes stänkern, es wäre schön wenn noch eine Moderation existieren würde die diese Kommentare kommentarlos löscht, da muss man auch nicht mit Punkten wedeln, das gilt natürlich für etwaiges sinnfreies Geschreibsel auch in AMD Threads aus dem anderen Lager.

Schreib dir doch in die Signatur dass du RT, DLSS und alles was von Nvidia kommt sinnfrei findest, dann musst du doch gar nicht mehr jedes mal einen Post absetzen.

1) Jedes Spiel muss einzeln durch die KI im Nvidia Supercomputer gejagt werden - für jede gebotene Auflösung einzeln und verursacht dadurch deutlich mehr Stromverbrauch für diverse Wochen (schlimmstenfalls Monate), als die aktuelle Implementierung rechtfertigen würde.

Du kritisierst wirklich den Stromverbrauch für eine AI Kantenglättung, während du in jedem AMD Thema den Mehrverbrauch der GPU´s kleinredest?
Das ist wirklich ein Novum.:schief: Au ja, der Klimaschützer Khabarak in seiner neuesten Doppelmoral-Vorstellung.
Reif fürs Kabarett.

2) Selbst mit der nachgebesserten Version kommt die Bildqualität ungefähr auf das Niveau wie eine Renderskalierung auf 80% - bei gleicher Performance.

Sagt wer? Ungefähr, vielleicht, eventuell, pie mal Daumen. Genial.

...na, ja...in praktisch nennenwerter Breite und über zwei, drei Marketin-Games...
Es sind doch schon deutlich mehr als 2 oder 3 "Marketing-Games" geplant.
Aber klar, die Hardcore AMD Fangemeinde erzählt uns heute etwas von Verbreitung von Features.:rollen:
AMD vs. Nvidia, das übliche Gestammel.
 
Zuletzt bearbeitet:
Ein Bild das niedriger aufgelöst ist, kann deutlich besser sein, sofern Bildruhe vorliegt, deswegen spielt auch nicht jeder in 4K, weil das nur in engen Grenzen sinnvoll ist immer mehr die Auflösung zu erhöhen.Jetzt ist also wieder das "Getöse" und "Gefasel" dein Angriffspunkt.

Kannst du das ausführlicher darlegen? Entweder ich verstehe deinen Satz falsch oder ich habe einen Denkfehler aber ich habe noch kein Spiel (in der jetzigen Generation) gesehen was mir in einer niedrigeren Auflösung besser gefallen hat :huh:
Wenn ich könnte und die Spiele dafür ausgelegt wären, würde ich heute alles in 8K+ spielen :ugly:
 
Kannst du das ausführlicher darlegen? Entweder ich verstehe deinen Satz falsch oder ich habe einen Denkfehler aber ich habe noch kein Spiel (in der jetzigen Generation) gesehen was mir in einer niedrigeren Auflösung besser gefallen hat :huh:

Ja, das ist doch auch der Unterschied zwischem reinen Upscaling und DLSS, aber der Thread hat wieder den gewohnten Verlauf genommen.
Die üblichen Verdächtigen sind erschienen.:rollen:
 
Bin etwas enttäuscht von DLSS, es ist nach wie vor zu unscharf.
Deswegen RTX an und DLSS aus..

So wuerde ich es auch gerne spielen.

Statt dessen passiert nachstehendes:
RTX in 1920x1080 oder 2560x1080 einschalten, Optionsmenu verlassen, wieder zurueck in das Menu, RTX ist wieder aus
Nur in der Aufloesung 3440x1440 (DELL Dell U3415W, 34") bleibt RTX eingeschaltet, DLSS ist aber dann gekoppelt (DLSS ausschalten bewirkt auch das abschalten von RTX).

Zudem fehlt mir das Menu RAY TRACING (siehe Beispiel Photos anbei, Vergleich screenshot von pcgameshardware.de aus einem Testvideo und von mir)

Habt ihr eine Idee wie sich RTX einschalten und DLSS dennoch ausschalten laesst bzw. wieso ich in den 1920er und 2560er Aufloesungen kein RTX einschalten kann?
Metro Exodus Version: 1.0.1.1 (im Spiel)
 

Anhänge

  • 00Metro_menu_pcgameshardware.de_beschriftet.jpg
    00Metro_menu_pcgameshardware.de_beschriftet.jpg
    172,9 KB · Aufrufe: 44
  • metro_home_chironexx.jpg
    metro_home_chironexx.jpg
    207 KB · Aufrufe: 39
So wuerde ich es auch gerne spielen.

Statt dessen passiert nachstehendes:
RTX in 1920x1080 oder 2560x1080 einschalten, Optionsmenu verlassen, wieder zurueck in das Menu, RTX ist wieder aus
Nur in der Aufloesung 3440x1440 (DELL Dell U3415W, 34") bleibt RTX eingeschaltet, DLSS ist aber dann gekoppelt (DLSS ausschalten bewirkt auch das abschalten von RTX).

Zudem fehlt mir das Menu RAY TRACING (siehe Beispiel Photos anbei, Vergleich screenshot von pcgameshardware.de aus einem Testvideo und von mir)

Habt ihr eine Idee wie sich RTX einschalten und DLSS dennoch ausschalten laesst bzw. wieso ich in den 1920er und 2560er Aufloesungen kein RTX einschalten kann?
Metro Exodus Version: 1.0.1.1 (im Spiel)

Da stimmt was nicht. Wie hast du denn den Treiber installiert? Komplett oder manuell?
 
So wuerde ich es auch gerne spielen.

Statt dessen passiert nachstehendes:
RTX in 1920x1080 oder 2560x1080 einschalten, Optionsmenu verlassen, wieder zurueck in das Menu, RTX ist wieder aus
Nur in der Aufloesung 3440x1440 (DELL Dell U3415W, 34") bleibt RTX eingeschaltet, DLSS ist aber dann gekoppelt (DLSS ausschalten bewirkt auch das abschalten von RTX).

Zudem fehlt mir das Menu RAY TRACING (siehe Beispiel Photos anbei, Vergleich screenshot von pcgameshardware.de aus einem Testvideo und von mir)

Habt ihr eine Idee wie sich RTX einschalten und DLSS dennoch ausschalten laesst bzw. wieso ich in den 1920er und 2560er Aufloesungen kein RTX einschalten kann?
Metro Exodus Version: 1.0.1.1 (im Spiel)
Das dürfte so gewollt sein. Auch Gamers Nexus konnte das eine nicht ohne das andere betreiben.
 
Du kritisierst wirklich den Stromverbrauch für eine AI Kantenglättung, während du in jedem AMD Thema den Mehrverbrauch der GPU´s kleinredest?
Das ist wirklich ein Novum.:schief: Au ja, der Klimaschützer Khabarak in seiner neuesten Doppelmoral-Vorstellung.
Reif fürs Kabarett.

Jetzt schalt bitte mal kurz die Denkmurmel an und überleg, weshalb ich den Stromverbrauch des Rechenzentrums ankreide.
Es wird unglaublich viel Rechenpower verblasen, um den gleichen Effekt zu erreichen, wie 80% Render Scaling...

Als kleine weitere Anmerkung:
Der Stromverbrauch wird so nur von der Karte weg ins Rechenzentrum verlagert - sofern man DLSS denn wirklich auf den Karten berechnen lassen würde.
Und all das für was? Für nix.
So, wie DLSS aktuell funktioniert, bringt es leider keinerlei Vorteil im Vergleich zu 80% Render Scaling.

Zu deinem - mal wieder - unbegründeten Bezug auf AMD Karten:
Eine Grafikkarte läuft im PC ein paar Stunden am Tag - wenn überhaupt.
Davon dann noch weniger auf Vollast.
Ein Rechenzentrum mit KI im Training für ein Spiel und eine einzige Auflösung läuft mehrere Wochen 24/7 auf Vollast.
Ich sehe da einen "geringen" Unterschied.
Du etwa nicht?
 
Da stimmt was nicht. Wie hast du denn den Treiber installiert? Komplett oder manuell?
Die vorherige GTX 970 rausgenommen, RTX 2070 eingesetzt, Spiel gestartet, RTX nicht vorhanden. Treiber neu installiert (vorherigen entfernen). RTX verfuegbar, aber wie oben beschrieben. Treiber war der gleiche wie vorher (bereits der letzte 418.91 installiert)
 
Das ist kein Wunschtraum, denn Auflösung erzeugt nicht per se ein besseres Bild, schon gar nicht in Bewegung, wenn die Glättung nicht stimmt, aber wem erklärt man das, dir sicherlich nicht.
Ein Bild das niedriger aufgelöst ist, kann deutlich besser sein, sofern Bildruhe vorliegt, deswegen spielt auch nicht jeder in 4K, weil das nur in engen Grenzen sinnvoll ist immer mehr die Auflösung zu erhöhen.Jetzt ist also wieder das "Getöse" und "Gefasel" dein Angriffspunkt.
Jeder Beitrag von dir ist 1:1 vorhersehbar, dummes, albernes immer sich wiederholendes stänkern, es wäre schön wenn noch eine Moderation existieren würde die diese Kommentare kommentarlos löscht, da muss man auch nicht mit Punkten wedeln, das gilt natürlich für etwaiges sinnfreies Geschreibsel auch in AMD Threads aus dem anderen Lager.


Ja, das ist doch auch der Unterschied zwischem reinen Upscaling und DLSS, aber der Thread hat wieder den gewohnten Verlauf genommen.
Die üblichen Verdächtigen sind erschienen.:rollen:
.

1. Also geringer Auflösung ist besser als hohe, Hauptsache Sie wird nachgearbeitet... Interessant... Dann Spielen wir doch alle auf 640 * 480, was da Rechenleistung frei wird, und dann schön nachbearbeiten...

2. Ja, den Thread hast du aufgemacht und Nvidias Marketing Abteilung. Resultate bis jetzt haben weder mich noch andere hier im Forum überzeugt....

3. Alle Spiele die nicht an Nvidias GameWork Programm teilnehmen fallen raus.. Oder wie? Tolles Feature, für die Tonne
 
@PCGH
Ihr habt beim zweiten Vergleichsslider DLSS an(Hotfix) vs DLSS aus(hotfix) genau die gleichen Bilder wie im ersten Vergleich darüber genommen... Sollte dringend ausgebessert werden.



Schön, dass das niemandem auffällt, aber hauptsache drüber schimpfen. Scheinbar hat sich keiner die Bilder richtig angeschaut.
Und wenn doch, dann gilt: die schärferen Bilder = Hotfix-DLSS.
Tatsächlich ist bei dem Vergleich in der News nämlich aktuell kein Screenshot mit deaktiviertem DLSS zusehen, sondern bei beiden Vergleichen nur DLSS neu und alt.
Die Bilder auf imgur sind korrekt betitelt. Aber lustig, dass es über 1200 Views und 54 Kommentare braucht, bis es einer merkt.

Irgendwie trollt sich die community hier gerade selbst. Über unscharfes DLSS schimpfen, aber nichtmal merken, dass der Screen mit vermeintlich deaktivertem DLSS, (welchen viele logischerweise als Schärfe-Referenz nehmen), eigentlich mit aktivem DLSS ist. :lol:


Ich muss aber sagen, des neue DLSS sieht akzeptabel aus. Könnte mir durchaus vorstellen, dass die Qualität jetzt höher ist, als bei klassischem Upscaling. Aber das müssen genauere Tests zeigen.
Und mit einem Schärfefilter hat das sicher nix zu tun. Mag sein, dass man hier zusätzlich noch ein bisschen nachgeholfen hat, oder dass wie schon gesagt wurde zuvor ein Gaussfilter oder sowas drüber war, der jetzt reduziert wurde. Aber so, wie DLSS vorher ausgesehen hat, hätte kein Schärfefilter der Welt nachträglich noch irgendwas retten können... Da ist schon etwas mehr passiert.
 
Zuletzt bearbeitet:
Jetzt schalt bitte mal kurz die Denkmurmel an und überleg, weshalb ich den Stromverbrauch des Rechenzentrums ankreide.
Es wird unglaublich viel Rechenpower verblasen, um den gleichen Effekt zu erreichen, wie 80% Render Scaling...

Das ist doch aber - wie wir schon lange wissen - einfach nur falsches Gerede.
Man erzielt nicht das gleiche Ergebnis mit einfachem Upscaling, wie lange will man diesen Mythos noch durchs Forum schleifen?
Das ist seit dem ersten Artikel über Final Fantasy den ich in der PCGH gelesen habe, eindeutig widerlegt und darin wird auch anschaulich erklärt warum und weshalb.
Wieso in aller Welt haben es permanent irgendwelche User nötig wiederholt klare Falschinformationen ins Forum zu posten? Was soll das?

Das Forum ist da um sich auszutauschen und nicht dazu da den eigens initiierten Geruilla-Marketing Kampf gegen den bösen Nvidia-Konzern zu führen.

So, wie DLSS aktuell funktioniert, bringt es leider keinerlei Vorteil im Vergleich zu 80% Render Scaling.

Also im Gegensatz zu dir habe ich es schon in Final Fantasy und Metro - gerade eben getestet und kann ganz klar sagen, dass das nicht stimmt, zumal die Bilder im Artikel zu klein sind um darauf wirklich was zu erkennen.
Einfach nur die Auflösung zu reduzieren erzeugt nicht das gleiche KI-gestützte Bild mit Mustererkennungsset.

Als kleine weitere Anmerkung:
Der Stromverbrauch wird so nur von der Karte weg ins Rechenzentrum verlagert - sofern man DLSS denn wirklich auf den Karten berechnen lassen würde.

Lies dich mal ins Thema ein. Du kannst dieses Training niemals - schon gar nicht innerhalb der Laufzeit - mit den Tensor Cores auf der Karte durchführen.
Und wenn man mal bei deinem Stromverbrauchstheorie bleibt, dann hilft DLSS dabei weniger Leistung für höhere FPS zu benötigen, was im Umkehrschluss wieder den Stromverbrauch senkt, aber gut, ich will deine Überlegungen gar nicht weiterführen, weil sie sowieso keinen Sinn ergeben.
 
Zuletzt bearbeitet:
Das ist doch aber - wie wir schon lange wissen - einfach nur falsches Gerede.
Man erzielt nicht das gleiche Ergebnis mit einfachem Upscaling, wie lange will man diesen Mythos noch durchs Forum schleifen?
Das ist seit dem ersten Artikel über Final Fantasy den ich in der PCGH gelesen habe, eindeutig widerlegt und darin wird auch anschaulich erklärt warum und weshalb.
Wieso in aller Welt haben es permanent irgendwelche User nötig wiederholt klare Falschinformationen ins Forum zu posten? Was soll das?

Das Forum ist da um sich auszutauschen und nicht dazu da den eigens initiierten Geruilla-Marketing Kampf gegen den bösen Nvidia-Konzern zu führen.



Also im Gegensatz zu dir habe ich es schon in Final Fantasy und Metro - gerade eben getestet und kann ganz klar sagen, dass das nicht stimmt, zumal die Bilder im Artikel zu klein sind um darauf wirklich was zu erkennen.
Einfach nur die Auflösung zu reduzieren erzeugt nicht das gleiche KI-gestützte Bild mit Mustererkennungsset.



Lies dich mal ins Thema ein. Du kannst dieses Training niemals - schon gar nicht innerhalb der Laufzeit - mit den Tensor Cores auf der Karte durchführen.
Und wenn man mal bei deinem Stromverbrauchstheorie bleibt, dann hilft DLSS dabei weniger Leistung für höhere FPS zu benötigen, was im Umkehrschluss wieder den Stromverbrauch senkt, aber gut, ich will deine Überlegungen gar nicht weiterführen, weil sie sowieso keinen Sinn ergeben.

Weißt du wie man solche Sachen einfach abwürgen kann,

Wie wäre es mit Bildern von Dir ?

Du wirst doch wohl Paint auf dem PC haben und in der Lage sein ein Screenshot zu machen.

Ich würde mal behaupten das hätte die gleiche Zeit in Anspruch genommen wie dein Post mit 1000 Zeichen ;-)
 
Das ist doch aber - wie wir schon lange wissen - einfach nur falsches Gerede.
Man erzielt nicht das gleiche Ergebnis mit einfachem Upscaling, wie lange will man diesen Mythos noch durchs Forum schleifen?
Das ist seit dem ersten Artikel über Final Fantasy den ich in der PCGH gelesen habe, eindeutig widerlegt und darin wird auch anschaulich erklärt warum und weshalb.
Wieso in aller Welt haben es permanent irgendwelche User nötig wiederholt klare Falschinformationen ins Forum zu posten? Was soll das?

Keine Ahnung, welche Artikel du gelesen hast, aber ich seh da keinen Unterschied in Sachen Schärfe und Detailgrad.

Das Forum ist da um sich auszutauschen und nicht dazu da den eigens initiierten Geruilla-Marketing Kampf gegen den bösen Nvidia-Konzern zu führen.

Da bin ich mal sehr gespannt, wie du auf die steile These kommst, ich würde das tun.


Also im Gegensatz zu dir habe ich es schon in Final Fantasy und Metro - gerade eben getestet und kann ganz klar sagen, dass das nicht stimmt, zumal die Bilder im Artikel zu klein sind um darauf wirklich was zu erkennen.
Einfach nur die Auflösung zu reduzieren erzeugt nicht das gleiche KI-gestützte Bild mit Mustererkennungsset.

Ich rede hier nicht von 4k auf 1440p zu senken... und es wurde mehrfach auch per Video gezeigt, dass DLSS UHD (2160p) teilweise unruhiger und unschärfer wirk, als 1800p (achtung, da steht eintausend achthundert, nicht eintausend achtzig)

Lies dich mal ins Thema ein. Du kannst dieses Training niemals - schon gar nicht innerhalb der Laufzeit - mit den Tensor Cores auf der Karte durchführen.

Hab ich auch nirgendwo behauptet.

Und wenn man mal bei deinem Stromverbrauchstheorie bleibt, dann hilft DLSS dabei weniger Leistung für höhere FPS zu benötigen, was im Umkehrschluss wieder den Stromverbrauch senkt, aber gut, ich will deine Überlegungen gar nicht weiterführen, weil sie sowieso keinen Sinn ergeben.

Durch die geringere Last laufen die Karten wieder in einer höheren Turbo Stufe und reizen weiter das TDP Budget aus - das ist doch der Sinn von Nvidias Boost Funktion.


Edit:
Weißt du wie man solche Sachen einfach abwürgen kann,

Wie wäre es mit Bildern von Dir ?

Du wirst doch wohl Paint auf dem PC haben und in der Lage sein ein Screenshot zu machen.

Ich würde mal behaupten das hätte die gleiche Zeit in Anspruch genommen wie dein Post mit 1000 Zeichen ;-)

Nvidia bietet sogar ein eigenes Tool dafür.
Und die meisten Spiele sogar ein Tastenkürzel für Screenshots.
Wäre also ziemlich einfach.
 
Weißt du wie man solche Sachen einfach abwürgen kann,

"Solche Sachen" kann man nicht mit Bildern abwürgen - ganz einfach weil das nur Zeitverschwendung ist.
Es existieren im Netz genug Bilder die zeigen, dass DLSS kein einfaches Upscaling ist.
Eher läge es an Khabarak seine absurden Anschuldigungen mit Beweisen zu unterfüttern.

Ich würde mal behaupten das hätte die gleiche Zeit in Anspruch genommen wie dein Post mit 1000 Zeichen ;-)

Da kannst du gleich den Echsenmenschen-Gläubigen Bildmaterial in hoher Auflösung zeigen - die sehen trotzdem nur das was sie sehen wollen.
Wie gesagt, aus der Diskussion verabschiede ich mich, hat keinen Sinn.

Keine Ahnung, welche Artikel du gelesen hast, aber ich seh da keinen Unterschied in Sachen Schärfe und Detailgrad.

Zuerst redest du vom "gleichen Effekt" und jetzt von Schärfe und Detailgrad.:schief: Klassischer Selfown.
 
Zuletzt bearbeitet:
Zurück