Metro Exodus Enhanced im Technik-Test: Das erste "echte" Raytracing-Spiel?

Naja Hair works ist nun mal bekannterweise einfach ein von Nvidias Nettigkeiten gesegnetes Feature und das ist auch bekannt. Es abzuschalten ist fast schon konsequent, AMD lässt seine Features fair laufen. Das muss man einfach mal konstatieren. Allein schon um so Praktiken nicht zu unterstützen gehört es schon abgeschaltet.
 
Nein, du kannst nichts daran ändern. Bei TAA werden Informationen aus aufeinander folgenden Bildern verrechnet, um mehr Informationen zur Glättung zu haben. Je nachdem, wie viel zeitlich gesammelt wird (History), desto auffälliger ist das, auch in Sachen Ghosting. Weniger effektive TAA-Verfahren, wie etwa in Horizon Zero Dawn, zeigen beide Probleme nicht, unterdrücken aber dafür auch kaum Flimmern. Der richtige Trade-off ist eine hohe Kunst. :-)

Sehr ernüchternd. Mir gefällt das optisch überhaupt nicht.
Kann es aber sein, dass das nur bei der Enhanced Edition so implementiert wurde?
Als ich die normale Version damals mit der alten 1070 gespielt habe, ist mir das so überhaupt nicht aufgefallen.
Bei Outriders ist dieses Phänomen noch extremer und ein echter Abturner bei dem so schon durchwachsenen Grafikstil. Ich fühle mich da beim Zocken, als bräuchte ich mittlerweile ein Nasenfahrrad...
 
Naja Hair works ist nun mal bekannterweise einfach ein von Nvidias Nettigkeiten gesegnetes Feature und das ist auch bekannt. Es abzuschalten ist fast schon konsequent, AMD lässt seine Features fair laufen. Das muss man einfach mal konstatieren. Allein schon um so Praktiken nicht zu unterstützen gehört es schon abgeschaltet.

Das ist eine reine Diskussion über das gefühlte Ergebnis bzw. darüber, wie "böse" einseitig optimierter Code ist. Nehmen wir mal Resident Evil 8: Das Spiel ist voll mit AMD-Code aus dem frei zugänglichen FidelityFX-Toolset. Darin schlummert Code, der gezielt für RDNA (2) optimiert wurde. Das hat für mehrere Parteien Vorteile: Einerseits für die Entwickler der Spiele, die vorgefertigte Lösungen für ihre Probleme erhalten, und andererseits für AMD, deren GPUs bestmöglich performen. Nvidia hat davon nichts, die Optimierung geht an ihnen vorbei. Aber niemand meckert. Warum? Weil die Spiele in der Regel trotzdem fantastisch laufen. Dennoch sind sie einseitig optimiert und liefen anders, wenn kein AMD-Code darin wäre. Der einzige Unterschied zu Gameworks ist, dass man bei FidelityFX an den Source Code kommt.

Laden wir mal kurz eine Parallelwelt, in der AMD andere Prioritäten gesetzt hat. Tahiti tesselliert hier Fermi in Grund und Boden und mit jeder GCN-Iteration wurde die Tessellationsleistung verdoppelt. Am Ende ist Hairworks ein Tessellation-Workload, der im Vorbeigehen gestemmt wird. Wäre das dann immer noch so ein großes Problem? Wäre das gar etwas, das man gerne verlinkt, da es die Architekturstärke zeigt?

Lange Rede, kurzer Sinn: Ich habe ein Problem damit, gezielt Effekte auszumachen, weil sie einer GPU-Familie nicht schmecken. Ausmachen kann man das Zeug immer, aber manchmal - gerade beim anstehenden Neukauf - wüsste man aber schon gerne, wie das performen könnte, oder nicht? :-)

MfG
Raff
 
Aber warum sieht das linke Bild schon so billo aus? Wie ein Retro Game

Hier mal noch die Vergleichsbilder in voller "Pracht":

MetroExodus_2021_05_09_12_20_16_651.jpg

MetroExodus_2021_05_09_12_20_21_081.jpg


Die Lichtstimmung ist durch RT mMn wirklich viel besser geworden. Dieser Blur ist aber zum reiern. :(
 
Eine etwas "off-topic", und vielleicht dumme Frage, aber da es im Artikel erwähnt wird:

Ist ein Undervolting von 0,737 Volt und 1,7 GHz bei der RTX 3090 "gut"?
Verliert man da noch (fast) keine Leistung?
Sollte eigentlich jede Karte das mitmachen?

Ich habe meine 3090 FE auf 0,8 V und 1785 MHz gesetzt; nun frage ich mich, ist da noch mehr drin? (D.h. Watt-Ersparnis ohne nennenswerten Leistungsverlust).
Als ich mich damals ans Tuning machte, wollte ich den Takt ungern weiter reduzieren, daher wundert mich der etwas "niedrige" Takt von 1,7 GHz.
Ich habe mein Minimum bei 0.78V und 1750 MHz. Ich schätze so 3-5 FPS Verlust aber Temp. ist 8 Grad weniger. Dann habe ich noch ein Profil mit 0.8 V und 1860MHz ohne Verlust. Am besten 2 Profile anlegen. Metro hat kaum Ansprüche an die 3090. da geht es gut mit 0.78V. Ein Undervolting mit 0.73 V kann ich mir bei allen Spielen nicht Stabil vorstellen. Da wird es Probleme geben. Aber am besten Testen. Und am besten auch ohne DLSS testen damit Leistung nicht verfälscht wird.
 
Hier mal noch die Vergleichsbilder in voller "Pracht":

Anhang anzeigen 1363310
Anhang anzeigen 1363311

Die Lichtstimmung ist durch RT mMn wirklich viel besser geworden. Dieser Blur ist aber zum reiern. :(
Ich weiß, das hilft dir jetzt nicht weiter, aber ein Bildschirm mit UHD-Auflösung und ordentlicher Pixeldichte (also z. B. 27 Zoll) würde den subjektiven Einfluss der Schärfe deutlich verbessern. :D Alternativ rutschst du da mit dem treibereigenen Image Sharpening drüber.

Ich habe mein Minimum bei 0.78V und 1750 MHz. Ich schätze so 3-5 FPS Verlust aber Temp. ist 8 Grad weniger. Dann habe ich noch ein Profil mit 0.8 V und 1860MHz ohne Verlust. Am besten 2 Profile anlegen. Metro hat kaum Ansprüche an die 3090. da geht es gut mit 0.78V. Ein Undervolting mit 0.73 V kann ich mir bei allen Spielen nicht Stabil vorstellen. Da wird es Probleme geben. Aber am besten Testen. Und am besten auch ohne DLSS testen damit Leistung nicht verfälscht wird.

Oh, das Posting habe ich gar nicht gesehen, dabei betrifft das meine Karte. Die ist zweifellos rockstable mit 1.695 MHz und 0,737 Volt via Curve Editor. Und ich spiele in Ultra HD aufwärts. Metro Exodus EE erzeugt eine derart gemeine Last, dass 1,7 GHz auf einer RTX 3090 keineswegs gering sind, sondern die Regel (mit 350 Watt Powerlimit und Luftkühler).

MfG
Raff
 
Ich weiß, das hilft dir jetzt nicht weiter, aber ein Bildschirm mit UHD-Auflösung und ordentlicher Pixeldichte (also z. B. 27 Zoll) würde den subjektiven Einfluss der Schärfe deutlich verbessern. :D Alternativ rutschst du da mit dem treibereigenen Image Sharpening drüber.

MfG
Raff

Die Anschaffung eines 4k-Bildschirms steht sowieso an. ;) Leider ist der einzig in Frage kommende Schirm nicht wirklich lieferbar (LG 27GN950-B).

Ein Nachschärfen beeinflusst doch aber auch das Standbild. Wenn ich das Bild im Still optimal geschärft finde, wird ein Nachschärfen das ganze überschärfen, meinst du nicht?

Außerdem stört es mich einfach, dass dieser Effekt überhaupt da ist. Das bekomme ich nun nicht mehr aus dem Hinterkopf. :D
 
Das ist eine reine Diskussion über das gefühlte Ergebnis bzw. darüber, wie "böse" einseitig optimierter Code ist. Nehmen wir mal Resident Evil 8: Das Spiel ist voll mit AMD-Code aus dem frei zugänglichen FidelityFX-Toolset. Darin schlummert Code, der gezielt für RDNA (2) optimiert wurde. Das hat für mehrere Parteien Vorteile: Einerseits für die Entwickler der Spiele, die vorgefertigte Lösungen für ihre Probleme erhalten, und andererseits für AMD, deren GPUs bestmöglich performen. Nvidia hat davon nichts, die Optimierung geht an ihnen vorbei. Aber niemand meckert. Warum? Weil die Spiele in der Regel trotzdem fantastisch laufen. Dennoch sind sie einseitig optimiert und liefen anders, wenn kein AMD-Code darin wäre. Der einzige Unterschied zu Gameworks ist, dass man bei FidelityFX an den Source Code kommt.

Laden wir mal kurz eine Parallelwelt, in der AMD andere Prioritäten gesetzt hat. Tahiti tesselliert hier Fermi in Grund und Boden und mit jeder GCN-Iteration wurde die Tessellationsleistung verdoppelt. Am Ende ist Hairworks ein Tessellation-Workload, der im Vorbeigehen gestemmt wird. Wäre das dann immer noch so ein großes Problem? Wäre das gar etwas, das man gerne verlinkt, da es die Architekturstärke zeigt?

Lange Rede, kurzer Sinn: Ich habe ein Problem damit, gezielt Effekte auszumachen, weil sie einer GPU-Familie nicht schmecken. Ausmachen kann man das Zeug immer, aber manchmal - gerade beim anstehenden Neukauf - wüsste man aber schon gerne, wie das performen könnte, oder nicht? :-)

MfG
Raff
Der entscheidende Unterschied ist aber, bei AMD s Toolbocx hat NV freien Zugang zum Code und hat alle Zeit der Welt das entsprechend zu optimieren. Anders herum ist das mit purer Absicht nicht möglich. Es hat ja nichts mit der Hardwareleistung zu tun.
 
Von @Freiheraus Post zu RE vor ein paar Tagen ist nicht mehr viel über.
Dank @PCGH_Raff für den ehrlichen Eindruck.

Der nächste Test offenbart dann doch, daß Lob nur kommt wenn die eigene Karte super abschneidet. Nur dann ist es neutral. Haiworks/Physix und RT ja nicht auf ultra testen....kommen ja sonst nochmal ~10% Abstand drauf.

 
Lange Rede, kurzer Sinn: Ich habe ein Problem damit, gezielt Effekte auszumachen, weil sie einer GPU-Familie nicht schmecken. Ausmachen kann man das Zeug immer, aber manchmal - gerade beim anstehenden Neukauf - wüsste man aber schon gerne, wie das performen könnte, oder nicht? :-)

MfG
Raff
Um beide Seiten glücklich zu machen solltet ihr eventuell überlegen, eure Detailskalierung noch etwas auszubauen.

Heißt: Einmal so testen, wie man es von euch gewohnt ist, also alles auf max, egal ob sinnvoll oder nicht.
Und einmal so testen, wie es der durchschnittliche Käufer auch wirklich spielen würde: Also hohe Einstellungen, Raytracing auf Mittel/Normal und solche unnötigen Features wie Hairworks off.

Diejenigen die immer alle Regler am Anschlag haben möchten sind dann genauso befriedigt wie diejenigen, die entweder in der Mittelklasse angesiedelt sind oder die aus ihrer Hardware das bestmöglichste rausholen möchten (also beste Performance, ohne dass die Grafik sichtbar darunter leidet). Ich bin mir eigentlich sicher, dass die meisten 6800XT Nutzer die Raytracing Qualität von Ultra auf Normal/Hoch stellen werden, denn der Unterschied kann man einfach mit der Lupe suchen, der Performance Gewinn ist aber beträchtlich. Und die meisten GeForce RTX Nutzer würden doch auch nicht auf nativer Auflösung spielen, wenn DLSS2 zur Verfügung steht.

Für mich sind eure Graphen eigentlich immer null repräsentativ, denn ich optimiere meine Spiele immer perfekt an meine Hardware, während eure 160 Watt Desktop 2060 sich aufgrund unnötiger Settings und nativer Auflösung also mit 36 FPS in 1080p abmüht, habe ich auf meinem Laptop (80 Watt 2060) in eurer aufwendigen Taiga-Testsequenz stets zwischen 56 und 70 FPS in 1440p und so sieht es aus:

https://abload.de/img/metroexodus_2021_05_0d5jyk.png
Bonus screens, bei allen weit über 60 FPS:
Das ist in 1440p, aber mit DLSS Performance und CAS Sharpening.


Aber die Performance ist ja nicht nur so gut wegen DLSS Performance, sondern auch wegen den Einstellungen: Kein Hairworks, Hohe Einstellungen, Normal Raytracing. Every frame counts. Tessellation ist aber an, denn das macht einen beträchtlichen Unterschied in der Asset-Qualität, wie gesagt hier geht es um Kosten/Nutzen!

Und jetzt mal folgendes Gedankenexperiment: Würdet ihr daneben Footage eurer Desktop 2060 setzen, die nativ in 1080p und auf Ultra Einstellungen rendert, würde das besser aussehen? Mitnichten, denn der Unterschied zwischen High und Ultra, sowohl vom RT als auch von den generellen Settings ist einfach nicht der Rede wert (den größten Unterschied würden da wohl RT Reflektionen machen, die erst ab Ultra zur Verfügung stehen).
Die 1440p und stabile 60 FPS dagegen fallen sofort auf, auch wenn es nur mit DLSS Performance rekonstruiert wurde.

Das nur mal um zu zeigen, wie unfassbar weit eure Graphen von meiner persönlichen Realität entfernt sind. Ich bin sicher, ich bin nicht der einzige der die Spiele immer so an seine Hardware anpasst, um das bestmöglichste rauszuholen. Von daher wäre es wirklich super, wenn ihr eure Detailskalierung noch etwas ausbauen könntet, denn diese ist ein riesiger Schritt in die richtige Richtung!
 
Zuletzt bearbeitet:
Um beide Seiten glücklich zu machen solltet ihr eventuell überlegen, eure Detailskalierung noch etwas auszubauen.

Heißt: Einmal so testen, wie man es von euch gewohnt ist, also alles auf max, egal ob sinnvoll oder nicht.
Und einmal so testen, wie es der durchschnittliche Käufer auch wirklich spielen würde: Also hohe Einstellungen, Raytracing auf Mittel/Normal und solche unnötigen Features wie Hairworks off....
Das nur mal um zu zeigen, wie unfassbar weit eure Graphen von meiner persönlichen Realität entfernt sind. Ich bin sicher, ich bin nicht der einzige der die Spiele immer so an seine Hardware anpasst, um das bestmöglichste rauszuholen.
1+

Mein 24/7 Hairworks+PhysX=Off, Setting High + RT normal kommt auf sehr erträgliche 148W asic
am Startpunkt.(ca. 180W gesamte Graka, weil die Lü.+Spawas net Viel zu tun haben)
Die CPU kommt noch hinzu mit ca. 35-40W.
Vorteil: Mir reichen im Gehäuse als INTAKE 4x120er@500U/min +2x120er als Outtake.
Mehr W würde ich in meinem 10m² Spielzimmer/Homeoffice net haben wollen.
 

Anhänge

  • RTnormal@1440p60fps.jpg
    RTnormal@1440p60fps.jpg
    3,2 MB · Aufrufe: 54
  • CPU@RTnormal.png
    CPU@RTnormal.png
    324 KB · Aufrufe: 58
Zuletzt bearbeitet:
Das ist eine reine Diskussion über das gefühlte Ergebnis bzw. darüber, wie "böse" einseitig optimierter Code ist. Nehmen wir mal Resident Evil 8: Das Spiel ist voll mit AMD-Code aus dem frei zugänglichen FidelityFX-Toolset. Darin schlummert Code, der gezielt für RDNA (2) optimiert wurde. Das hat für mehrere Parteien Vorteile: Einerseits für die Entwickler der Spiele, die vorgefertigte Lösungen für ihre Probleme erhalten, und andererseits für AMD, deren GPUs bestmöglich performen. Nvidia hat davon nichts, die Optimierung geht an ihnen vorbei. Aber niemand meckert. Warum? Weil die Spiele in der Regel trotzdem fantastisch laufen. Dennoch sind sie einseitig optimiert und liefen anders, wenn kein AMD-Code darin wäre. Der einzige Unterschied zu Gameworks ist, dass man bei FidelityFX an den Source Code kommt.

Laden wir mal kurz eine Parallelwelt, in der AMD andere Prioritäten gesetzt hat. Tahiti tesselliert hier Fermi in Grund und Boden und mit jeder GCN-Iteration wurde die Tessellationsleistung verdoppelt. Am Ende ist Hairworks ein Tessellation-Workload, der im Vorbeigehen gestemmt wird. Wäre das dann immer noch so ein großes Problem? Wäre das gar etwas, das man gerne verlinkt, da es die Architekturstärke zeigt?

Lange Rede, kurzer Sinn: Ich habe ein Problem damit, gezielt Effekte auszumachen, weil sie einer GPU-Familie nicht schmecken. Ausmachen kann man das Zeug immer, aber manchmal - gerade beim anstehenden Neukauf - wüsste man aber schon gerne, wie das performen könnte, oder nicht? :-)

MfG
Raff
Ja, es gibt so vieles über das man nur spekulieren kann weil es eben anders kam:
Was wäre passiert wenn Tesselation schon bei AMDs erstem Versuch namens Truform von den Spieleentwicklern unterstützt worden wäre?
Wie wäre die Bewertung gewesen hätte AMD und nicht nvidia DLSS auf den Markt gebracht?
Wie würden Berichte aussehen wäre nvidias "Universal-NDA" nicht unterzeichnet worden?
Wie hätte sich der eine oder andere Chip verkauft gäbe es die aktuelle Knappheit nicht?
Und warum hat Cardi B einen Grammy bekommen aber Sia nicht???
Spekulieren kann man immer, mal mehr und mal weniger fundiert....?
 
Oh, das Posting habe ich gar nicht gesehen, dabei betrifft das meine Karte. Die ist zweifellos rockstable mit 1.695 MHz und 0,737 Volt via Curve Editor. Und ich spiele in Ultra HD aufwärts. Metro Exodus EE erzeugt eine derart gemeine Last, dass 1,7 GHz auf einer RTX 3090 keineswegs gering sind, sondern die Regel (mit 350 Watt Powerlimit und Luftkühler).

MfG
Raff

Muss ich mal ausprobieren. Merke gerade, dass ich den (maximalen) Takt doch auf 1815 MHz gesetzt hatte, insofern kann man evtl. noch etwas Spannung und Wärme sparen.

War bloß zu faul, weiter zu testen, ob man ohne großen Leistungsverlust noch tiefer gehen kann. :D
 
Immer wieder schön zu sehen wie die Leute es probieren schön zu Reden.
Sry es sieht einfach nicht gut aus wenn alles verwaschen ist und der Kontrast dadurch völlig aufgehoben wird.
Das gleiche Kaspertheater wie mit den Hdr Formaten.
Bei einem Blind Test würden die Leute sagen das die Standart Version Rt hat, weil es einfach viel Kontrastreicher aussieht.
Ihr seid die selben Vögel die HDR auch total mies finden oder? Kein HDR Monitor und keine RT fähige Karte lassen auf einmal überlegene Technologien "falsch" wirken. Lustig.
 
Zuletzt bearbeitet:
Mir gefällt bei Vergleich 3 und 4 das Original besser, RT scheint das Bild nur aufzuhellen ... das mag realistischer sein, muss mir ja aber nicht gefallen ;)

Bei Vergleich 1, 2 und 5 ist es mit RT viel hübscher/realistischer.
 
Mir gefällt bei Vergleich 3 und 4 das Original besser, RT scheint das Bild nur aufzuhellen ... das mag realistischer sein, muss mir ja aber nicht gefallen ;)

Bei Vergleich 1, 2 und 5 ist es mit RT viel hübscher/realistischer.
Hab ich auch so empfunden, bei DF hab ich es mir aber auch nochmal angesehen da sieht es meist recht gut aus.
 
Bei DLSS Qualität habe ich ein Ghosting Effekt bei manche Bewegungen. HDR ist an. Anscheinend soll, dass Ghosting weg sein, wenn man HDR ausschaltet. Sieht denn das Game mit HDR nicht besser aus? Hat es jemand schon getestet? Zocke es auf einem TV.
 
Um beide Seiten glücklich zu machen solltet ihr eventuell überlegen, eure Detailskalierung noch etwas auszubauen.
Ich verstehe den Gedanken, alles manuell nach Gusto und der eigenen Grafikkarte anzupassen natürlich vollends. Allerdings lautet meine Antwort da wie immer: Es ist uns unmöglich, alle Kombinationen mit jeder Hardware durchzutesten, denn dann gäb's pro Jahr nur einen Spieletest von uns. ;)

Wie würden Berichte aussehen wäre nvidias "Universal-NDA" nicht unterzeichnet worden?

Das ist die einzige deiner Fragen, die ich dir sicher beantworten kann: Es würde sich rein gar nichts ändern. Ein Riesenwind um nichts. Stünde ich ständig vor irgendwelchen Maulkörben, würde ich den Job schmeißen, das kannst du mir glauben. Es wundert mich ehrlich, dass das immer noch sporadisch erwähnt wird, und ehrlich gesagt schockt mich auch das mangelnde Vertrauen uns gegenüber etwas.

Bei DLSS Qualität habe ich ein Ghosting Effekt bei manche Bewegungen. HDR ist an. Anscheinend soll, dass Ghosting weg sein, wenn man HDR ausschaltet. Sieht denn das Game mit HDR nicht besser aus? Hat es jemand schon getestet? Zocke es auf einem TV.

Bei Reddit (IIRC) stand, dass das ein bekanntes Problem ist, das mit dem nächsten Patch adressiert werden soll.

MfG
Raff
 
Ich wäre übrigens an jedem Savegame interessiert, wo die Bildrate in der Enhanced Edition laut eurer Beobachtung sehr niedrig ausfällt. Vor allem Innenlevels mit aufgecranktem Raytracing. Hat jemand was? :) Das Gedöns liegt unter \Gespeicherte Spiele\metro exodus bzw. im Root-Verzeichnis des Spiels im Falle der GoG-Version.

MfG
Raff
 
Zurück