Metro Exodus Enhanced: Release schon bald, nur für Raytracing-GPUs, kein Super Resolution

Wie das TAA Upscaling mal überhaupt keine Chance gegen DLSS hat.
Da hat man schon ein sehr feines Feature an der Hand und auch das Flackern ist deutlich reduziert.
Läuft sogar auf ner 2060 ganz gut, da müsste es auf meiner 3060 mit DLSS in QHD bombe laufen.
Wer ne Radeon hat, darf weinen. :D
 
Das glaub ich nicht.
Es wird zumindest sehr lange dauern, bis es so ist.
Ich sagte "öfter", also mehr als Null. ;)

Wenn ich jetzt gerade ein kleines Studio wäre und ein neues Spiel anfange zu bauen, welches in 2-3 Jahren rauskommen soll, und begrenzte Ressourcen habe, dann könnte es doch sein dass man sich für RT-only entscheidet? Der Aufwand die "Welt zu bauen" ist ein Bruchteil im Vergleich. Da wäre interessant wie viel Zeit-Ersparnis das bei so einem Projekt am Ende ist.

Die Spiele die dieses / nächstes Jahr rauskommen sind natürlich als Rasterization Games (ggf. mit optionalem RT) geplant gewesen. Jetzt haben wir das erste Beispiel eines RT-only Remaster. Der Wandel ist da.
In 5-6 Jahren wird eh irgendwann jeder ne RT-fähige Karte haben, oder holen.
Jeder der jetzt eine halbwegs aktuelle Karte zum zocken holt hat RT dabei. Nicht erst in 5-6 Jahren.
 
Ja, so wird es gemacht, Spiele bald nur für die, die genug Geld haben. Soll mal einer sagen das Aluhüte nicht modern sind. :lol:
Als ob. Man kann das Spiel auch ohne RT zocken. Sieht optisch nur deutlich schlechter aus.
Grafik hat sich schon immer weiterentwickelt. Von Directx 9 zu 10, danach 11 und 12 und jetz eben DXR.
Jetzt haben wir das erste Beispiel eines RT-only Remaster. Der Wandel ist da.
The Witcher kommt auch, oder?
 
Vor allem der "Developer-Tools and Process" Teil ist beeindruckend:
Rasterization Fake-Light-and-Shadow-Map-Placement - dauert Stunden (oder Tage) je nach Größe der Szene
RT-GI - *klick* fertig
Tolle Sache, aber.. Am Ende zahlen wir praktisch dafür (in Form extrem teurer Grakas und der Stromrechnung), dass Entwickler weniger Arbeit haben.

Nicht falsch verstehen.. RT ist die Zukunft und weniger Arbeit für Entwickler ist immer schön, aber wir alle wissen ja wieviel die (meisten) Entwickler von dieser Ersparnis an uns Käufer weitergeben werden, nämlich gar nichts. Im Gegenteil: Raytracing ist der neuste Shit, da kann man sogar mit den Preisen noch hoch gehen.
 
Genau die bleibt im Rechner bis sie abraucht oder nur noch 1 FPS anzeigt


Im Zweifelsfall einfach n paar Details hier und dort reduzieren und schon klappt's mit den nächsten 5 Jahren ! :)

Edit: Abgesehen von den Leutturmprojekten, oder wie hier der "Nvidia-Werbeshow", kann man nach wie vor sehr gut ohne RT/DLSS leben.

Edit2: Wenn ich jetzt gerade entscheiden müsste, ob ich Metro Enhanced, oder lieber Wreckfest/Valheim/Hunt starten sollte, würde ich eher letztere wählen. Einfach weil ich bock drauf hab. Und ganz ohne RT/DLSS. :cool:

edit3: Das ging raus, an alle, die noch keine RT-Karte haben und zweifeln, ob sie jetzt wechseln sollten. Haltet ruhig noch etwas an den guten Nicht-RT Karten fest, wenn sie euch prinzipiell für eure Auflösung/fps noch reichen.
 
Zuletzt bearbeitet:
Tolle Sache, aber.. Am Ende zahlen wir praktisch dafür (in Form extrem teurer Grakas und der Stromrechnung), dass Entwickler weniger Arbeit haben.

Nicht falsch verstehen.. RT ist die Zukunft und weniger Arbeit für Entwickler ist immer schön, aber wir alle wissen ja wieviel die (meisten) Entwickler von dieser Ersparnis an uns Käufer weitergeben werden, nämlich gar nichts. Im Gegenteil: Raytracing ist der neuste Shit, da kann man sogar mit den Preisen noch hoch gehen.
RT hat nichts mit den aktuellen Preisen zu tun. Und wir zahlen nicht dafür dass Entwickler weniger Arbeit haben, sondern für realistische Beleuchtung ergo geilere Grafik. Das ist doch nichts Neues!?

Beide Gens (RDNA2 / Ampere) benötigen mehr Strom als die vorherige, das ist nun mal zwingend erforderlich wenn man die Performance erhöht. Kleinere Strukturgrößen ergeben entweder deutlich mehr Performance oder deutlich weniger Stromverbrauch. Beides geht leider nicht.

Im Zweifelsfall einfach n paar Details hier und dort reduzieren und schon klappt's mit den nächsten 5 Jahren ! :)

Edit: Abgesehen von den Leutturmprojekten, oder wie hier der "Nvidia-Werbeshow", kann man nach wie vor sehr gut ohne RT/DLSS leben.
Auf jeden Fall kann man aktuell noch sehr gut ohne RT/DLSS leben! Ich sage nur: der Wandel kommt nicht erst in 5-6 Jahren, er hat schon begonnen. Das geht anfangs immer langsam los und zieht dann an.
 
Ich sage nur: der Wandel kommt nicht erst in 5-6 Jahren, er hat schon begonnen.

Ja, wenn man so will !? Mehr als Null(1) is ja auch schon was. Hoffentlich geht's nicht in dem rasenden Tempo weiter ! ;)

Ich sagte "öfter", also mehr als Null.


edit: Aber jetzt bin ich erst mal auf den PCGH unabhängigen Test gespannt, denn die lassen sich ja in keinster Weise von einem Werbepartner, Testexemplarlieferanten, oder z.B. einem frühen Exklusiveinblick, mit Berichterstattungserlaubnis beeinflussen und ob da irgendwas wie "Licht-Lags" auffallen. :D


Ich glaube an Euch ! :daumen:

:pcghrockt:


edit: Sry, weiß nicht, was im Kaffee war. So braunes Zeugs ... ;) So ... Kaffee is alle. Muss zocken.
Kaffee 3.jpg
Wreckfest Smiley.jpg
 
Zuletzt bearbeitet:
Beide Gens (RDNA2 / Ampere) benötigen mehr Strom als die vorherige...
RDNA 2 nicht, weswegen behauptest du das immer?
Wenn einer hier mehr Strom braucht, dann Nvidia.
Aber das ist eh völlig rille, da sie so oder so schneller sind.

Auf jeden Fall kann man aktuell noch sehr gut ohne RT/DLSS leben!
Finde ich nicht. Habs in Cold War, Death Stranding, Minecraft und autriders und cyberpunk an.
und jetz dann in meinem Lieblingsgame Metro. Ohne will ich gar nicht mehr spielen.
Radeons können es auf absehbare Zeit nicht.
 
RDNA 2 nicht, weswegen behauptest du das immer?
Wenn einer hier mehr Strom braucht, dann Nvidia.
Aber das ist eh völlig rille, da sie so oder so schneller sind.
Meinst Du Dein 5700XT vs 6700XT Beispiel? Ja, da wird ungefähr gleich viel Strom verbraucht bei höherer Leistung der 6700XT. ABER eine 6900XT kann nur mit einer 3090 in Rasterization gleichziehen bei ungefähr gleichem Stromverbrauch (~10% weniger).
 
Und wir zahlen nicht dafür dass Entwickler weniger Arbeit haben, sondern für realistische Beleuchtung ergo geilere Grafik.
Doch, natürlich zahlen wir auch dafür. Die Entwickler haben weniger Arbeit UND wir bessere Grafik. Wir zahlen für beides. Man könnte auch sagen die Entwickler outsourcen mit RT Arbeit an die Spieler, die dafür sehr teure Grakas kaufen müssen. Das ist halt auch ein Aspekt vom Raytracing, den man mal erwähnen kann.

Wenn dafür im Gegenzug die Spiele etwas besser/größer/günstiger werden wäre alles in Butter, aber das bezweifle ich wie gesagt sehr stark. Aber erstmal muss sich RT überhaupt durchsetzen. Wirklich überzeugt hat es mich bis jetzt nur bei Metro und Minecraft. DLSS dagegen ist für mich schon mittlerweile Pflicht im AAA-Bereich.
 
Wie schnell doch Nvidia mit nar Schuppkarre voll Klimperzeugs Ihre Leutchen glücklich macht-nice!
Ich geh mir jetzt auch so ne Karte kaufen...ach ne, gibt ja nüschts!
Gruß Yojinbo
 
Das geile ist ja, dass viele denken, dass die Nvidia Karten noch viel zu schwach für vernünftiges RT sind.

Klar, DLSS muss nachhelfen und ist ne sache für Sich. Trotzdem sehen wir hier jetzt absolut astronomische Verbesserungen im Vergleich zur non-RT Version und das performant auf allen verfügbaren Nvidia Karten die RT beherrschen.

Selbst auf den AMD Karten und den Konsolen kommt man ja in den Genuss der verbesserten Optik, wenn auch mit etwas reduzierten Settings. Aber selbst da profitiert man ja enorm davon.

Wenn man sieht wo wir mit den ersten RT Spielen waren und was jetzt möglich ist... Wer weiß was in weiteren 1-2 Jahren geht, wenn RT weiter optimiert wird, und die Entwickler lernen richtig damit umzugehen und die UE5 mit ihrer eigenen RT Lösung verspricht ja auch massive Verbesserungen bei GI.

Die nächsten Jahre werden richtig interessant.

Tatsächlich ist das Metro Update noch gar kein echtes next-gen Update.
Da fehlt mir der ganze DX12 Ultimate kram. Direct Storage, Sampler Feedback Streaming, MeshShader usw.
Ja, das braucht noch Zeit, aber das ist halt ein Bereich der auch viel Potenzial verspricht und der hier noch nichtmal angefasst wurde. Heißt, mit unseren aktuellen Karten würde noch sehr viel mehr machbar sein.
 
Doch, natürlich zahlen wir auch dafür. Die Entwickler haben weniger Arbeit UND wir bessere Grafik. Wir zahlen für beides. Man könnte auch sagen die Entwickler outsourcen mit RT Arbeit an die Spieler, die dafür sehr teure Grakas kaufen müssen. Das ist halt auch ein Aspekt vom Raytracing, den man mal erwähnen kann.

Wenn dafür im Gegenzug die Spiele etwas besser/größer/günstiger werden wäre alles in Butter, aber das bezweifle ich wie gesagt sehr stark. Aber erstmal muss sich RT überhaupt durchsetzen. Wirklich überzeugt hat es mich bis jetzt nur bei Metro und Minecraft. DLSS dagegen ist für mich schon mittlerweile Pflicht im AAA-Bereich.
Wie kommst Du auf den "Aspekt Raytracing" der die Karten aktuell absurd teuer macht? Da ist kein Zusammenhang, null, nada. Die UVP einer 3080 ist weiterhin 720€, einer 6800XT ~650€. Wir bezahlen theoretisch sogar weniger €/Performance als in der letzten Gen.

Die aktuellen Scalper Preise macht der Markt, nicht AMD oder NV. Große Nachfrage trifft auf geringeres Angebot. Dazu kommt Corona, höherer Chip Bedarf in diversen Branchen, und auch das Mining.

Hier wird es schön erklärt: Link
 
Tatsächlich ist das Metro Update noch gar kein echtes next-gen Update.
Da fehlt mir der ganze DX12 Ultimate kram. Direct Storage, Sampler Feedback Streaming, MeshShader usw.
Ja, das braucht noch Zeit, aber das ist halt ein Bereich der auch viel Potenzial verspricht und der hier noch nichtmal angefasst wurde. Heißt, mit unseren aktuellen Karten würde noch sehr viel mehr machbar sein.
Die Technik-Jungs von DICE wollen für Battlefield 6 sich an der kompletten Technologie der neuen Konsolen bedienen. Haben sich extra ein Jahr mehr Entwicklungszeit genommen.
BF war für mich immer die Technik Referenz bei Shootern. ich denke das wird diesmal später 2021 nicht anders sein.
 
Doch, natürlich zahlen wir auch dafür. Die Entwickler haben weniger Arbeit UND wir bessere Grafik. Wir zahlen für beides. Man könnte auch sagen die Entwickler outsourcen mit RT Arbeit an die Spieler, die dafür sehr teure Grakas kaufen müssen. Das ist halt auch ein Aspekt vom Raytracing, den man mal erwähnen kann.

Wenn dafür im Gegenzug die Spiele etwas besser/größer/günstiger werden wäre alles in Butter, aber das bezweifle ich wie gesagt sehr stark. Aber erstmal muss sich RT überhaupt durchsetzen. Wirklich überzeugt hat es mich bis jetzt nur bei Metro und Minecraft. DLSS dagegen ist für mich schon mittlerweile Pflicht im AAA-Bereich.

Eine vernünftige KI wäre auch mal was. Da hat sich seit FEAR leider sehr wenig getan.
 
Wie kommst Du auf den "Aspekt Raytracing" der die Karten aktuell absurd teuer macht?
Turing war die wohl teuerste Gen aller Zeiten. Und was war der Hauptgrund warum Turing so teuer war? Weil wir Raytracing mitkauften mussten. Ampere ist "besser", aber nur im Vergleich zu Turing, und das auch nur theoretisch wie du schon sagst.

Um die Scalper oder die aktuelle Situation gehts mir gar nicht. "Aktuell" hab ich auch gar nicht geschrieben. Raytracing kostet uns Kunden generell Geld. Die Einheiten dafür klatscht Nvidia wohl kaum kostenlos in den Chip, und Entwicklungkosten wälzen AMD und Nvidia natürlich auch auf die Kunden ab. Das wird auch in Zukunft so sein. Auch AMD ist ja mittlerweile schon mit ner vierstelligen UVP unterwegs.
 
Zurück