Metro Exodus Hotfix-Update: DLSS nach ersten Berichten deutlich besser


Was willst du mir mit diesem Test denn sagen? Wieso sollte DLSS wenn so funktioniert wie angedacht (Final Fantasy und oder Metro) nicht als Glättungsoption angeboten werden?
Früher gab es Diskussionen ob man lieber TAA, MLAA, FXAA, SGSSAA usw. nutzt und alle Glättungen stellen irgendwo einen Kompromiss dar, DLSS ist bezüglich der AI Komponente definitiv eine Glättung die die bisherigen verbessern kann.
Sehe darin nicht direkt den sinn ich schraube die Auflösung runter und rechne das Bild dann hoch, das gleiche macht doch PS5 Pro und XBOX ONE X auch, kann ich auch machen, also worin liegt der sinn?

Vielleicht liest du dich erst einmal in das Thema ein.
 
Zuletzt bearbeitet:
sagt Bevier ... der eigentlich hier ruhig sein müsste



habe ich mit keiner Silbe getan. Allerdings bereits damit gerechnet das du es wieder mal nicht verstehst. Und siehe da, ich hatte recht.



was für ein lächerlicher Kommentar von jemanden der jede Situation ausnutzt gegen Nvidia zu feuern und hier öffentlich rumerzählt er sei "neutral" mach dich ruhig noch lächerlicher



sagst du ? also wirklich. DU ? :lol:



Mit mir kann man auch diskutieren aber du kannst das leider nicht. Warum? Unbewaffnete können sich nicht duellieren.

Du hast es nicht getan? Dein erster Satz war gleich ein Angriff gegen jeden AMD-Besitzer hier im Forum, vollkommen anabhängig, ob sie sich gegen nV und DLSS äußern oder nicht, dazu dann der Witz, ich hätte irgendetwas gegen "deine" Marke gesagt. Wo? Zeig mir ein Zitat der letzten 2-3 Wochen... Du wirst nichts finden. Du bist eine Lachnummer, sonst gar nichts. Ich habe DLSS sicher kritisiert aber dabei bin ich im Gegensatz zu deinen ständigen Angriffen gegen AMD im Allgemeinen immer fair und zurückhaltend geblieben, selbst DLSS, dass sicher derzeit nicht toll funktioniert habe ich gesagt: "wartet es ab, das benötigt halt Zeit, bis die KI das richtig beherrscht". Also, wo greife ich nV oder vor allem deren Nutzer an? Beweise Jungchen...
Diskutieren mit dir, ist ein Witz, richtig wäre "mit Unbewaffneten kann man sich nicht duellieren". Denn, dass du hier keine Waffen trägst, ist offensichtlich.
 
Noch einmal, für was ist das noch einmal gut? http://www.pcgameshardware.de/Metro...ik-Test-Raytracing-DLSS-DirectX-12-1275286/2/

Sehe darin nicht direkt den sinn ich schraube die Auflösung runter und rechne das Bild dann hoch, das gleiche macht doch PS5 Pro und XBOX ONE X auch, kann ich auch machen, also worin liegt der sinn?

Ich denke man muss das als langfristige Strategie von nVidia betrachten. Was jetzt nur als ein Gimmick erscheinen mag, wird in Zukunft eventuell unerlässlich sein. Silizium Chips lassen sich nicht unendlich verkleinern (meinem Verständnis nach ist bei ca. 5nm das Ende der Fahnenstange erreicht - man korrigiere mich, wenn ich da falsch liege). Sprich: Die Performance der GPUs lässt sich irgendwann nicht mehr auf konventionellem Wege steigern. Also suchen die Hersteller nach Alternativen. KI kann hier ein Weg sein.

Abseits vom Gaming ist nVidia da schon ziemlich weit. Man schaue sich nur mal die Demos an, wo aus 30 FPS Filmaufnahmen mittels KI eine 240 FPS Superzeitlupe errechnet wurde. Man erkennt quasi keinen Unterschied zur gleichen Szene, die mit einer 240 FPS Kamera aufgenommen wurde. Obwohl alle Zwischenframes per KI errechnet wurden.

Ob das gut ist oder schlecht, mag ich an der Stelle gar nicht bewerten. Aber ich denke es ist unübersehbar, dass es sich um einen strategischen Technologiewechsel handelt. Und der steckt noch in den Kinderschuhen. In 5-10 Jahren sieht das vermutlich ganz anders aus und wahrscheinlich werden KI-errechnete Bilder dann zur selbstverständlichen Normalität gehören.
 
Gerade dafür bist du bekannt! Ert einmal wieder gegen AMD schießen

Man kann gerne gegen etwas schießen, wenn zumindest halbwegs darum bemüht ist neutral zu sein.
Und AI Glättung und oder Raytracing - egal von wem das nun kommt quasi prinzipiell als Quatsch abzutun stellt für mich eine deutlich Steigerung des üblichen Fangeschachere dar.
Analog zum Launch von RT in Battlefield, da gab es plötzlich eine Menge User die glaubten das könne nicht performant laufen - natürlich entgegen jedes Faktums oder den Hinweis mal auf Patches zu warten.
Man kann schon sagen dass sich generell eine große Anti-Nvidia Gemeinde aufgebaut hat, rein aufgrund der Preise von Turing, das finde ich für ein Tech-Forum eben enttäuschend.

Nimm dir ein Beispiel an Schaffe, den kann man wenigstens noch Ernst nehmen und mit ihm diskutierien, da kommt nicht nur ausschließlich solch ein Müll bei herum, auch wenn man auch bei ihm sicher einiges nicht unwiedersprochen schlucken kann, ist er weit von den 100% Müll, die du erreichst. entfernt... -.-

Man sollte halt einfach von seinem Fankult runterkommen.
Weder ist DLSS oder Raytracing das absolute Non Plus Ultra, weder gilt das für AMD´s Features, deswegen muss aber weder das eine oder andere Quatsch, sinnlos oder Blödsinn sein.
Da machen sich Ingenieure jahrelang Gedanken wie man etwas umsetzen kann und dann geht man ins Forum und man sieht nur Hate-Kommentare, das ist stückweit frustrierend.
 
Zumindest wird daran gearbeitet die Totgeburt einiger Marketingfutzies namens DLSS, dem gemeinen Pöbel ein wenig schmackhafter zu machen. Ändert jedoch nichts an der Grundproblematik, weniger Rechenlast= weniger Bildqualität, man feilt gerade an der Grenze zwischen beidem.

Den gemeinen Pöbel, wenn ich sowas schon lese und Du glaubst du wärst, wenn Du sowas schreibst eine art neue "Adelsschicht"?
 
Das wird in Zukunft sicher besser werden, bin ich überzeugt von. Hat jedenfalls mehr Potenzial DLSS als Ray-Tracing auf RTX Karten.
 
Was willst du mir mit diesem Test denn sagen? Wieso sollte DLSS wenn so funktioniert wie angedacht (Final Fantasy und oder Metro) nicht als Glättungsoption angeboten werden?
Früher gab es Diskussionen ob man lieber TAA, MLAA, FXAA, SGSSAA usw. nutzt und alle Glättungen stellen irgendwo einen Kompromiss dar, DLSS ist bezüglich der AI Komponente definitiv eine Glättung die die bisherigen verbessern kann.


Vielleicht liest du dich erst einmal in das Thema ein.

Ich habe mich eingelesen und sehe in diesem Feature keinen Sinn, Nvidia muss aufwendig es vor berechnen lassen, bei wie viel spielen macht man des, und den Benchmark habe ich geschickt, da man auch ohne dem Feature gute Frameraten bekommen kann, also sehe ich in diesem Feature absolut keinen sinn, außer das Nvidia sich überlegt hat wie können wir die KI Cores beim Gaming verwerten und wie können wir wieder einen Proprietären Standard einführen, offene Standards, für NVIDIA nein danke......

Die leidtragenden sind die Spieler, und sowas verteidigst du und findest es sogar noch gut, interessante Einstellung

Wenigstens sind die bei GSync auf die Fresse gefallen
 
Ist euch mal aufgefallen, dass ihr aus jedem Review, egal um was es Anfangs auch geht, einen AMD VS. NVIDIA WER HAT DEN LÄNGSTEN Vergleich macht ? Um das gehts doch garnicht ?! :D Packt euch mal am Ego, oder auch wo anders wenns denn nötig ist .... man man man


EDIT: Ich zock jetzt ne Runde Metro Exodus ohne DLSS / RTX ... sieht imho genauso geil aus :P
 
Zuletzt bearbeitet:
Ich habe mich eingelesen...

Sieht für mich nicht so aus, wenn du behauptest man könne auch einfach Upscaling betreiben.
Wie gesagt an dem Punkt lohnt es sich für mich nicht da weiterzudiskutieren, am Ende ist es doch wieder nur der Beißreflex gegen Nvidias GameWorks.
Ein offener Standard benötigt Zeit und ein Mitwirken von AMD. G-sync hat so gesehen Freesync erst ermöglicht, DLSS ermöglicht AI Kantenglättung/Upscaling dann womöglich auch über Directx12 DirectML oder wie das heißt, eben später.
Man kann das alles später haben, aber eben nicht jetzt und aus der Perspektive finde ich GameWorks eine nette Sache, DXR ist aber sowieso nicht gedongelt.

Wo wären wir mit Freesync heute, wenn G-sync mit hohen Standards nicht die Marschroute vorgegeben hätte?
Wahrscheinlich weiterhin bei Monitoren ohne LFC und Bildflackern.
Eine dauerhafte Spaltung des Marktes wäre aber sicherlich schlecht gewesen, keine Frage.
 
Nvidia macht hier ganz klar einen Fehler beim Marketing.

Es darf nie und niemals RTX On und RTX Off heißen. RTX Off schaltet Cores ab und ist eigentlich eine Art Stromsparmodus mit leisem Lüfter. Schont Ohren und Geldbeutel, also absolut Top das Feature. Da darf man ruhig etwas mehr Geld für die Graka zahlen, man spart es ja anschließend wieder.

DLSS verbessert das Bild indem es die Texturen so aussehen lässt wie früher, als nachweislich alles besser war. Da hat man auch nicht so genau hingesehen, man hat hat sich mit 320x240 Pixeln den Farbflash ins Auge blitzen lassen und vor dem Schlafen gehen zu Gott gebetet dass man davon keinen Epileptischen Anfall im Schlaf erleidet und dabei erstickt oder so.

Nostalgie, Umweltschutz und Lärmschutz, was kann man von einer Karte mehr verlangen? Bevor jetzt jemand über die R7 lästert, auch die muss man einfach richtig benutzen. Vertikal montieren, Gehäuse ans offene Fester stellen, gehärtete Glasscheibe einschlagen und schon helfen die Lüfter bei der Luftbestäubung des dt. Waldes. Mehr Wald, weniger CO2. Nur der AMD PC wird so gleichzeitig zu einem Winterrefugium für Bienenköniginnen.

Was einem lieber ist, kann jetzt jeder für sich entscheiden. Volksentscheid Bayern ist aber ganz klar Rettet die Biene und damit eine R7 für alle auf Staatskosten.
 
Zuletzt bearbeitet:
DLSS ist ein e interessante Idee.
Leider hat das Feature 2 intrinsische Nachteile, die mit aktueller Technik nicht wegzukriegen sind:

1) Jedes Spiel muss einzeln durch die KI im Nvidia Supercomputer gejagt werden - für jede gebotene Auflösung einzeln und verursacht dadurch deutlich mehr Stromverbrauch für diverse Wochen (schlimmstenfalls Monate), als die aktuelle Implementierung rechtfertigen würde.
2) Selbst mit der nachgebesserten Version kommt die Bildqualität ungefähr auf das Niveau wie eine Renderskalierung auf 80% - bei gleicher Performance.

Durch 2) wird 1) aktuell zu einer noch sinnfreieren Stromverschwendung, als Coin Mining.
Man lagert die nötige Rechenpower schlicht auf einen zentralen Supercomputer aus und hat damit den Stromverbrauch nicht bei sich, sondern bei Nvidia.
Wäre echt mal interessant, wie die Energiebilanz aussähe, wenn man den Stromverbrauch dann auf jede verkaufte Karte umlegt...
 
Nvidia macht hier ganz klar einen Fehler beim Marketing.

Es darf nie und niemals RTX On und RTX Off heißen. RTX Off schaltet Cores ab und ist eigentlich eine Art Stromsparmodus mit leisem Lüfter. Schont Ohren und Geldbeutel, also absolut Top das Feature. Da darf man ruhig etwas mehr Geld für die Graka zahlen, man spart es ja anschließend wieder.

DLSS verbessert das Bild indem es die Texturen so aussehen lässt wie früher, als nachweislich alles besser war. Da hat man auch nicht so genau hingesehen, man hat hat sich mit 320x240 Pixeln den Farbflash ins Auge blitzen lassen und vor dem Schlafen gehen zu Gott gebetet dass man davon keinen Epileptischen Anfall im Schlaf erleidet und dabei erstickt oder so.

Nostalgie, Umweltschutz und Lärmschutz, was kann man von einer Karte mehr verlangen? Bevor jetzt jemand über die R7 lästert, auch die muss man einfach richtig benutzen. Vertikal montieren, Gehäuse ans Fester stellen, gehärtete Glasscheibe einschlagen und schon helfen die Lüfter bei der Luftbestäubung des dt. Waldes. Mehr Wald, weniger CO2. Nur der AMD PC wird so gleichzeitig zu einem Winterrefugium für Bienenköniginnen.

Was einem lieber ist, kann jetzt jeder für sich entscheiden. Volksentscheid Bayern ist aber ganz klar Rettet die Biene und damit eine R7 für alle auf Staatskosten.

Toller Beitrag-selten so gelacht :lol:
Vor allem das Winterrefugium für die Bienenkönigin hat mich gekillt :lol:
 
Das wird in Zukunft sicher besser werden, bin ich überzeugt von. Hat jedenfalls mehr Potenzial DLSS als Ray-Tracing auf RTX Karten.

Ob es besser wird, ist derzeit leider reine Glaskugelleserei, wegen des offenbar sehr individuellen Anpassungsaufwands für jedes Programm und und jede Auflösung aber eher.... na, ja...in praktisch nennenwerter Breite und über zwei, drei Marketin-Games hinaus realistischerweise dann doch sehr unwahrscheinlich.

Der Punkt ist auch eher, dass es erstens nur bei Raytracing on praktisch überhaupt notwendig ist und zweitens außerdem offenbar bislang wieder reines nV-Blendwerk, wenn jeder Monitorscaler das upscaling in besserer Qualität hinbekommt.
 
Wenigstens sind die bei GSync auf die Fresse gefallen

Bei GSync haben sie einige Jahre mit einem offenen Standard exklusiv fürstliche Margen gescheffelt. Wirtschaftlich gelohnt hat sich das für nV ganz sicher. Ob man so etwas als consumer unterstützt, steht wieder auf einem anderen Blatt.

Oh mein gott, das musst du mir erklären.... Das ist doch nicht dein Ernst

Bitte Ihn doch nicht auch noch um weitere Erklärungen! Nachher liefert er sie noch. :lol:

Außerdem unterläuft so ein Trollfeeding doch immer die ganze Ignor-Listen-Mechanik hier im Forum. :hmm:
 
Zuletzt bearbeitet:
Zurück