Outriders im Techniktest: Knackige Action mit der wohl besten DLSS-Implementierung

Da hat man wohl mal wieder Rücksicht auf die im Speicher beschränkten NV Pendants genommen und sich ein dickes Eigentor geschossen.
Das ist doch billiger Nvidia Flame. Nvidia hat doch ein X-faches mehr an Karten mit über 8 GB am Markt als AMD.
Wieviel es wohl bei AMD mit der VII und der 6000er Reihe sind im Vergleich zu Nvidia mit der GTX 1080Ti/RTX 2080Ti/RTX 3080/RTX 3090 ? Vielleicht sollte man (PCGH) mal beim Entwickler nachfragen wie man zu so einem Schnitt (8GB) kommt, bevor man sich zu so einem Statement herabläßt.
 
Beim Überblick über alle GPUs wäre es sinnvoll und wünschenswert - wenn auch aufwendiger, bei ALLEN nVIDIA-Produkten und nicht nur exemplarisch für das Topprodukt, die Performance unter DLSS anzuzeigen. Im Grunde hätte dafür die Balanced-Einstellung genügt. Erst recht, wenn es im Titel des Artikels eine wesentliche Rolle spielt und die Implementierung ausdrücklich gelobt wird, schließlich ist das Feature gerade für ältere, oder in einer niedrigeren Performanceklasse angesiedelten Modelle interessant.
 
Das ist doch billiger Nvidia Flame. Nvidia hat doch ein X-faches mehr an Karten mit über 8 GB am Markt als AMD.
Möchte über die Möglichkeiten von DLSS in diesem Spiel hinwegtäuschen.
RAM ist bei den ATI Karten problematisch.
Ich habe mir diese Screens genau angeschaut und bin zu dem Entschluss gekommen, dass DLSS Balanced absolut klasse ist.

Man kann mit einer Nvidia 3090 50% Leistung draufrechnen.
Mit schwächeren Modellen wohl 70%
ATI wird komplett zerstört in diesem Game.

Ich habe jetzt meine 980Ti für 260 Euro an den Mann gebracht und für das Bild nutze ich eine 9800GT.:-D
Spare auf eine 3060.
Beim Überblick über alle GPUs wäre es sinnvoll und wünschenswert - wenn auch aufwendiger, bei ALLEN nVIDIA-Produkten und nicht nur exemplarisch für das Topprodukt, die Performance unter DLSS anzuzeigen.
Dann wäre 3060 auf dem Nivaeau einer 6800XT.
 
Hier wurde ja eigentlich schon so ziemlich alles gesagt.
Das Spiel ist tatsächlich deutlich besser als die Wertungen es aktuell zeigen.
Ich habe aktuell auch noch meien negative Wertung auf Steam bestehen, solange das Problem mit dem Inventat Wipe und dem nicht mehr einloggen können mit betroffenen Charakteren nicht endgültig aus der Welt geschafft wurde (und nicht wieder nur im Patch steht "wurde gemacht" und danach tritt es bei noch mehr Spielern auf).
Das Spiel macht Spaß, das Waffenhandling ist solide, die Story nichts neues (aber wen stört das schon in so einem abgespaceten Shooter), der Loot motiviert, Waffen und Rüstungen lassen sich upgraden/modifizieren/aufleveln, die Klassen machen Spaß mit ihren Fähigkeiten und einer meiner Favoriten: die Gegner zerplatzen richtig schön, wenn man sie mit einem der Skills trifft :devil:
Ach ja, DX12 lief bei mir nur stockend, in DX11 lief es dagegen recht gut.

DIe schlechten Bewertungen kommen tatsächlich zum allergrößten Teil davon, dass Spieler ihr gesamtes Inventar verloren haben und mit betroffenen Charakteren nicht mehr enloggen können, was wirklich ein riesiges No-Go ist für einen Loot-Shooter.
Wer generell etwas mit dem Genre anfangen kann, der sollte in einigen Wochen/Monaten mal reinschauen, wenn diese Probleme endlich behoben wurden, denn das Spiel an sich ist schon gut gemacht.

Bei mir ist es aktuell wieder von der Platte geflogen, aber ich werde in Zukunft irgendwann gerne nochmal reinschauen (und hoffen, dass ich mit meinem Char dann wieder einloggen kann :klatsch:)
 
Das ist doch billiger Nvidia Flame. Nvidia hat doch ein X-faches mehr an Karten mit über 8 GB am Markt als AMD.
Wieviel es wohl bei AMD mit der VII und der 6000er Reihe sind im Vergleich zu Nvidia mit der GTX 1080Ti/RTX 2080Ti/RTX 3080/RTX 3090 ? Vielleicht sollte man (PCGH) mal beim Entwickler nachfragen wie man zu so einem Schnitt (8GB) kommt, bevor man sich zu so einem Statement herabläßt.
Also ich finde es schon auffällig mittlerweile das die Spiele keine Streamingregler anbieten um über 8GB hinaus zu gehen, zudem ist das TAA häufig sehr schlecht umgesetz wenn DLSS mit im Boot ist.
 
Ich tue mich aktuell etwas schwer damit die Werte nachzuvollziehen.

Mal exemplarisch die Unterschiede zwischen 6800 XT und 6900 XT in den verschiedenen Auflösungen:
1080p:
AVG:
6800 XT6900 XT
100 %106%
P1:
6800 XT6900 XT
100 %111%

1440p:
AVG:
6800 XT6900 XT
100 %110%
P1:
6800 XT6900 XT
100 %113%

2160p:
AVG:
6800 XT6900 XT
100 %110%
P1:
6800 XT6900 XT
100 %117%

Das ist zu viel. Gerade die P1 Werte ergeben keinen Sinn.

Auch die Unterschiede zwischen 3080 und 3090 sind viel zu groß.

Edit: Ich glaube am ehesten das bei den Messungen der 6900 XT was schief gelaufen ist.
 
Zuletzt bearbeitet:
Also ich finde es schon auffällig mittlerweile das die Spiele keine Streamingregler anbieten um über 8GB hinaus zu gehen, zudem ist das TAA häufig sehr schlecht umgesetz wenn DLSS mit im Boot ist.
Vor Allem, wenn gar kein DLSS erf. ist.

Hab mal nen Schnappschuss in 1800p(x) gemacht. Die Hardware langweilt sich.
Sieht in 4k net groß Anders aus, das AA auf Mittel reicht schon. (und Schatten von Ultra auf Hoch)
(mehr macht eh keinen Sinn an meinem kleinen 28")

(x) kann leichter nen Schnappschuss machen im Fenstermodus in 1800p
 

Anhänge

  • Outriders2@1800p-60Hz-Vsync.png.jpg
    Outriders2@1800p-60Hz-Vsync.png.jpg
    923,3 KB · Aufrufe: 102
Zuletzt bearbeitet:
@blautemple die 3090 hat 20% mehr Shader und schnelleren Speicher, also zumindest theoretisch sollten die Unterschiede gut möglich sein, auch, wenn sich die 3090 in vielen Games schlecht absetzen kann.

@RX480 V-Sync aus dann langweilt sich die Karte nicht mehr und wenn du mit anderen Settings und anderer Szene vergleichst ist es sowieso Schwachsinn.
 
Aha na dann, ich spiele es selbst und das Game ist sehr gut.

no.png


Das Game ist als Loot-Shooter höchstens befriedigend. Folgendes ist alles aus der Sicht eines Level 30 Verwüsters, der nur im Coop-gespielt hat.

- langweilige, generische Story
- schrecklich schlechte Dialoge
- schrecklich billige Inszenierung
- Grafik höchstens mittelmäßig (mit dem grässlichen TAA)
- Gun- und Skillfeedback / -handling kaum vorhanden
- Deckungssystem unbrauchbar
- Gegner-/Bossmechaniken kaum vorhanden
- teils nutzlose Skills
- kaum Coop-Mechanik
- teils schlecht designte Gegnermoves / KI
- Waffen- und Rüstungsdesign langweilig und unschön (Geschmackssache)
- Map und Minimap miserabel und abgesehen von der Schnellreise nahezu unbrauchbar
- CUTSZENES! immer und überall
- Netcode miserabel
- Crashes und gamebraking Bugs
- langweilige(s) Gegner(design) (gibt ein paar Ausnahmen)
...

+ gootes Item- / Lootsystem
+ Skilltree und Fertigkeiten haben gute Ansätze, fehlt aber noch was
+ Progressionssystem ist in Ordnung
+ irgendwelche Bulletsponges wegballern macht doch immer wieder irgendwie Spaß

Outriders hat das, was Anthem gefehlt hat und vice versa. Mehr als die Metacritic Userwertung von @ChrisMK72 hier im Thread ist echt nicht drin.

TAA ist gut umgesetzt, DLSS eben nur besser.

Gut umgesetzt? Bedeutet gut, dass alles verschwimmt, sobald man die Maus auch nur einen Millimeter bewegt?
 
@blautemple die 3090 hat 20% mehr Shader und schnelleren Speicher, also zumindest theoretisch sollten die Unterschiede gut möglich sein, auch, wenn sich die 3090 in vielen Games schlecht absetzen kann.
Der Speicher wird doch laut Text gar nicht genutzt.
 
Kann wirklich nur empfehlen, die Demo mal fix runter zu laden.

Da kann man sich "Fachsimpeln" sparen.

btw.
Vermutlich lassen sich bei der UE4 auch noch ini-Dateien etwas aufbohren, muss man mal schauen,
wo genau die ini´s liegen. (älteres Bsp. im Anhang)
Liegt unter Madness.
 

Anhänge

  • UE4_ini.JPG
    UE4_ini.JPG
    81 KB · Aufrufe: 59
Zuletzt bearbeitet:
zudem ist das TAA häufig sehr schlecht umgesetz wenn DLSS mit im Boot ist.
In Cyberpunk ist es doch gerade umgekehrt. Da haben die Entwickler es wohl versäumt bei DLLS nachzuschärfen, während es mit TAA kein Problem gibt. Es wird sich wohl erst mit den nächsten Titeln zeigen, wenn DLSS auf Knopfdruck implentiert werden kann, was es letztendlich taugt. Bis jetzt hat immer das Studio das letzte Wort wie gut oder schlecht es wird.
 
Vor Allem, wenn gar kein DLSS erf. ist.

Hab mal nen Schnappschuss in 1800p(x) gemacht. Die Hardware langweilt sich.
Sieht in 4k net groß Anders aus, das AA auf Mittel reicht schon. (und Schatten von Ultra auf Hoch)
(mehr macht eh keinen Sinn an meinem kleinen 28")
Keine Ahnung, was du für ne Karte hast, aber ich hatte heftige FPS-Drops in der Stadt mit meiner Karte in 1080p.

Der Speicher wird doch laut Text gar nicht genutzt.
Er schrieb auch "schnellerer Speicher" und nicht "mehr Speicher".
 
Keine Ahnung, was du für ne Karte hast, aber ich hatte heftige FPS-Drops in der Stadt mit meiner Karte in 1080p.
Soweit war ich net, nur ganz am Anfang.
...
Werde jetzt erstmal mit den modifizierten ini-dateien neu starten.
(wird am Anfang aber kaum ne Rolle spielen)

edit: Ist erstmal mit den zusätzlichen Einträgen in den ini`s net abgestürzt.
Ob sich das Ganze positiv auswirkt, wird man wohl erst an kritischen Stellen sehen.
(momentan fehlt mir jetzt einfach die Zeit... wollte nur mal schnell reinschnarchen)
 
Zuletzt bearbeitet:
Erfreulich dass die UE4 Implementierung von DLSS scheinbar so gut umgesetzt ist. Hab auch in der System Shock Demo mit DLSS schon äußerst gute Erfahrungen gemacht, obwohl dort wohl aktuell nur DLSS performance zur Verfügung steht.

Klasse, wenn das in Zukunft jeder Entwickler einfach aktivieren kann. Erstklassiges Antialiasing und zugleich bessere Performance. Der Matsch des UE4 Standard TAA damit wohl endlich Geschichte.

Krass wie sich die Zeiten ändern. Heute ist gutes Antialiasing viel besser als früher und ist nicht nur gratis, (was an sich schon ein Wunder wäre) nein, es bringt performance.

Ich weiß noch, wie 4x MSAA locker 1/3 der FPS gefressen hat oder sogar noch mehr und trotzdem nur so semi gut aussah, weil es nicht alles geglättet hat. Selbst Super Sampling hat oft nicht alles sauber geglättet, obwohl es die FPS komplett gekillt hat. Und heute sowas... Einfach nur Wahnsinn.
 
Beim Überblick über alle GPUs wäre es sinnvoll und wünschenswert - wenn auch aufwendiger, bei ALLEN nVIDIA-Produkten und nicht nur exemplarisch für das Topprodukt, die Performance unter DLSS anzuzeigen. Im Grunde hätte dafür die Balanced-Einstellung genügt. Erst recht, wenn es im Titel des Artikels eine wesentliche Rolle spielt und die Implementierung ausdrücklich gelobt wird, schließlich ist das Feature gerade für ältere, oder in einer niedrigeren Performanceklasse angesiedelten Modelle interessant.
Da stimme ich zu. Gerade für die untere Mittelklasse wie die 2060 ist doch DLSS interessant. Eine 3080 sollte eigentlich 4K60 ohne DLSS in den meisten Titeln schaffen.

Laut Nvidia developer guidelines ist das Performance Target für zukünftige Titel auf der 2060 1080p60 mit DLSS und Raytracing auf On (Mittel) Da wäre es töricht, DLSS nicht in Benchmarks miteinfließen zu lassen!
 
Zurück