Shadow of the Tomb Raider: Raytracing und DLSS-Patch ausprobiert

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Shadow of the Tomb Raider: Raytracing und DLSS-Patch ausprobiert gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Shadow of the Tomb Raider: Raytracing und DLSS-Patch ausprobiert
 
Wow, detailliertere Schatten, einen Lichtkegel um's Feuer, der sich sonst niemals pseudo-realisieren ließe... da habe ich ja wahnsinnig was verpaßt. Und dann auch noch halbierte fps trollolol... als würde auch nur ein einziger user jetzt die TR-Packung nochmal unter dem Bett hervorholen, wenn es denn noch eine gäbe :).

Hier, mal was anderes: Was gab es denn heute bei euch in der Kantine? Wir hatten aaaaabsolut leckere Erbsensuppe! Ich habe mein Gesicht drin gebadet, so lecker war die!!!!!!!
 
Ich frag mich auch grad, wie der taiwanische Programmierer seine Familie ernähren soll, es gibt ja nichts neues was er kopieren könnte. Wie vom Vorredner gesagt, es gibt (seit Ewigkeiten) "Pseudoschatten" die nun offenbar rausprogrammiert wurden...der Unterschied ist aktuell noch nicht die Mehrkosten wert. Und ja ich weiß, Licht bezüglich der Programmierung ist enorm anspruchsvoll, aber der visuelle Mehrwert in Relation zu den ach so tollen " Schatten" dafür abgestempelten Transistoren steht in keiner Relation zu den Kosten.

Vllt sollte einfach Mal differentiert werden, der Lichtkegel am Feuer ist schön, aber der Einfluss der Umgebungsbeleuchtung zu vernachlässigen. Also nicht immer GI sondern abhängig von der Situation und selbst dann würde Schummelei nicht auffallen, die FPS von 60 auf 30 schon mehr.

Summa summarum, extrem inneffziente Programmierung. Beziehungsweise bewusst inneffzient, um "Features" zu pushen.

Der letzte Schachtelhalm brauch nicht die Beleuchtung vom weit entfernten Feuer und dem kommenden Sonnenaufgang.
 
Zuletzt bearbeitet:
Ne ernstgemeinte Frage:

Wurde das Video mit schlechter Auflösung aufgenommen, oder schaut das Spiel wirklich so kacke aus???

Ich meine, woanders schrieb ich schon, daß einige Spiele von heute keine großen Unterschiede zu damalige Titel aufweisen in der Grafik-Qualität...Tomb-Raider scheint ja ein Paradebeispiel hierfür zu sein...

Und dieser Raytracing-Blödsinn scheint ja noch immer sehr unausgereift zu sein, ne 2080ti ruckelt mit 30fps in Tomb-Raider durchs Spiel...wird wohl noch einige Jahre dauern bis man die 50fps erreicht??!! :ugly:
 
Ich frag mich auch grad, wie der taiwanische Programmierer seine Familie ernähren soll, es gibt ja nichts neues was er kopieren könnte. Wie vom Vorredner gesagt, es gibt (seit Ewigkeiten) "Pseudoschatten" die nun offenbar rausprogrammiert wurden...der Unterschied ist aktuell noch nicht die Mehrkosten wert. Und ja ich weiß, Licht bezüglich der Programmierung ist enorm anspruchsvoll, aber der visuelle Mehrwert in Relation zu den ach so tollen " Schatten" dafür abgestempelten Transistoren steht in keiner Relation zu den Kosten.

Vllt sollte einfach Mal differentiert werden, der Lichtkegel am Feuer ist schön, aber der Einfluss der Umgebungsbeleuchtung zu vernachlässigen. Also nicht immer GI sondern abhängig von der Situation und selbst dann würde Schummelei nicht auffallen, die FPS von 60 auf 30 schon mehr.

Summa summarum, extrem inneffziente Programmierung. Beziehungsweise bewusst inneffzient, um "Features" zu pushen.

Der letzte Schachtelhalm brauch nicht die Beleuchtung vom weit entfernten Feuer und dem kommenden Sonnenaufgang.

Ich glaube nicht das man das mit einfacher statischer Beleuchtung hinbekommen würde, Also die RTX Schatten und die Beleuchtung lassen das Spiel allgemein wesentlich realistischer erscheinen. Vor allem die Texturen Verschattung.
Ich habe aber nur Sorge das das auf Full HD und Ultra meine Karte nicht mit 45-50 FPS everywhere stemmt.
Hoffentlich optimieren die noch.:schief:
 
Ne ernstgemeinte Frage:

Wurde das Video mit schlechter Auflösung aufgenommen, oder schaut das Spiel wirklich so kacke aus???

Ich meine, woanders schrieb ich schon, daß einige Spiele von heute keine großen Unterschiede zu damalige Titel aufweisen in der Grafik-Qualität...Tomb-Raider scheint ja ein Paradebeispiel hierfür zu sein...

Und dieser Raytracing-Blödsinn scheint ja noch immer sehr unausgereift zu sein, ne 2080ti ruckelt mit 30fps in Tomb-Raider durchs Spiel...wird wohl noch einige Jahre dauern bis man die 50fps erreicht??!! :ugly:

60fps, darunter is krebs bzw. sollte den lowfps vorbehalten sein.

ich finds amüsant wie nvidia versucht raytracing zu pushen und jeden verlust in kauf nimmt. :ugly:
mal ebend halbierter börsenwert, mal machen die freesync weil gsync ein ladenhüter ist. 3d vision ist ein totes pfeeerd. physx steht unter einer freien lizenz nun. die sind echt verzweifelt weil die merken, das die kunden so langsam aufwachen aus ihrem buzzword winterschlaf.

mal gucken wann die eine neue technik einzug hält in den mainstream, wo nur ein kleines fenster scharf/genau berechnet wird und der andere käse ungenau, hab leider vergessen wie es hieß.


mal gucken wann wirklich eine neue gute engine rauskommt die die perfekte illusion schaft.
 
60fps, darunter is krebs bzw. sollte den lowfps vorbehalten sein.

ich finds amüsant wie nvidia versucht raytracing zu pushen und jeden verlust in kauf nimmt. :ugly:
mal ebend halbierter börsenwert, mal machen die freesync weil gsync ein ladenhüter ist. 3d vision ist ein totes pfeeerd. physx steht unter einer freien lizenz nun. die sind echt verzweifelt weil die merken, das die kunden so langsam aufwachen aus ihrem buzzword winterschlaf..

Ich würde wohl eher sagen, daß die meisten Konsumenten dümmer sind, als sie es jeher waren.

Anderes Problem ist ja wohl, daß all diese Begriffe in relativ kurzen Abständen erschienen sind, ohne irgendwelche wirklich großen Unterschiede aufzuzeigen.

Mich interessiert heute noch immer kein GSynch, Vsync, Freesync, usw... Solange die Grafikkarte alles schön ruckelfrei & in hübscher Auflösung anzeigt muß man nicht "syncen"...

VR z.B. ist der nächste Schritt, da fällt der Unterschied ins Auge, aber ob mein Monitor jetzt mit 50Hz, 59Hz, 60Hz, oder gar 144 Hz, flimmert, interessiert doch die meisten Gamer nicht.
Bei VR überlege ich gerade, ob ich mir das in den nächsten Monaten antun soll, reizen würde es mich schon.
 
Neben dem generellen Performanceverlust gibt es leider einige Stellen, an denen mit RT auf hoch oder Ultra die Framerate stark einbricht.
Die GPU-Auslastung sinkt dann von 99% bis in den 60 Bereich und die fps liegen nur um die 20.
Ob DLSS oder nicht spielt keine Rolle, auch die Auflösung ist egal.

Wer das testen möchte, teleportiert sich zum Basislager Wilder Dschungel und geht ein Stück nach Norden zu der dort markierten Reliquie.
 
Man sieht gut das die 2070 und 80 nicht genug Speicher haben für RT in Wqhd. Total Panne. RT i dem Spiel ist ein Flopp.
 
Bitte macht bei solchen Vergleichsaufnahmen nicht immer wieder den Fehler, das bild links/rechts aufzuteilen.
Sondern blendet bitte immer den SELBEN Bildausschnitt doppelt ein.

Sonst ist das vergleichen unnötig schwierig!
 
Ich find RT eigentlich ganz in Ordnung? nur das es noch Zeit brauch und ich gern noch 2-3 Jahre drauf verzichten kann.

Hab mal ne frage... gibt es eigentlich Leistungsaufnahme vergleiche zwischen RTX ON und OFF?
Mir ist im Video nur aufgefallen, das beim Splittscreen vergleich bei RTX ON die Spannung bissi höher anliegt?
Habe versucht dazu was zu finden, aber finde nichts?!?
 
also, ich habe im Video gesehen das die 2080ti auf 17 FPS runter ist.
habt ihr das mal mit ner 2060 oder 2070 getestet?
Dürfte doch unspielbar dann sein, richtig?
Ich weis nicht wie ihr das seht, aber ich finde das enorm "Fail". Aber ok. :cool:
 
Die Frametimes sind unter aller... und das obwohl auf nVidia optimiert wird. Egal ob DLSS oder nicht, ist das Stuttering unter RT jederzeit bemerkbar. Bisher ist RTX nur zur Demozwecken zu gebrauchen. 6 Monate Anlernen für DLSS1x. Von DLSS2x weit und breit nichts zu sehen. Welcher Entwickler/Publisher wartet bitte so lange, wenn sein Spiel fertig ist?

Eine 700-800 € Karte für 50fps? bei 1080 oder 1440p. Auf der Gamesconedemo wird DLSS2x aktiv gewesen sein, dann bricht die Framerate unter RT on extrem ein.

Crytek wird ein Tool für Unity bieten (derzeit im Betastatus). So liesse sich zumindest Voxel RT GI implementieren. Kostet 2-4 fps bei mittlerem bis hohem Preset. Bin gespannt wie das angenommen wird.
 
Interessanterweise ist der Verbrauch mit RT GERINGER als ohne.
Ich komme in WQHD auf etwa 230 Watt für die GPU mit RT auf Ultra und auf 250 Watt ohne.
In UHD steht es 260 zu 275 Watt. Spannung ist jeweils identisch.
Ist aber auch nicht verwunderlich, wie erwähnt ist entweder der Treiber oder die Implementierung noch ziemlich buggy.
Im Dschungel habe ich häufige FPS Drops bei denen auch die GPU Auslastung nach unten geht, die Frametimes sind übel.
Der VRAM ist nicht das Problem, ich komme auf 8,5 GB bei WQHD und 9,2 bei UHD.
 
Nicht zwingend, die GPU Auslastung sollte bei 99/100% liegen, das tut sie in der gemessenen Szene.
Mit Limiter sieht es natürlich anders aus, da ich ohne RT über 90 fps in WQHD habe langweilt sich die GPU wenn ich das auf z.b. 40 begrenze,
während mit RT die GPU-Last immer noch knapp 99% ist.

Der Einbruch im Dschungel ist >100% wenn man RT auf Ultra stellt ohne DLSS.
 
Wenn der Vergleich ohne Raytracing dann dafür mit mehr fps daherkommt, dann kann man doch in dem Fall gar nicht sagen wie viel Mehrverbrauch RT mit sich bringt, da auch das mehr an Frames ja Mehrverbraucht bedeutet.
 
Interessanterweise ist der Verbrauch mit RT GERINGER als ohne.
Ich komme in WQHD auf etwa 230 Watt für die GPU mit RT auf Ultra und auf 250 Watt ohne.
In UHD steht es 260 zu 275 Watt. Spannung ist jeweils identisch.
Ist aber auch nicht verwunderlich, wie erwähnt ist entweder der Treiber oder die Implementierung noch ziemlich buggy.
Im Dschungel habe ich häufige FPS Drops bei denen auch die GPU Auslastung nach unten geht, die Frametimes sind übel.
Der VRAM ist nicht das Problem, ich komme auf 8,5 GB bei WQHD und 9,2 bei UHD.

Könnte daran liegen, dass die normalen Shader weniger zu tun haben und deshalb weniger Energie verbrauchen.
 
Für euch die RTX 2070 mit einem i9 9900k:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Viel Spaß :)
 
Zurück