Watch Dogs: Legion Demo - Geforce RTX 2080 Ti nur für 30 Fps gut?

Das müsste die unreal engine sein
Um Gesichter gut darstellen zu können braucht es motion capturing
Eine hohe polygondichte und einen Bildausschnitt der nah ist
Ansonsten läuft man in vram grenzen.

Watch dogs legion wurde für die ps4 und xbone designet + der x und pro
Das nun nvidia ihren dxr Aufguss dazu machen ist reines marketing und das nimmt ubisoft gerne an. is ja geld.
DXR wird sich in folgenden Jahren durchsetzen und deutlich bessere Grafi ermöglichen da sämtliche alte fake Effekte wegfallen.
Dazu DLSS3 was nicht mehr im Spiel implementiert werden muss.
Wird sich auch die framerates bessern.
ich erwarte bei dem game ein vram limit und heftige nachladeruckelr weil man von hybrid drive der konsolen ausgeht oder extreme ladezeiten.
Stellt euch auf 2 Minuten Ladebildschirme ein, bei jeden abschnitt wechsel.
oder eine gewalötigen ram verbrauch also um die 24gb
Also wird man zwangsweise dlss 2 verwenden müssen bei anderen gpu eben das dsr
Optisch wird das ein Reinfall und nur mit dxr wirklich Ansehnlich.

Spannend wird wie die UE5 mit der nanite engine (texturen) auswirken wird. Und wie gut dxr läuft.
Deren demo vor paar Monaten war echt beeindruckend.
 
Die Demo läuft im Rahmen einer frühen Vorversion auf Ultra (Preset), in 1080p, bei RT on (vermutlich ohne Treiberoptimierung), auf einer 2080ti. DLSS war nicht aktiv und kann bisher nicht ausgewählt werden. Kommt wieder runter. Alles wird gut!:D
 
Ich bin echt froh wenn wir diese "auf Teufel komm raus" RT-Implementierungsphase überstanden haben.
Zwanzigtausend Pfützen hier, spiegelnder Boden dort.. am PC wird es einfach übertrieben ins Gamedesign reingeballert, ohne dass es einen wirklichen spielerischen Mehrwert bieten würde. Meinem persönlichen Empfinden nach wiegen die bis dato gebotenen RT-Effekte die damit einhergehende Textur- und Detail-Armut, in entsprechend "frisierten" Games, jedenfalls nicht auf.
Und die werbewirksamen Vergleichsbilder "RTX on/RTX off" kann man sich auch schenken. Wenn ich will, dass RTX gut aussieht, schenke ich herkömmlichen Beleuchtungs- oder Reflektions-Implementierungen die jedermann nutzen könnte einfach weniger Aufmerksamkeit und fertig ist die Laube. Jeder der nur die beiden "vorgeführten" RTX on/RTX off-Bilder sieht und vergleicht erkennt natürlich sofort das RayTraced-Bild als qualitativ besser an. Aber hey, das ja auch das verfolgte Ziel der dahinter steckenden Marketingtruppe.
Lassen sich einige zu sehr von blenden .
In meinen Augen sah es vor eineinhalb Jahren grafiktechnisch keinen Deut schlechter aus. Vllt sogar besser^^
2019.03.18-19.33.jpg 2019.03.07-22.51_01.jpg 2019.03.18-20.11.jpg 2019.02.21-23.14.jpg VRAM_Vega64_TD2_3840x2160_customized_Settings.jpg
Befürchte die PC-Plattform kann sich nach erscheinen der Next-Gen Konsolen echt warm anziehen wenn der bei manch Spielentwickler gesetzte Fokus nicht bald korrigiert wird!

edit: TD2 wäre vllt noch ein ganz gutes Game gewesen um die Funktionsweise des HBCC zu prüfen ;)
edit 2: erste vier Bilder von einer Radeon VII mit rund 15GB VRAM Adressierung, fünftes von einer Vega 64 mit HBCC enabled und anderen Settings.
 
Zuletzt bearbeitet:
Egal was Entwickler von Games oder Hardware tun und probieren, es ist immer schlecht. Die Community verkommt immer mehr zu Besserwissern und Motzgeneration. Da wird bei jedem Release gemotzt, dass die Grafik nicht up to date ist und die Hardware mal anständig gefordert werden muss, oder das es seitens Hardware neue Feature braucht. Jetzt wird geliefert und schon ist es wieder nicht recht. Ich kann mich an keinen Moment in den letzten 25 Jahren erinnern, bei denen neue Technologien direkt ausgereift und perfekt auf den Markt kamen. Eigentlich war es mal so, dass man mit einer 1 Jahr alten Graka schon nicht mehr anständig zocken konnte, unter Umständen ein Upgrade direkt für das nächste Spiel nötig war, heute halten diese 2-3 'Jahre und es ist trotzdem zu schlecht...
Ungemein viele junge Leute die noch nicht mal ihren Schulabschluss gemacht haben, aber jedem erzählen wie man es richtig macht. ;)
 
Auf Deiner verlinkten Seite läuft Crysis in 1024p mit ner GTX schon in ~39 FPS; also deutlich besser ls 720p inc. 20 FPS :schief:

Richtig aber nicht auf max settings, denn AA war aus (wie ich im von dir verlinkten Post sogar gesagt habe) und ich meinte max settings 720p, denn WD läuft hier vermutlich auch @max.
Abgesehen davon sind 38 FPS auch keine 60 und 1280x1024 KEINE 1024p. 1280x720 aber 720p, deswegen hatte ich auch 720p im Kopf.
38 FPS bezeichnest du also als ganz gut, aber bei 30 wird rumgeflamet?
Wenn du bei WD die Settings runterschraubst, hast du auch mehr als 30, also über was genau diskutieren wir hier?
Fakt ist, dass Crysis damals überspitzt gesagt selbst auf einer GTX ne Diashow war und niemanden hats gejuckt, aber hier wird jetzt wieder PCGH typisch rummimosert.

Wartet doch mal ab, bis das Spiel rauskommt. Bei BF5 wurde auch rumgejammert, weil RT so viel Performance frisst und heute läufts mit ~100 FPS auf Ultra.
 
Zuletzt bearbeitet:
richtig. so sieht ein spiel von 2016 auf hardware von 2014, ohne RT aus.
wohlgemerkt mit 8GB huma memory der ps4. effektiv etwa 6GB.
viele titel bringen selbst 2020 mit der dreifachen (vierfachen!) speichermenge solch texturen nicht auf den schirm.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich mag Naughty Dog, aber die tricksen auch sehr viel. So hat man schon recht matschige (aber stimmige) Texturkompositionen, wenig Geometriedetails und wenn Du hinschaust einen Strandteppich mit aufgeklebten Texturen. Bei Uncharted sackte die Framerate auch gerne mal unter die 30 Fps, was mit einem massiv übertriebenen Motion Blur kaschiert wurde. Ich mag Uncharted, aber wenn man die HD-Collection zuerst gespielt hat und danach Teil 4 möchte man am liebsten in einen Eimer kübeln. Ähnlich geht es mir aktuell auch mit LoU2, was mit vielen vielen Tricks arbeiten muss um auf der normalen PS4 halbwegs vernünftig laufen zu können.

Um zum Thema zurück zu kommen. Bei WDL ist das Raytracing bestimmt zu weitreichend gesetzt und könnte man den Afterburner einblenden würde man sehen, wie sich die GPU eigentlich langweilt, während CPU rödelt und die Tensor-Cores bestimmt auch am Kotzen sind. Bisher hat man ja RTX-Games eher in kleinen Arealen gesehen mit recht wenigen Lichtquellen, hier scheint es eher die globale Beleuchtung darzustellen. Ich lasse mich mal überraschen, aber WD ist eigentlich eh nicht so mein Genre. Mich wundert es, dass überhaupt ein dritter Teil entwickelt wurde.
 
Das müsste die unreal engine sein
Um Gesichter gut darstellen zu können braucht es motion capturing
Eine hohe polygondichte und einen Bildausschnitt der nah ist
Ansonsten läuft man in vram grenzen.

Watch dogs legion wurde für die ps4 und xbone designet + der x und pro

Yep...das könnte (mal wieder) der Grund für irgendwie nicht so ganz vorangekommene Grafik sein:schief:. So wirklich große Veränderung sehe ich nun zu WD 2 nicht. Nix, was mich nun zum Kauf animieren würde.
 
Sag blos du hast noch nie das hier oder ähnliches gesehen: Unreal Engine 4.0 - Photorealism is here - YouTube
Jetzt soll mir niemand mit "das ist doch ein ganz anderer unakurater Ansatz" kommen. Das ist mir sowas von scheissegal, das Resultat spricht für sich.

Ich dachte damals , dass wir schon bald soweit zu sein scheinen. Super realistisch trotz schlecht aufgelöster und nicht 100% korrekter Reflection. Fakt, es trägt nicht ansatzweise so einen grossen Teil dazu bei wie von Marketing angepriesen. Dazu einfach die Augen auf machen.


Ich rede nicht explizit von RT. RT ist ein Stück Dreck das es zwar tatsächlich schon vor über 30Jahren gegeben hat aber damals wie heute nicht brauchbar für bewegte Bilder ist.
Es gibt jetzt hie und da ein paar coole Effecte die es mit abstrichen auch vorher schon gab und wenn die praktisch gratis kämen würde ich es auch mitnehmen aber so... , nee!
 
Ich bin echt froh wenn wir diese "auf Teufel komm raus" RT-Implementierungsphase überstanden haben.
Zwanzigtausend Pfützen hier, spiegelnder Boden dort.. am PC wird es einfach übertrieben ins Gamedesign reingeballert, ohne dass es einen wirklichen spielerischen Mehrwert bieten würde. Meinem persönlichen Empfinden nach wiegen die bis dato gebotenen RT-Effekte die damit einhergehende Textur- und Detail-Armut, in entsprechend "frisierten" Games, jedenfalls nicht auf.
Und die werbewirksamen Vergleichsbilder "RTX on/RTX off" kann man sich auch schenken. Wenn ich will, dass RTX gut aussieht, schenke ich herkömmlichen Beleuchtungs- oder Reflektions-Implementierungen die jedermann nutzen könnte einfach weniger Aufmerksamkeit und fertig ist die Laube. Jeder der nur die beiden "vorgeführten" RTX on/RTX off-Bilder sieht und vergleicht erkennt natürlich sofort das RayTraced-Bild als qualitativ besser an. Aber hey, das ja auch das verfolgte Ziel der dahinter steckenden Marketingtruppe.
Lassen sich einige zu sehr von blenden .
In meinen Augen sah es vor eineinhalb Jahren grafiktechnisch keinen Deut schlechter aus. Vllt sogar besser^^
Anhang anzeigen 1095778Anhang anzeigen 1095779Anhang anzeigen 1095780Anhang anzeigen 1095781Anhang anzeigen 1095782
Befürchte die PC-Plattform kann sich nach erscheinen der Next-Gen Konsolen echt warm anziehen wenn der bei manch Spielentwickler gesetzte Fokus nicht bald korrigiert wird!

edit: TD2 wäre vllt noch ein ganz gutes Game gewesen um die Funktionsweise des HBCC zu prüfen ;)
edit 2: erste vier Bilder von einer Radeon VII mit rund 15GB VRAM Adressierung, fünftes von einer Vega 64 mit HBCC enabled und anderen Settings.

Genau das mein ich!
 
Die ganzen "Armchair-Experten" wieder hier und in der YouTube-Kommentar-Sektion...

Die Leute erwarten von einem Spiel mit einer riesigen, belebten Welt und unzähligen NPCs dieselbe imposante Optik wie von einem komplett durchgescripteten Spiel mit Schlauchlevels ? Ja nee, is' klar. Auch im Jahr 2020 geht das nicht von alleine.


Sehe ich jetzt garnicht so.
Kritik muss möglich sein, lese aber (könnte einen übersehen haben) nichts gegen das Spiel nur gegen angewendeter Technik.

Inhaltlich glaube ich nicht , dass das Spiel mich zum dritten mal abholen kann. Vorgänger ganz ok, Steuerung gefiehl mir jedoch nicht so.
Dies gilt übrigens auch für so gelobte GTA5, vorallem Flugzeuge (mit Ausnahme der Autos).
 
Ich mag Naughty Dog, aber die tricksen auch sehr viel. So hat man schon recht matschige (aber stimmige) Texturkompositionen, wenig Geometriedetails und wenn Du hinschaust einen Strandteppich mit aufgeklebten Texturen. Bei Uncharted sackte die Framerate auch gerne mal unter die 30 Fps, was mit einem massiv übertriebenen Motion Blur kaschiert wurde. Ich mag Uncharted, aber wenn man die HD-Collection zuerst gespielt hat und danach Teil 4 möchte man am liebsten in einen Eimer kübeln. Ähnlich geht es mir aktuell auch mit LoU2, was mit vielen vielen Tricks arbeiten muss um auf der normalen PS4 halbwegs vernünftig laufen zu können.

Wo fängt denn bei dir das Getrickse an? Jpeg Texturen gegenüber Bitmap ist ja auch schon "Getrichse". Last of Us 2 ist in meinen Augen das grafisch hübscheste Spiel. Klar, es gibt auch mal schwächere Ecken, aber es gibt auch Passagen wo man sich die Augen reibt und die auch locker bei den bisher gezeigten "Next-Gen-Titeln" herausstechen würden. Es trickst jeder... EA, Ubisoft, egal... Nur wer am besten "tricksen" kann, hat auch die beste Optik für eine angemessene Leistung... :ka:
 
Tja, findet euch mal damit ab, dass die Konsolen bestimmen, wie die Spiele aussehen.

Solange es keine neue Gen gibt wird sich auch an der Grafik wenig ändern.

Da kann man die Settings auf Ultra knallen bis man nur noch 10 FPS hat. Das bringt halt nicht viel.

Sobald die neue Gen draußen ist und Spiele dafür neu entwickelt werden, wird man mit der gleichen Hardware deutlich bessere Grafik bei deutlich besserer Performance erreichen. War schon immer so.

Solange die gleiche Konsolengen auf dem Markt ist, gibts auch am PC keine nennenswerten Fortschritte.

Es ist doch jedes Mal das gleiche.
Ich Spiel am PC wegen der FPS und je nach Spiel wegen der Bildqualität. Aber nicht wegen der Besseren „Grafik“.
Man bekommt mit der PC Version selten bessere Grafik. Meist einfach nur etwas bessere Qualität, Filterung und besseres LoD. Nichts was auch nur ansatzweise mit dem vergleichbar wäre, das die Devs bei einem Konsolen-Generationswechsel machen.
 
richtig. so sieht ein spiel von 2016 auf hardware von 2014, ohne RT aus.
wohlgemerkt mit 8GB huma memory der ps4. effektiv etwa 6GB.
viele titel bringen selbst 2020 mit der dreifachen (vierfachen!) speichermenge solch texturen nicht auf den schirm.

da sind die ubisoft gameplay-trailer anno 2020 einfach nur lachhaft!
man benötigt eine 2080ti um in watch-fail-dogs in 1080p auf 30 fps zu kommen? :lol:
und das bei der gezeigten popel grafik auf enthusiasten hardware mitte 2020?

Ubisoft zeigt ein Open-World-Spiel mit unzähligen NPCs und dann wird das verglichen mit Naughty Dog, die nie was anderes zustande gebracht haben, als komplett durchgescriptete Schlauchlevels ?
ND soll mal ein Open-World Spiel zeigen im Stil von Far Cry oder Watch Dogs und mit zahlreichen NPC ausstatten. Dann wollen wir doch mal sehen ob deren Charaktere und Levelgrafik immer noch so supi-toll ist...
 
Möchte dir ungern deine Vorfreude auf das Spiel nehmen, aber die technische Umsetzung könnte dir die Freude doch sehr nehmen, was mich wieder fragen lässt wieso man vorweg Geld bezahlt, obwohl man nicht weis ob es technisch gut läuft bzw. wie die Gesamtqualität ist.



gruß

was wohl schlimmer ist? Solche Antworten zu verfassen oder dafür sogar Likes zu bekommen. Klar hab ich mit dieser Antwort gerechnet, aber ich kann drüber wegsehen. Ich nehme die PCGH Community nichtmehr ernst. Gegen Nvidia und Ubisoft wird immer gefeuert.
 
Auf Konsole oder generell? Auf der PS4 sah Uncharted und God of War besser aus.
Uncharted 4: Desert Drivin' (1080P, No Commentary) - YouTube
Auf dem PC sieht TD2, HL Alyx, Battlefield 1 und 5 besser aus.
Aber TLOU2 sieht schon sehr geil aus, das stimmt.

Ich wage mich mal weit aus dem Fenster und sage generell. Naja, Uncharted hatte auch mal starke und mal schwächere Passagen, aber TLoU sieht schon noch etwas besser aus. Das "Openworld-Seattle" am Anfang ist aber eher die grafisch schwächste Stelle im Spiel. Da habe ich Uncharted in Australien besser in Erinnerung. Battlefield 1 fand ich jetzt nicht hübscher, zumindest was den Wald angeht. Muss ich aber nochmal ansehen. Ist irgendwie ja auch Geschmackssache, welche Effekte und Sonstiges einem besser gefallen. Durch die Filmkörnung wird bei Last of Us 2 sicher auch viel vertuscht.

EDIT: Ist auch schwierig zu sagen, weil man ja nicht alle Spiele kennt. Ich muss mir HL Alyx und Battlefield nochmal ansehen.
EDIT2: Battlefront 1 Endor habe ich noch sehr gut in Erinnerung. Da kommt Last of Us in Anbetracht, dass Battlefront Endor eine große Map ist, nicht ran. Aber es ist heftig, was Naughty Dog aus der PS4 rausholt. In Sachen Grafik/Tfops sind sie ganz weit vorne. Ich bin gespannt, was wir mit der PS5 erwarten dürfen. Und ja, God of War ist auch genial. Sony müsste nur ein "Boy" Teaser bringen und die Leute würden ausrasten.
 
Zuletzt bearbeitet:
Die miserabele Performance wundert mich bei einem UBI Spiel überhaupt nicht. Zeit für Optimierungen...Hahahahaha nicht bei diesem Mistladen. Können se behalten den Rotz :daumen2:.
 
Zurück