Resident Evil 8 Village im Technik-Test mit Benchmarks: Grafisch gelungener Raytracing-Grusel

Die 10,2GB waren auch QHD. Ich kann das jetzt nicht mehr nachstellken sonst fehlt mir die Zeit für den Test mit Thunderbolt. Das sollte eigentlich klar darlegen ob der Vram reicht oder fleißig gestreamt wird, im WorstCase kollabiert das Spiel. Mal schaun, ich berichte morgen.

@PCGH_Raff so ein eGPU Case ist ne feine Sache um Speichermangel offensichtlich zu machen, kann ich euch empfehlen. Man entdeckt damit übrigens auch gut Titel die sehr bandbreitenintensiv sind. (Mein Tip für den nächsten PCI Expresstest, Watch Dogs Legion )
 
Ok ... mir fällt ein, dass ich sehr penibel an meinen Hintergrundprozessen arbeite, wenn ich zocke.
Da wird alles abgeschaltet. Nix läuft im Hintergrund.
Selbst die Beleuchtungssachen. Da soll nix stören.
Mein Zocken muss perfekt sein. :D
(In meinem bescheidenen Rahmen)

Ich mein ... meine Screenshots sind ja echt. Die hab ich nicht getuned. Die sind echt mit den Einstellungen.
Hätte ja keinen Grund da was herumzuflunkern.

So bin ich nich.
Für Rumflunkern bin ich nich so für.
Nee, lass ma ! ;)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


edit:

Naja ... werd' mal ne Runde zocken.
Der Abend is noch lang(und die N8) ;)

Worauf immer ihr zockt, mit wie viel Speicher auch immer, habt Spaß ! :daumen:
 
Die sensiblen Speicherkrüppel müssen also mit Samthandschuhen angefasst werden, damit sie stets strahlen wie ein Honigkuchenpferd.
Neustartpflicht, Tab-Tabu und Mondstand müssen berücksichtig werden, nicht dass etwas zu Bruch geht in der grünen Wohlfühloase.
Benchmarks unter Ideal- statt Realbedingungen, kein Zeigen von Facetten, alle Wogen glätten, die Bubble oder Welt retten.

Dank @PCGH_Raff für den ehrlichen Eindruck.
 
du hast aber z.B. einige Effekte auch aus. Bloom, depht of field, lens flare etc.
Ja natürlich, wie gesagt. Diese Effekte(Unschärfe/Überstrahlen/Kameralinseneffekte) mag ich halt nicht. Wie auch "motion blur" in anderen Spielen, oder "chromatic aberration". Mache sowas immer aus. Und wie heißt das Andere noch mal ? Film Noise ?
Ob die jetzt so viel beim Speicher ausmachen ? Kann ich mir jetzt nicht vorstellen.

PS: Genug gezockt. Ab in's Bettchen. Gute N8 @ all ! ? ?
 
Zuletzt bearbeitet:
Ja natürlich, wie gesagt. Diese Effekte(Unschärfe/Überstrahlen/Kameralinseneffekte) mag ich halt nicht. Wie auch "motion blur" in anderen Spielen, oder "chromatic aberration". Mache sowas immer aus. Und wie heißt das Andere noch mal ? Film Noise ?
Ob die jetzt so viel beim Speicher ausmachen ? Kann ich mir jetzt nicht vorstellen.

PS: Genug gezockt. Ab in's Bettchen. Gute N8 @ all ! ? ?
Den Müll mache ich auch als erstes aus. Spart ein wenig VRam und sieht auch noch besser aus.
Die sensiblen Raytracingkrüppel müssen also mit Samthandschuhen angefasst werden, damit sie stets strahlen wie ein Honigkuchenpferd.
Neustartpflicht, Tab-Tabu und Mondstand müssen berücksichtig werden, nicht dass etwas zu Bruch geht in der roten Wohlfühloase.
Benchmarks unter Ideal- statt Realbedingungen, kein Zeigen von Facetten, alle Wogen glätten, die Bubble oder Welt retten.

Dank @PCGH_Raff für den ehrlichen Eindruck.
Ich habs mal für das morgige Metro Exodus angepasst.
Oder kommen da dann Ausreden was für ein unoptimiertes, von Nvidia gekauftes Spiel das doch ist...........und ausserdem......wer braucht schon Raytracing

Edit:
Warum hier AMD die RT-Handbremse angezogen hat verstehe ich nicht. Bei den Bildraten hätte man ruhig mehr in die Vollen gehen können. Ein Aushängeschild ist es mit der Bildqualität nicht.
 
Zuletzt bearbeitet:
RDNA2 geht dank üppigen VRAM nicht gleich in die Knie wenn immer wieder herausgetabt wird. Sei doch nicht so einfälltig und lustlos, denk dir lieber passende Punkte aus, wenn du den Text schon "anpassen" willst. Raff hat gestern überraschend deutlich durchscheinen lassen, dass ihn der nervige Umgang mit den VRAM-Kastraten mittlerweile abf*ckt beim rauf- und runterbenchen. Vor allem wenn sich dann ungläubige Grünlinge wie kleine Terrier festbeissen und ihn dann auch noch über seine eigenen Erfahrungen belehren wollen.

Edit: Der springende und traurige Punkt ist allerdings, dass die Werte der VRAM-Kastraten eigentlich in den Diagrammen geschönt sind, da sie dem Praxiseinsatz im Alltag wo getabt und voicegechatet wird oder wo Browser und Videoplayer offen sind, nicht standhalten. Und dass diese Karten in kritischen Spielen keine 1-2 Stunden Spieldauer überstehen ohne Schluckauf zu bekommen oder Streaming-Details wegzulassen oder einen Neustart benötigen wegen Slowdowns, sieht man in den Diagrammen auch nicht.

Bei Navi 2 sieht man wenigstens gerade heraus, dass er nichts taugt für Raytracing, damit haben Nvidia-User jedoch ein größeres Problem als Radeon-User. Vielleicht schwingt da auch eine gewisse Angst/Unsicherheit mit, dass RDNA2 am Ende doch nicht so ein mieser RT-Performer sein könnte, wenn nicht nur einseitig auf Nvidia zugeschnitten wird.
 
Zuletzt bearbeitet von einem Moderator:
Vielleicht schwingt da auch eine gewisse Angst/Unsicherheit mit, dass RDNA2 am Ende doch nicht so ein mieser RT-Performer sein könnte, wenn nicht nur einseitig auf Nvidia zugeschnitten wir
Natürlich schwingt da Angst mit....mit meiner Asus RX 6800 Strix.
Ich bin halt nicht so verbohrt und meine mit einer Midrange Karte immer alles auf max (wie bei den PCGH Benchmarks) spielen zu müssen. Ich glaube eher, daß 99.9% nicht so spielen, sondern ihre Spiele anpassen.
Natürlich performt RDNA2 auch mit RT gut....in Spielen bei denen AMD die Finger drauf hat und relativ wenig mit Raytracing gemacht wird. Genauso ist es eben bei den Spielen in denen Nvidia Pate gestanden hat. Da macht meine RTX 3070 die RX 6800 einfach gründlich nass. Es ist nicht immer die reine Leistung der Karten die wir zu sehen bekommen. Ansonsten würden wir nicht oft solche gravierenden Unterschiede sehen. Mal auf Seiten von AMD und mal auf Seiten von Nvidia. Die RX 6800 habe ich für den 3440x1440 Monitor gekauft, da ich eben VRam bedingt weniger Kompromisse eingehen mus als mit den 8Gb der RTX 3070. Die reicht aber noch für 2560x1440. Und falls ich ein Spiel habe, in denen die 8GB nicht reichen sollten, bin ich mir nicht zu fein mal nen Regler weiter links zu setzen.
 
Es ist nicht immer die reine Leistung der Karten die wir zu sehen bekommen. Ansonsten würden wir nicht oft solche gravierenden Unterschiede sehen.
Da hat sich jetzt wirklich so ein richtiges Geschwür etabliert, je mehr du zahlst, desto besser läuft deine Hardware bei uns. Ein neutrales Bild ist kaum zu machen derzeit, ich denke der Port Royal ist noch so die glaubwürdigste Skizzierung der RT Leistung der Karten,
 
Naja, echter Speichermangel gehört dank Texture streaming ja eh zur Vergangenheit, sofern die engine optimiert ist und alles Essentielle in den VRAM passt, sollte VRAM-Mangel nicht zu Framedrops führen.

Aber wenn du auf die Speicherallokation in den Screenshots schaust, wirst du feststellen dass es knapp wird. Die 3070 wird zum Teil höhere Texturen raushauen müssen und die Karte wurde auch für WQHD beworben und ist 6 Monate alt.

Insgesamt ist die 30er Serie bis auf 90 und 60 einfach viel zu knapp bemessen. Ich warte jetzt NOCH eine Generation ab, könnte ja eh nicht selbst wenn ich wollte :ugly:
so einfach ists dann nicht. der vram der angegeben wird im game ist für alle karten gedacht und gerade radeons brauchen dann deutlich mehr vram als zb eine 3080 mit gddr6x speicher. die braucht weniger vram als eine 3070 habe genug youtube videos gesehen. diese 10gb reichen noch lange. bei amd musste man 16gb nehmen das ging nicht anders da mit 8gb extreme probleme aufgetretten wären
 
@Gurdi
Ist leider so. Deswegen werden die Grabenkämpfe immer absurder.
Ich glaube aber nicht, daß sich AMD und Nvidia, zugunsten der Gamer, auf ein gemeinsames vertretbares Setting einigen werden.
 
so einfach ists dann nicht. der vram der angegeben wird im game ist für alle karten gedacht und gerade radeons brauchen dann deutlich mehr vram als zb eine 3080 mit gddr6x speicher. die braucht weniger vram als eine 3070 habe genug youtube videos gesehen. diese 10gb reichen noch lange. bei amd musste man 16gb nehmen das ging nicht anders da mit 8gb extreme probleme aufgetretten wären
Sry aber das ist absoluter Unsinn denn du da schreibst. Die Geschwindigkeit hat absolut gar nichts mit der Menge zu tun die benötigt wird. Gleich kommt wieder einer um die Ecke um meint RTX IO würde Vram überflüssig machen....
YouTube Bildung ist sowieso so ne Sache.
@Gurdi
Ist leider so. Deswegen werden die Grabenkämpfe immer absurder.
Ich glaube aber nicht, daß sich AMD und Nvidia, zugunsten der Gamer, auf ein gemeinsames vertretbares Setting einigen werden.
Ja sieht nicht danach aus, NV wird wohl Haloprojekte fördern die auf maximale Anforderung hinauslaufen und nur mit DLSS vernünftig zu betreiben sind und AMD wird eher auf die abgespeckte Schiene setzen die dann auch auf den Konsolen mit einigen Tricks sauber läuft.

Langfristig setzt sich eigentlich nur eine offene Variante wirklich durch, so zumindest die letzten Jahre die Erfahrung.
 
Zuletzt bearbeitet:
Dem ein, oder anderen scheint's hier wieder nur darum zu gehen, "was besser" ist, AMD, oder Nvidia.
(Ihr habt Intel noch vergessen ;) )

Mir ging's nur darum zu zeigen, anhand von Beweisen und Screenshots, wie's echt bei mir im Zockeinsatz aussieht.

Und das is so, wie's is, ob's nun dem "AMD is besser Lager" gefällt, oder nicht.
Deal with it !
;)

Viel Spaß noch beim Speicherkrüppel schlecht reden, denen 8GB auch reicht.

"Ungläubige Grünlinge", die einfach Screenshots zeigen. Wo kommen wir denn da hin !? :lol:
Alles Fakenews. Sicher, sicher ...
Macht mal weiter, bei eurer rot is toll, grün is shice show hier.

Have fun !

Hab ich auch. Ich allerdings beim Zocken, ohne jegliche Probleme, oder Abstürze. :D
(Dank "grüner" Karte ;) )
 
Langfristig setzt sich eigentlich nur eine offene Variante wirklich durch, so zumindest die letzten Jahre die Erfahrung.
Bis zur nächsten Gen werden wir ja dann hoffentlich einen Trend sehen.
Wenn AMD und Nvidia ihr Spielchen weiter so halten, habe ich aber kein Problem wieder von beiden zu kaufen.
 
Dem ein, oder anderen scheint's hier wieder nur darum zu gehen, "was besser" ist, AMD, oder Nvidia.
(Ihr habt Intel noch vergessen ;) )
Gerade bei der RE Engine ist der technische Aspekt ja auch interessant. Egal ob jetzt grün oder rot.
Auch jemand mit einer 3090 interessiert sich sicher dafür wo und in welcher Situation er Profit aus seiner Technik schlagen kann. Wirklich gravierende Auswirkungen durch den Vram werden eh von der Engine meist kompensiert.
 
..
Macht mal weiter, bei eurer rot is toll, grün is shice show hier.
Jetzt ganz ohne "Rot ist toll, grün ist doof", aber was du machst ist genau die gleiche Leier nur umgekehrt :), du musst deine Kaufentscheidung uns gegenüber absolut nicht verteidigen, es ist super wenn du zufrieden bist und alles nachweislich super läuft, und für die "Roten" ist es doch auch schön wenn alles vernünftig läuft.

No hate needed :)
 
Danke für den aufschlussreichen und interessanten Test Jungs! Die Demo hat mir beim Anspielen vor ein paar Tagen auch schon sehr gut gefallen und ich werde auf jeden Fall bei MMOGA zuschlagen :)

Ich war nur sehr erstaunt, wie ungleichmäßig die Taktraten bei meiner UV 3090 waren. Die läuft normalerweise zwischen 1920 bis 1905 MHz bei 900 mV. Klar lag die GPU-Last nicht immer bei 99%+, weswegen ich dann die Auflösungsskalierung auf 150% hochgedreht hab, aber auch das half nix gegen die ständigen Taktsprünge. Ging runter bis 1590 MHz und dann wieder hoch auf 1920 MHz. Die Temperaturen waren aber relativ konstant. Treiber war aktuell. Scheint an der RT-Last zu liegen, denn bei beiden RE 2 + 3 Remakes lag der Boost-Takt, auch bei niedrigerer Last, immer konstant an. Konnte das noch Jemand beobachten oder kennt den Grund dafür?
 
Es ist eigentlich logisch, dass die GPU weiter herunter taktet, wenn du sie mit Raytracing zusätzlich belastest. Die RT-Last ist abhängig von der Szene, daher springt der Takt.
 
Zurück