Special Dragon Age: The Veilguard im XXL-Tech-Test - Benchmarks von 20 CPUs und 26 GPUs

Genau meine ERfahrung seit ebenfalls gestern...bin mir noch unsicher, was für mich "besser" aussieht...mit "Standard-Bloom" (Wert in der Config-Datei auf "1") wirkt es für mich in der Tat etwas "natürlicher", wie in einem (Animations-) Film, weniger "3D-Render-Demo-mäßig"...
Hab mir dazu mal n paar Videos angeguckt. Aus meiner Sicht sieht der Standard-Bloom besser aus. Passt halt irgendwie auch besser zu den ohnehin irgendwie disney-mäßig aussehenden Figuren. :ugly:

Machen schon einen sichtbaren Unterschied. Jetzt nicht die Welt, aber im direkten Vergleich auch ohne Lupe sichtbar.
Als ich gestern die Geometriedetails auf Max gestellt habe, waren z.B. manche Details (Schulterplatte) meiner Rüstung besser ausgearbeitet als auf Ultra.
Danke für die Info. :) Werd ich bei Zeiten mal testen.
 
"Finger weg von 8-GiByte-Grafikkarten", Teil ... 38? ;)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
 
"Finger weg von 8-GiByte-Grafikkarten", Teil ... 38? ;)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
Gibt es echt immer noch jemanden der 8GB Karten, zum spielen, felesenfest verteidigt Raff?
Im Grunde ist es doch schon seit der 3000er Generation klar, das alles unter 16GB VRAM für Gaming einfach nur noch zunehmend völlig ungenügend wird und ist, vor allen wenn man auch vor hat sowas wie Raytracing zu nutzen.

Umso schlimmer ist im Grunde das Nvidia auch mit der 5000er Generation wohl wieder mindestens Karten mit nur 12GB VRAM rausbringen wird, wobei mich aber auch 8GB Modelle nicht wundern würden...
 
Mit den neuen Einstellungen bin ich bei 13-17 gb vram. Angezeigt auf jeden Fall.
 
Zuletzt bearbeitet:
Umso schlimmer ist im Grunde das Nvidia auch mit der 5000er Generation wohl wieder mindestens Karten mit nur 12GB VRAM rausbringen wird, wobei mich aber auch 8GB Modelle nicht wundern würden...

Alleine die 12GB wären doch schon ein massives Upgrade. Oder mit Blick auf die ursprüngliche RTX 3060/12GB von 2021 zumindest: ein RETURN TO FORM. :D
 
Zuletzt bearbeitet:
Den Ryzen 2700x von meinem Weibchen habe ich gedrosselt und beschränkt damit das Spiel besser läuft.

3,2 Ghz und die SMT sowie die ganzen Extras aus. Fix 1,225 Volt. 75 Watt Limit. RAM das gleiche Spiel. Runter auf 2400Mhz 14,14,14,28 und auch 1,225 Volt. Mach ich immer so wenn ich Faul sein will bei den AMD Prozis. Und ich bin Ehrlich da geht jetzt sicher wieder was rauf auch, aber ich habe keine Lust und keinen Grund dazu.

Naja auf jeden Fall ist des dann so gelaufen. Ich dachte am Anfang die Grafikkarte würde zuviel Strom schlucken wollen, was den Rechner jedesmal im Charaktermenu hat einfach ausgehen lassen und mich bisle Dumm dastehen, weil der nie irgendwie ausgegangen ist zuvor. Aber des wird schon die Arc gewesen sein, weil des machen die halt gerne, Netzteile töten. :-)

Die A770 16GB habsch ihr dann auch gleich mit Beschränkt auf unter 130 Watt für den Chip und schön die Leistungssteigerung rauf auf 37, ohne Extravoltages mit gefixten Lüftern 50% auf der LE. Dann ist des auch Gut gelaufen. Einstellungen sind von Hoch auf Ultra an was gefällt und geht.

Des Haarzeugs ist auf jeden Fall an, ich glaube da hätte ich garnet mit meinem Weibchen rumdiskutieren können. Raytracing ist auch auf dem höchstem Wert und Xess haben dann als letztes Mittel genommen damit wir nichts anderes runterstellen mussten. Keine Ahnung bei Interesse schaue ich mir die genauen Werte gerne nochmal an.

Von FPS weis ich schon lange nichts mehr. Des muss schön Laufen, Gut Aussehen und Fertig ist der Salat. Was es in allen Fällen bei uns hier macht. Schaut Schick aus an sich. Stimmig finde ich. Das ist doch das Wichtigste. Das alles zampasst.

Edit sagt: Das Spiel macht knapp über 8 GB Grafikspeicher voll bei 1440p. Ergo wäre des net so Lustig gelaufen wenn ich ihr eine 750 eingebaut hätte. Für die Spielerei ist der Mehrspeicher nur zu Empfehlen.

Edits Edit sagt: Ich erzähle des alles, weil als es dann gelaufen ist mal ohne abzustürzen, ständig so seltsame Nachladestotterer drin wahren im Spiel. Ruckler gefolgt von flüssigstem Bild. Deswegen der Spaß mit dem Prozi und dem Ram. Und weil es mich Gewundert hat das ich mit der Methode die Ruckler weggezaubert habe. :-)
 
Zuletzt bearbeitet:
Macht das jetzt nicht wieder alle Benchmarks zunichte? Warum aktiviert man so etwas nicht gleich mit dem Day-1-Patch? Ich bin heute Abend wieder dahoam, dann teste ich das mal. Habe nämlich noch meinen alten Wert mit RT, von vor dem Patch.
Könnte eventuell schon ein wenig ausmachen. Wenn die Texturen so viel umfangreicher wären, belastet das zumindest bezüglich Bandbreite das Streaming. Also zwischen Speicher und CPU und beim Anweisen und anschließenden Transferieren der benötigten Daten in den Grafikspeicher (selbst, wenn der ausreicht).

Es mag also vielleicht ein wenig länger dauern, bis die CPU all die nun umfangreicheren Daten aus dem einen Speicher angefordert hat (was ein wenig aussieht, wie ein CPU-Limit) und es mag ein wenig länger dauern, bis die GPU all die nun umfangreicheren Daten hat, die sie benötigt, um den nächsten Frame zu zeichnen (was ein wenig aussieht, wie ein GPU-Limit)

Ein bisschen siehst du eventuell auch in den CPU-Messungen. Aber das ist vielleicht mehr eine längere Übertragunszeit, weniger "rechnerische Mehrarbeit" für den Prozessor. So ähnlich läuft es dann auch beim Übertragen zur GPU. Die hat im Grunde auch hauptsächlich mit mehr Daten zu kämpfen, die in der selben Zeit übertragen werden sollen (also Bandbreite, Speicher). Speicher und Bandbreite sind also vermutlich als erstes ein Flaschenhals, nicht die Rechenleistung (egal, ob CPU oder GPU).

Allerdings werden auch die Shader tendenziell komplexer, grafiklastiger, wenn die Auflösung, die Farbtiefe etc. bei den genutzten Texturen steigen. Umfangreichere Shader kosten auch zusätzlich GPU-Leistung, nicht ganz unähnlich einer höheren Bildschirmauflösung. Und je nachdem was "Fadetouch" macht, ist es eben nicht nur Texturauflösung, sondern "Materialqualität". Also wie umfangreich die Material-Shader mit Beleuchtung etc. interagieren. Zum Beispiel könnte der Shader-Pass für den Ambient Occlsion-Pass innerhalb eines Materials verbessert sein, es könnte feiner Licht annehmen, feiner Reflektieren. Das Displacement-Mapping könnte umfangreicher, feiner ausfallen - das ist auch nur ein Material-Shader plus eine zusätzliche Textur. (Ein "Material" ist heutzutage bzw. seit gut 10 Jahren eben nicht mehr nur eine Textur, sondern eher ein kleines Render-Programm, ein zusätzliches "Processing" für die GPU. Die kosten GPU-Leistung - und stallen die CPU, wenn sie die zuvor in lesbaren, nutzbaren GPU-Code wandeln muss^^)

Gruß,
Phil
 
Hier gibt’s übrigens ein paar Vergleichswerte zwischen Ultra und Fade-touched:


MfG
Raff
 
Zurück